Inteligencia artificial, llega su botón del pánico

Alphabet, matriz de Google, es con toda seguridad la multinacional con más ganas de cambiar el mundo por completo. De darle un impulso que lo lance hacia el futuro por medio de las nuevas tecnologías y todas sus posibilidades. No obstante, pocas empresas son tan conscientes del riesgo que trae consigo el avance tecnológico gracias a su larga experiencia con el formato prueba-error.

Es por ello que somos muchos los que hemos sentido alivio cuando Deep Mind, su filial/start up dedicada a la inteligencia artificial y el Instituto para el Futuro de la Humanidad de la Universidad de Oxford anunciaron que habían desarrollado un gran “botón rojo” de emergencia para evitar que las máquinas realicen una “secuencia de acciones dañinas” para el entorno, el operador humano o ellas mismas y poder “ser guiadas a un entorno seguro”.

Son muchas las voces (entre ellas algunas tan respetadas como la de Stephen Hawking) que han pedido en repetidas ocasiones un sistema de supervisión en el desarrollo de inteligencia artificial. El motivo es sencillo: es inevitable que en algún momento las máquinas superen en inteligencia a los humanos. En ese escenario es improbable que las máquinas se comporten de manera óptima de continuo para con su entorno. Es por ello que es necesario garantizar que el operador humano pueda interrumpir de forma segura e incluso repetida determinados tipos de inteligencia artificial.

De hecho, ante el incremento de capacidades de las máquinas, los investigadores dicen haberse asegurado de que las máquinas puedan aprender a prevenir, impedir o provocar estas interrupciones. Una forma que también se puede entender como un sistema de aprendizaje en el que se podría interrumpir la actividad de un robot cuando deba enfrentarse a una tarea para la que no estaba desarrollado inicialmente.

Sin embargo, son muchos los desarrolladores que dudan de si todos los algoritmos de la inteligencia artificial pueden ser interrumpidos. Es aquí donde juega un papel importante el aprendizaje reforzado, un tipo especial de IA que se basa en el autoajuste de la misma para tener un comportamiento ideal en todo escenario de forma autónoma: básicamente optimiza una función matemática para mejorar su rendimiento o comportamiento sin entender los conceptos sobre los que trabaja: solo entiende las fórmulas, no el objetivo de su trabajo.

Frente a esto existe una corriente que apuesta por un sistema de inteligencia artificial que implemente en los robots el significado de sus tareas para, de esta forma, evitar que por un concepto absolutamente mecanizado se pudiera infringir daño al entorno, los humanos u otras máquinas.

En cualquier caso, la creación de una superinteligencia que no solo superara a la de sus desarrolladores sino que fuera capaz de tomar conciencia de sí misma y fuera capaz de trazar estrategias de funcionamiento anticipándose a la de sus creadores es uno de los grandes peligros que ve parte de la comunidad científica en la apuesta por la inteligencia artificial. Aunque las cifras que se barajan pueden parecer lejanas, expertos como Nick Bostrom, del ya citado instituto de Oxford cree que entre 2075 y 2090 ya habrá inteligencias artificiales tan potentes como la humana.

Publicado por

Gaizka Manero López

Nacido en 1982 en Portugalete, Bizkaia, soy doctor en "Periodismo, Comunicación y Memoria en la era digital" por la Universidad del País Vasco.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *