Inteligencia artificial, llega su botón del pánico

Alphabet, matriz de Google, es con toda seguridad la multinacional con más ganas de cambiar el mundo por completo. De darle un impulso que lo lance hacia el futuro por medio de las nuevas tecnologías y todas sus posibilidades. No obstante, pocas empresas son tan conscientes del riesgo que trae consigo el avance tecnológico gracias a su larga experiencia con el formato prueba-error.

Es por ello que somos muchos los que hemos sentido alivio cuando Deep Mind, su filial/start up dedicada a la inteligencia artificial y el Instituto para el Futuro de la Humanidad de la Universidad de Oxford anunciaron que habían desarrollado un gran «botón rojo» de emergencia para evitar que las máquinas realicen una «secuencia de acciones dañinas» para el entorno, el operador humano o ellas mismas y poder «ser guiadas a un entorno seguro».

Son muchas las voces (entre ellas algunas tan respetadas como la de Stephen Hawking) que han pedido en repetidas ocasiones un sistema de supervisión en el desarrollo de inteligencia artificial. El motivo es sencillo: es inevitable que en algún momento las máquinas superen en inteligencia a los humanos. En ese escenario es improbable que las máquinas se comporten de manera óptima de continuo para con su entorno. Es por ello que es necesario garantizar que el operador humano pueda interrumpir de forma segura e incluso repetida determinados tipos de inteligencia artificial.

De hecho, ante el incremento de capacidades de las máquinas, los investigadores dicen haberse asegurado de que las máquinas puedan aprender a prevenir, impedir o provocar estas interrupciones. Una forma que también se puede entender como un sistema de aprendizaje en el que se podría interrumpir la actividad de un robot cuando deba enfrentarse a una tarea para la que no estaba desarrollado inicialmente.

Sin embargo, son muchos los desarrolladores que dudan de si todos los algoritmos de la inteligencia artificial pueden ser interrumpidos. Es aquí donde juega un papel importante el aprendizaje reforzado, un tipo especial de IA que se basa en el autoajuste de la misma para tener un comportamiento ideal en todo escenario de forma autónoma: básicamente optimiza una función matemática para mejorar su rendimiento o comportamiento sin entender los conceptos sobre los que trabaja: solo entiende las fórmulas, no el objetivo de su trabajo.

Frente a esto existe una corriente que apuesta por un sistema de inteligencia artificial que implemente en los robots el significado de sus tareas para, de esta forma, evitar que por un concepto absolutamente mecanizado se pudiera infringir daño al entorno, los humanos u otras máquinas.

En cualquier caso, la creación de una superinteligencia que no solo superara a la de sus desarrolladores sino que fuera capaz de tomar conciencia de sí misma y fuera capaz de trazar estrategias de funcionamiento anticipándose a la de sus creadores es uno de los grandes peligros que ve parte de la comunidad científica en la apuesta por la inteligencia artificial. Aunque las cifras que se barajan pueden parecer lejanas, expertos como Nick Bostrom, del ya citado instituto de Oxford cree que entre 2075 y 2090 ya habrá inteligencias artificiales tan potentes como la humana.

Inteligencia Artificial, Google ya piensa en el botón rojo

Sin duda, la Inteligencia Artificial es una de las áreas con más posibilidades de desarrollo durante los próximos lustros. Y como todo avance científico y técnico trae aparejado un profundo debate ético (aunque alguna mente maestra de nuestro sistema educativo quiera eliminar la filosofía como asignatura troncal en todos los bachilleratos). Precisamente por eso, personalidades como Stephen Hawking, Elon Musk, Bill Gates o Mark Zuckerberg se han posicionado a favor y en contra de su libre desarrollo.

Son muchos los que a día de hoy buscan implementar sistemas de inteligencia artificial y machine learning pero pocos tienen unas bases tan sólidas y un proyecto tan avanzado como DeepMind, adquirido por Google en 2014 por 580 millones de dólares y en el que a día de hoy trabajan científicos de Harvard y Oxford.

Sin embargo, la presión social y de esas esferas científicas ha hecho que los expertos no solo trabajen en su desarrollo sino también en un sistema que nos permita desactivarla en caso de un riesgo potencial para nuestra supervivencia.

Puesto en marcha por el Instituto para el Futuro de la Humanidad de la prestigiosa universidad británica e investigadores de Google -se puede seguir todo el razonamiento del sistema en el documento Safely Interruptible Agents– buscan poner una serie de normas y funciones que eviten que DeepMind pueda tomar el control de sí misma de forma autónoma: dejar de ser controlable por sus creadores.

De esta forma, se puede activar un protocolo ajeno al propio DeepMind para que los humanos puedan volver a retomar el control. Aunque pueda sonar a película de ciencia ficción, el propio Instituto lo define como una suerte de «póliza de seguros» que «garantiza un óptimo funcionamiento de los sistemas» refiriéndose estos a todos aquellos equipos o líneas de fabricación totalmente automatizados en los que no existe posibilidad de intervención humana.

Uno de los retos a los que se están enfrentando los expertos es cómo crear un protocolo que la IA no sea capaz de comprender y, por tanto, desactivar. De ocurrir esto, DeepMind sería absolutamente independiente y sería prácticamente imposible desactivarlo. Aquí es donde aparece Q-learning y Sarsa, dos algoritmos completamente independientes e imposibles de modificar por la propia IA.

El problema reside en que multitud de sistemas de machine learning no está implementando este botón rojo. Y es aquí donde los Hawking y compañía piden que se implementen de forma urgente los módulos de seguridad que no dejen aspectos críticos en manos de una inteligencia imposible de controlar.

DeepMind nació con el objetivo de «tratar de resolver la inteligencia». El reto, enorme, tiene como daño colateral que en menos de cien años podría ser más astuta que la propia especie humana lo que la convierte en potencialmente peligrosa si es capaz de volverse autónoma, independiente y, sobre todo, gestiona recursos críticos del planeta.