Inteligencia Artificial, Google ya piensa en el botón rojo

Sin duda, la Inteligencia Artificial es una de las áreas con más posibilidades de desarrollo durante los próximos lustros. Y como todo avance científico y técnico trae aparejado un profundo debate ético (aunque alguna mente maestra de nuestro sistema educativo quiera eliminar la filosofía como asignatura troncal en todos los bachilleratos). Precisamente por eso, personalidades como Stephen Hawking, Elon Musk, Bill Gates o Mark Zuckerberg se han posicionado a favor y en contra de su libre desarrollo.

Son muchos los que a día de hoy buscan implementar sistemas de inteligencia artificial y machine learning pero pocos tienen unas bases tan sólidas y un proyecto tan avanzado como DeepMind, adquirido por Google en 2014 por 580 millones de dólares y en el que a día de hoy trabajan científicos de Harvard y Oxford.

Sin embargo, la presión social y de esas esferas científicas ha hecho que los expertos no solo trabajen en su desarrollo sino también en un sistema que nos permita desactivarla en caso de un riesgo potencial para nuestra supervivencia.

Puesto en marcha por el Instituto para el Futuro de la Humanidad de la prestigiosa universidad británica e investigadores de Google -se puede seguir todo el razonamiento del sistema en el documento Safely Interruptible Agents– buscan poner una serie de normas y funciones que eviten que DeepMind pueda tomar el control de sí misma de forma autónoma: dejar de ser controlable por sus creadores.

De esta forma, se puede activar un protocolo ajeno al propio DeepMind para que los humanos puedan volver a retomar el control. Aunque pueda sonar a película de ciencia ficción, el propio Instituto lo define como una suerte de «póliza de seguros» que «garantiza un óptimo funcionamiento de los sistemas» refiriéndose estos a todos aquellos equipos o líneas de fabricación totalmente automatizados en los que no existe posibilidad de intervención humana.

Uno de los retos a los que se están enfrentando los expertos es cómo crear un protocolo que la IA no sea capaz de comprender y, por tanto, desactivar. De ocurrir esto, DeepMind sería absolutamente independiente y sería prácticamente imposible desactivarlo. Aquí es donde aparece Q-learning y Sarsa, dos algoritmos completamente independientes e imposibles de modificar por la propia IA.

El problema reside en que multitud de sistemas de machine learning no está implementando este botón rojo. Y es aquí donde los Hawking y compañía piden que se implementen de forma urgente los módulos de seguridad que no dejen aspectos críticos en manos de una inteligencia imposible de controlar.

DeepMind nació con el objetivo de «tratar de resolver la inteligencia». El reto, enorme, tiene como daño colateral que en menos de cien años podría ser más astuta que la propia especie humana lo que la convierte en potencialmente peligrosa si es capaz de volverse autónoma, independiente y, sobre todo, gestiona recursos críticos del planeta.

Publicado por

Gaizka Manero López

Nacido en 1982 en Portugalete, Bizkaia, soy doctor en "Periodismo, Comunicación y Memoria en la era digital" por la Universidad del País Vasco.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *