Inteligencia Artificial, la encrucijada entre ciencia y humanidad

Realidad virtual e Inteligencia Artificial son dos conceptos que oiremos mucho durante los próximos años. Dos conceptos -muy diferentes entre sí- que están en plena expansión por sus enormes posibilidades en todo tipo de campos. Sin embargo, el potente crecimiento del segundo los últimos meses también ha disparado la preocupación de multitud de expertos y analistas lo que ha llevado a la Casa Blanca a tomar cartas en el asunto (al menos públicamente).

El Ejecutivo americano ha anunciado que el subcomité para el Aprendizaje Automático e Inteligencia Artificial del Consejo Nacional de Ciencia y Tecnología se reunirá todas las semanas para monitorizar todos los avances del sector. En realidad, si atendemos a expertos, este titular más cercano a una película de ciencia ficción protagonizado por Tony Stark, no es tan mala idea.

El subcomité reunirá toda la información disponible en los avances en Inteligencia Artificial tanto en el sector público como el privado. Esto, más allá de permitirles conocer de primera manos los avances de sus rivales, también está pensado para que aprendamos a regular todo el proceso para evitar algo que ya ha ocurrido en otros ámbitos anteriormente: la falta de control en un avance tecnológico es aprovechado por «pioneros» a costa de los demás.

Los principales problemas a los que se enfrenta la IA son una mala codificación, un diseño poco seguro que permita la interferencia de terceros o, peor aún, la creación de unos algoritmos que alternaran drásticamente (casi en cualquier dirección) la vida humana. Lo más curioso es que el anuncio se produce días después de que el Gobierno americano publique un informe relacionado con las oportunidades, retos y derechos civiles en un mundo excesivamente automatizado.

Una de las conclusiones más llamativas del documento es que: «dado que los servicios basados en datos son cada vez más omnipresentes y dado que cada vez dependemos más de ellos, debemos abordar las preocupaciones sobre los sesgos intencionales o implícitos que puedan surgir de los datos y los algoritmos utilizados así como su impacto en los individuos y la sociedad». ¿Son el problema los datos o su interpretación? ¿Quién debe enseñar a la IA a entender los datos? ¿Debe siquiera llegar a entenderlos un sistema «digital»?

El problema surge cuando instituciones y organizaciones usan los sistemas algorítmicos y los procesos automatizados para tomar decisiones que afectan a nuestra vida como si estamos en condiciones o no de recibir un crédito o de entrar a trabajar en una empresa. Un fallo humano a la hora de crear estos sistemas puede ser crucial a la hora de vetarnos la entrada a una universidad o algo incluso más grave si seguimos permitiendo una escalada «gratuita» no humana en decisiones críticas (militares o médicas, por ejemplo).

Esto no significa que, como explican en Genbeta, la Casa Blanca vaya a abandonar sus investigaciones en este campo estratégico. Nada más lejos de la realidad, Washington incluso ha anunciado el patrocinio de eventos relacionados con la IA, pero estos siempre llevarán aparejados programas de investigación y el soporte de expertos científicos tanto en leyes como en ciencia y ética. El factor humano imprescindible para toda revolución tecnológica.

Publicado por

Gaizka Manero López

Nacido en 1982 en Portugalete, Bizkaia, soy doctor en "Periodismo, Comunicación y Memoria en la era digital" por la Universidad del País Vasco.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *