Machine Learning, Google quiere interpretar la realidad

Parece que Google está dispuesta a seguir avanzando en el conocimiento de sus clientes (usuarios) mucho más allá de lo que creíamos. Si ahora gracias a sus servicios lo sabe prácticamente todo de nosotros, el siguiente paso que tienen planeado los de Mountain View es conocer también lo que nos rodea. Distinguir nuestro origen por nuestro acento, saber qué hacemos, dónde, cuándo y con quién. Incluso prever acciones (como si vamos o no a responder un correo en función del remitente y el momento).

La idea es «sencilla» potenciar lo que ellos llaman machine learning, una rama de la inteligencia artificial, y que es capaz de interpretar la realidad y tomar decisiones aprendiendo nuestros patrones de conducta. Del mismo modo que hace tiempo era impensable hablar con un ordenador (y hoy nos responde con un sencillo «oye Siri») el objetivo ahora es que las máquinas sean capaces de ver y comprender lo que las y nos rodea.

Mendiante un sistema de aprendizaje a través de preguntas y respuestas que se van adecuando al usuario el sistema se vuelve más inteligente. Más capaz de predecir lo que queremos y cómo lo queremos. Del mismo modo que Smart Reply entiende nuestra bandeja de entrada y prevé posibles respuestas.

Básicamente consiste en crear una serie métodos, ejemplos y mecánicas que analizan el factor humano. «Herramientas similares a las matemáticas de secundaria y primera año de universidad» que bien gestionadas crean un sistema mucho más inteligente de relacionarnos con las máquinas, en palabras de Greg Corrado, uno de los líderes de equipo en este proyecto.

En ejemplos prácticos: si Google ve un montón de personas, globos y una tarta debe entender que es una fiesta de cumpleaños. Y si la celebración es a finales de noviembre deberá comprender que es posible que sea Acción de Gracias. El sistema tomará patrones de diferentes puntos de la imagen, definirá cada objeto, unirá la escena y deberá discernir -cada vez con más acierto- de qué se trata. Para ello, una multitud de expertos en inteligencia artificial enseñan a la máquina sobre texturas mientras que los datos que el usuario le ha dado (la agenda y la ubicación, por ejemplo, hacen el resto).

Google Photos fue el primer paso. Gracias a que permite buscar en nuestros álbumes con términos «humanos» su progresión desde su lanzamiento en junio ha sido meteórica. Es lo que llaman deep learning. Cuanto más aprende más rápido sigue aprendiendo. Todo se contextualiza y se vuelve más sencillo para la máquina y para el usuario. Por ejemplo, en la selección de fotos que se ve al abrir la app aparecen por defecto momentos «felices» de nuestra vida: bodas, nacimientos, vacaciones, etc. Esto es posible de forma automática porque Fotos entiende qué es cada momento.

Otros servicios que ayudan a que Google siga aprendiendo es Instant Camera. Poder sacar una foto a un cartel en un idioma extranjero y que la aplicación nos lo traduzca y contextualice. Una herramienta que está siendo muy aplaudida en viajes a países con otros alfabetos como China y Japón. Convertir lo que nos rodea en algo comprensible hace que la experiencia de nuestra estancia cambie por completo.

El siguiente paso necesario era dotar de «una capa de sentido común» a todas estas herramientas. Eso explica Maya Gupta, responsable de Glassbox Machine Learning. Por ejemplo: si sacamos una imagen a un coche o una casa el programa nos puede decir que precio «debería tener». Para ello se tienen en cuenta parámetros como el tamaño, la ubicación, el color del vehículo o la antigüedad de su matrícula.

Sin embargo, todos los implicados en este proyecto entrevistados por Rosa Jiménez Cano en El País concluyen que la gran frontera es el lenguaje. Que lo que hará dar el salto cualitativo diferencial respecto a la actualidad será sin duda que Google Now se vuelva humano. Que pueda mantener una conversación y no se limite a dar respuestas más o menos ingeniosas. ¿Será entonces cuando las máquinas se integren en la sociedad por completo?

Publicado por

Gaizka Manero López

Nacido en 1982 en Portugalete, Bizkaia, soy doctor en "Periodismo, Comunicación y Memoria en la era digital" por la Universidad del País Vasco.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *