Tim Wu, por qué deberías saber quién es este hombre

Si abrimos la semana hablando de «El Rubius», la cerramos presentando a Tim Wu. Para el gran público es habitualmente un completo desconocido. No obstante, este abogado y profesor de Derecho de la Universidad de Columbia de 45 años lleva luchando por nuestros derechos en internet desde hace años. Reclamando a las administraciones que pongan coto a monopolios como Facebook y, sobre todo, que se proteja la democracia de la enorme influencia de empresas privadas que nos usan a diario para incrementar su poder.

El estallido del caso de Cambridge Analytica solo le ha dado la razón. Pero este bostoniano que acuñó el término «neutralidad en la red» va más allá y afirma que «saldrán muchas más cosas a la luz». El motivo es sencillo. Desde hace tiempo está comenzando una fuga de trabajadores de Silicon Valley que tienen verdaderos problemas éticos con lo que hacen sus empresas y que más pronto que tarde empezarán a destapar otros escándalos que, a buen seguro, están ocurriendo ahora mismo.

Especializado en competencia y derechos de autor, la carrera de Wu le ha llevado desde la oficina del Fiscal General de Nueva York (donde le asesoraba en asuntos relacionados con tecnología y la protección del consumidor) hasta The New York Times, desde donde desgrana el problema endémico de un sector que busca hacer negocio con nuestros datos, con nuestras vidas.

Para Wu el punto de inflexión se da a principios de la década. La empresa de Mark Zuckerberg sufre problemas puesto que, aunque tiene una gran base de usuarios, no consigue monetizarlos lo que les lleva a realizar «experimentos agresivos» para conseguir convertir en oro a sus clientes. El objetivo pasó a ser la principal plataforma publicitaria del planeta. Esto hizo que lo que hace años eran espacios televisivos o de la red en venta se convirtiera en espacios en nuestro teléfono, casa, ideología o cualquier otro rincón de nuestra esfera más privada. Consiguieron vender un «lugar» donde nadie había llegado antes.

Ahora que ha conseguido su objetivo, Wu considera que es demasiado grande -solo hay que ver la suma de usuarios de Facebook y sus filiales Instagram y WhatsApp- lo que la convierte en un monopolio de facto. Y, como recuerda, en Estados Unidos hay una larga tradición de control y gestión de los monopolios desde la era Roosevelt a principios del siglo pasado.

Y esto choca frontalmente con Zuckerberg que, hasta ahora, solo ha mostrado intenciones de revitalizar el espíritu inicial de Facebook. Una forma de decir a los reguladores que se portará bien sin tener que tocar nada de su magnífica máquina de facturar e influir. Por eso, por ejemplo, su lobby está haciendo una enorme presión en Washington para no ser considerada una empresa de comunicación: eso la obligaría a regular el derecho a la privacidad de los usuarios como hacen los medios «tradicionales». Por eso, explica Wu a Georg Diez en El Semanal, se ha cambiado el algoritmo para colocar a los contactos por delante de las noticias.

El problema es que la sociedad delegó tareas democráticas básicas -como la comunicación- a empresas privadas sin ningún tipo de deontología o ética de comportamiento claras. Un problema dejar las libertades en manos de compañías creadas -legítimamente- para ganar cuando más dinero mejor. Por eso, cuando la desinformación ha dado más dinero que la verdad -porque la polémica genera más tráfico de clientes- el sistema «ideal» se ha corrompido.

Wu considera que el papel que pueden tener estas plataformas puede y debe ser positivo para la sociedad. Y que aún se está a tiempo de lograrlo, aunque para ello sea necesario regularlas o, incluso, convertirlas en herramientas públicas. Si esto no es posible (¿dejará Wall Street que el Congreso racionalice y emplee bien sus gallinas de los huevos de oro?) quizá sea hora de dar un empujón al nacimiento de empresas arraigadas en valores éticos y morales. Empresas que se aprovechen del malestar generado por la falta de confianza en Facebook y puedan crecer. Una nueva oportunidad al idealismo original de Silicon Valley en la que los emprendedores querían cambiar el mundo para hacerlo un lugar mejor lejos de la avaricia del parqué neoyorquino. Un idealismo hoy desaparecido por completo.

Facebook, Google, Amazon, Apple, Microsoft, etc. son el «reverso tenebroso» de esos idealistas que querían crear algo libre, gratuito y mejor que lo establecido para la comunidad.  Una forma de controlar una peligrosa y excesiva concentración de la riqueza de unos pocos a costa de los demás. Un escenario complejo que si no se gestiona bien puede acabar con personas extremas en los círculos de poder -como parece que ha ocurrido «gracias» a las noticias falsas en las elecciones de Estados Unidos o el Brexit.

En definitiva, Tim Wu es ese hombre que, a buen seguro, Mark Zuckerberg no quiere que conozcas. Síguele el rastro.

Inteligencia Artificial, Google ya piensa en el botón rojo

Sin duda, la Inteligencia Artificial es una de las áreas con más posibilidades de desarrollo durante los próximos lustros. Y como todo avance científico y técnico trae aparejado un profundo debate ético (aunque alguna mente maestra de nuestro sistema educativo quiera eliminar la filosofía como asignatura troncal en todos los bachilleratos). Precisamente por eso, personalidades como Stephen Hawking, Elon Musk, Bill Gates o Mark Zuckerberg se han posicionado a favor y en contra de su libre desarrollo.

Son muchos los que a día de hoy buscan implementar sistemas de inteligencia artificial y machine learning pero pocos tienen unas bases tan sólidas y un proyecto tan avanzado como DeepMind, adquirido por Google en 2014 por 580 millones de dólares y en el que a día de hoy trabajan científicos de Harvard y Oxford.

Sin embargo, la presión social y de esas esferas científicas ha hecho que los expertos no solo trabajen en su desarrollo sino también en un sistema que nos permita desactivarla en caso de un riesgo potencial para nuestra supervivencia.

Puesto en marcha por el Instituto para el Futuro de la Humanidad de la prestigiosa universidad británica e investigadores de Google -se puede seguir todo el razonamiento del sistema en el documento Safely Interruptible Agents– buscan poner una serie de normas y funciones que eviten que DeepMind pueda tomar el control de sí misma de forma autónoma: dejar de ser controlable por sus creadores.

De esta forma, se puede activar un protocolo ajeno al propio DeepMind para que los humanos puedan volver a retomar el control. Aunque pueda sonar a película de ciencia ficción, el propio Instituto lo define como una suerte de «póliza de seguros» que «garantiza un óptimo funcionamiento de los sistemas» refiriéndose estos a todos aquellos equipos o líneas de fabricación totalmente automatizados en los que no existe posibilidad de intervención humana.

Uno de los retos a los que se están enfrentando los expertos es cómo crear un protocolo que la IA no sea capaz de comprender y, por tanto, desactivar. De ocurrir esto, DeepMind sería absolutamente independiente y sería prácticamente imposible desactivarlo. Aquí es donde aparece Q-learning y Sarsa, dos algoritmos completamente independientes e imposibles de modificar por la propia IA.

El problema reside en que multitud de sistemas de machine learning no está implementando este botón rojo. Y es aquí donde los Hawking y compañía piden que se implementen de forma urgente los módulos de seguridad que no dejen aspectos críticos en manos de una inteligencia imposible de controlar.

DeepMind nació con el objetivo de «tratar de resolver la inteligencia». El reto, enorme, tiene como daño colateral que en menos de cien años podría ser más astuta que la propia especie humana lo que la convierte en potencialmente peligrosa si es capaz de volverse autónoma, independiente y, sobre todo, gestiona recursos críticos del planeta.

Smart Reply, Google quiere hacerlo todo por nosotros

Seguro que a todos nos ha pasado algún día (o todos) levantarnos de la cama, salir del gimnasio, bajar del avión y tener decenas de emails en la bandeja de entrada. Un sonido que debería ser absolutamente inocuo se convierte en una tortura que significa trabajo o spam. Y seguro que en alguno de esos días (o todos) nos gustaría poder borrar todos de golpe sin pensar o que alguien los respondiera por nosotros. Si es así, felicidades, Google ha escuchado nuestras «plegarias» y ha decidido dar un paso más -en favor de nuestra comodidad o en contra de nuestra privacidad-.

Hace ya tiempo que Google escanea nuestros emails así que era solo cuestión de tiempo que la empresa generara un software que supiera qué hacer con ellos. La idea se llama smart replay y, según la propia empresa, ya se ha puesto en marcha en varios servicios de Alphabet y su objetivo es identificar cuáles son los mensajes que requieren de más urgencia para ser respondidos y generar respuestas automáticas. El usuarios solo pulsará sobre la que mejor le convenga y el email de vuelta se generará al momento.

En el blog de la empresa Bálint Miklós, uno de los ingenieros de software de la empresa encargada de su desarrollo, pone como ejemplo un email con la pregunta «¿tienes alguna documentación sobre cómo usar el nuevo software?». La plataforma pone a disposición de Miklós tres respuestas: «No, lo siento»; «Sí, pero tengo que buscarlo»; «Sí, te la envío».

En palabras del propio ingeniero una forma de ahorrar «un tiempo precioso para aquellos emails que requieren de una respuesta corta y rápida». ¿Y para aquellos que requieren de algo más? «Estas respuestas serán un primer impulso sobre el que desarrollar el resto de la respuesta». En definitiva una evolución más después de que durante años servicios como Gmail y Yahoo! Mail hayan ayudado a los usuarios a ordenar los emails por contenidos y hayan apartado el spam, por ejemplo.

Ahora es la inteligencia artificial la que lanzará las respuestas más adecuadas y, sobre todo, la que aprenderá de las respuestas que nosotros damos habitualmente para convertirse en «nuestro espejo». Los algoritmos conocerán nuestras formas y cada vez se irán pareciendo más a nosotros. Por cierto, aunque solo está disponible en inglés por el momento, quien quiera probarlo ya puede buscarlo en la App Store y en Google Play.

Smart Replay utiliza otras tecnologías que Google ya tiene en marcha como Inbox. Ésta se encarga de conocer cuál es el contenido de los emails de entrada y separarlos entre los importantes, los que necesitan respuesta urgente y los que son solamente spam o publicidad poco relevante (¿la de la competencia?) Inbox, además, está siendo desarrollado cada día más para que pueda generar respuestas con un lenguaje natural, aunque las pruebas internas de ambos sistemas han provocado curiosas reacciones entre los propios trabajadores de Google (pidieron eliminar la respuesta «te quiero»).

El motivo es sencillo: tanto gracias como te quiero son respuestas amistosas y habituales en los emails que recibimos de personas cercanas -la primera también en los de trabajo- lo que hizo que el sistemas entendiera que eran respuestas «seguras» que podían ser utilizadas con cierta asiduidad. El error ya está subsanado.

Según Google, Smart Reply se ciñe a los mismos rigurosos sistemas de privacidad de otros servicios de la compañía -como Google Now- de modo que la información escaneada nunca es compartida con la empresa o terceros de modo que la información está «asegurada». Ningún ser humano lee los emails, solo robots que pretenden hacer más rápido nuestro día a día. ¿Cuál será el siguiente paso?

Algoritmos, días de cambios

El pasado martes Google cambió su algoritmo. Nada nuevo -es algo que hace periódicamente para dar más «sentido» a los resultados de búsqueda- si no fuera porque esta vez se trata de una de las modificiaciones más importantes en la historia de la empresa y que tiene como objetivo adaptarse mejor al creciente tráfico en los dispositivos móviles.

Las webs se han visto obligadas a adaptarse a una «visión más amable» en las pantallas de los smartphones -no así las aplicaciones- para no perder posiciones en el ranking e, incluso, desaparecer de la primera página de resultados donde se genera el 70% del tráfico. La idea es sencilla: las webs han de actualizarse lo más rápido posible o, directamente, perderán negocio.

Caer a la segunda o tercera página es lo mismo que pasar a un tráfico de poco más del 5,5% del que genera el primer buscador de internet. El impacto, muy significativo, podría llevar a la desaparición de facto de muchas webs (y su actividad económica por medio de publicidad y suscripciones, por ejemplo).

Los de Mountain View han explicado que actualizar el algoritmo tiene solo como objetivo adaptarse a las tendencias de los usuarios que cada vez más usan los dispositivos móviles para realizar las búsquedas y que discriminan aquellas páginas que no son de fácil lectura en sus pantallas. Datos de un estudio de la BBC concluyen que el número de usuarios únicos que visionan las noticias en sus smartphones ha crecido un 15% en 2014. Mientras, el tráfico de lectores que acceden al mismo contenido desde ordenadores ha bajado un 17%.

Las modificaciones de 2011 (llamada Panda) y 2012 (Penguin) fueron el primer paso para este salto a las pequeñas pantallas. Sin embargo, esta última variación del algoritmo puede sacudir los cimientos del sector si hacemos caso a un estudio de Fortune que concluye que webs tan relevantes como The Washington Post o The Daily Mail no han cambiado su formato.

Facebook cambia para volver a sus raíces

Google no es el único gigante de internet que ha cambiado su algoritmo para adaptarse a los nuevos usos de sus clientes. Facebook, la red social con más usuarios de la red ha decidido dar un paso atrás y volver a una fórmula anterior para ordenar los contenidos que aparecen la sección de noticias de cada uno de nosotros.

El nuevo orden tomará como referencia la intensidad con la que nos relacionamos con cada perfil, persona popular o marca. La idea es que los contenidos de cada usuario esté ordenado a su medida en función de sus gustos e intereses y no por presión de los anunciantes. De facto, los usuarios que sean más activos en la red serán los que más noten los cambios.

De facto, los contenidos con más comentarios serán los que tengan preferencia respecto a los que solo tengan «me gusta». Teclear una frase requiere más implicación que clicar sobre la famosa mano con el pulgar hacia arriba. Hasta ahora el célebre icono tenía más repercusión que los comentarios.

Con 1.400 millones de cuentas activas, la empresa de Mark Zuckerberg tiene potencial más que suficiente para saber cómo adaptarse a las demandas de sus usuarios y, sobre todo, a marcar tendencia sobre cómo mostrar la información relevante en internet. Por ejemplo, hasta ahora nadie podía visualizar dos actualizaciones de estado de un perfil de forma consecutiva. Sin embargo, el algoritmo ahora entenderá que si estamos muy vinculados a una persona, celebridad o marca, nos interesará saber qué hace en cada momento muy por encima de la de otro perfil con la que casi no tenemos contacto.

De este modo, para aquellos que usen la red como una fuente de información -aquellos que son especialmente activos con webs de medios generalistas y especializados- seguirán recibiéndola solo que ahora como principal fuente de datos respecto a perfiles de otras personas. Precisamente por eso los anunciantes no deberán tener miedo a perder fuerza respecto a las visitas orgánicas (aquellos que los seguidores de una marca hacen a los perfiles o actualizaciones de estado de un producto o servicio de un modo voluntario) ya que seguirán teniendo repercusión entre aquellos más «marquistas».

Google, bajo el regulador americano

A pesar de que su dominio en Europa es mayor que en ninguna otra región gracias a la enorme aceptación de Android, su navegador y su buscador, la empresa de Mountain View siempre había visto la legislación continental como un problema para que sus servicios crecieran. Street View, Maps, su enorme cuota del mercado publicitario, el derecho al olvido… Muchos problemas que se solventaban con jugosos resultados empresariales.

Su posición en Estados Unidos siempre había sido más cómoda. A pesar de que en la industria del marketing online era vox populi que la empresa de Larry Page siempre primaba sus servicios en los resultados del buscador frente a los de la competencia, hasta ahora nadie se había atrevido a acusar a una de las empresa más importantes de Silicon Valley de manipular los resultados de búsqueda. Incluso en 2011, cuando Eric Schmidt -entonces CEO de la empresa- fue llamado a declarar al Senado, todo se zanjó con una conclusión: «le puedo asegurar que no hemos retocado los resultados».

Ahora ha sido la Comisión Federal de Comercio de Estados Unidos, una agencia independiente del Gobierno nacida a principios del siglo XX de la mano de Wilson para evitar la proliferación de los grandes trust, la que acusa a los californianos de privilegiar sus servicios de viajes y compras -por ejemplo- en casos en los que su presencia era irrelevante frente a los de la competencia.

La investigación llevada a cabo durante meses ha concluido que cada vez que Google modula su algoritmo para ajustarse al comportamiento de los consumidores y los creadores de contenido, no emplea el mismo criterio con sus servicios a los que siempre da prioridad para que se mantengan en las primeras posiciones.

En el ejemplo expuesto en el informe explican que en búsquedas aleatorias de vuelos y reservas de viajes se han priorizado sus servicios frente a resultados de Expedia o TripAdvisor que contaban con más resultados. Lo mismo ocurrió con páginas de comercio electrónico. Llama la atención que TripAdvisor ya se quejó en su momento de que Google estaba copiando los comentarios de sus usuarios para dar más empaque a los restaurantes que se alojaban en su red social Plus.

Ahora, Kent Walker, secretario general de Google, dice que los datos del informe de la Comisión -que ha dedicado a cinco de sus investigadores durante 19 meses para analizar 9 millones de páginas- son falsos. «Hemos cambiado el algoritmo unas 500 veces durante ese periodo para ayudar a los consumidores. Los cambios se han hecho pensando en los consumidores y no en las web como ha ocurrido los últimos diez años».

¿Dónde está la clave de esta «manipulación»? En el negocio móvil. En el PC se han mantenido algoritmos que han preferido dar al usuario una gran cantidad de información para que pueda elegir pero, como el propio Sundai Pichar (número 4 de Google) reconocía en una entrevista en El País el comportamiento del buscador es diferente en Android -en los móviles- porque el usuario quiere respuestas.

Y es entonces cuando, para promover la «respuesta rápida que quieren los usuarios» se ha podido dar ventaja a los servicios propios de la empresa. De momento, como explica Rosa Jiménez Cano, la empresa ha enviado a sus propios trabajadores en los que se cita a Yelp, líder en críticas de restaurantes, tiendas y comercios, para demostrar que la investigación «no les afecta».

Desde que Marissa Mayer abandonó Mountain View para irse a Yahoo! la empresa ha priorizado el hardware y la ingeniería sobre servicios como Local y el miedo a perder ingresos (que sustentan todo lo demás) frente a servicios como la propia Yelp o Expedia ha podido hacer que no hayan tomado las decisiones más acertadas. Veremos si la Administración Obama, con este informe sobre la mesa decide ir más allá.