Facebook, ¿por qué nos sorprendemos?

Antes de empezar a intentar comprender todo lo que ha ocurrido con el escándalo de Facebook y Cambridge Analytica queremos subrayar que creo en las bondades de las redes sociales y en su enorme potencial y he sido usuario. También es cierto que creo que la sociedad aún no ha aprendido a gestionarlas y que su desarrollo como una gran empresa -todas- no ayuda a ello.

Hace casi dos años hablamos de algo que muy pocos usuarios tienen en cuenta cuando usan Facebook (o Twitter, Snapchat, Instagram o la red social que se quiera poner en el enunciado): cuando no nos cobran por un bien o servicio, la mercancía somos nosotros. Y lo somos más cuando compartimos más de nosotros, de nuestra esfera privada o social, de nuestros gustos, costumbres o pensamientos, con ellos.

Por eso lo más sorprendente es que nadie se extrañe de que Facebook haya hecho negocio comercializándonos. La noticia saltó como un jarro de agua fría. Cambridge Analytica, una consultora que trabajó, entre otros, para Donald Trump y que ahora también se la vincula al Brexit y a movimientos de ultra derecha, violó la intimidad de 50 millones de usuarios de la red de Mark Zuckerberg. Si todos fueran un país, serían el 27 del mundo y el quinto de Europa.

Ahora las instituciones se rasgan las vestiduras y tanto Washington como Bruselas o Londres exigen que el CEO y fundador de la red social rinda cuentas. La noticia que ha salido a la luz después de dos años de la manipulación gracias al trabajo de The New York Times y The Observer, pone a la luz los trapos sucios de multitud de políticos pero, también, pone a la luz la forma en la que las redes sociales nos convierten en ganado y nos manipulan para dar más poder al poder.

Cambridge Analytica se creó exclusivamente para tomar parte en política. La fundó Robert Mercer, padrino de Steve Bannon -uno de los alfiles de Trump durante su campaña- y que utiliza datos online para crear perfiles de votantes. Lo más interesante es que estos perfiles no se realizan bajo parámetros como la edad, el sexo o la raza. Van más allá. Lo hacen a partir de emociones.

El problema es el daño que todo esto (la posibilidad de unir likes con pequeños test de personalidad muy básicos que nos dicen cuán influenciable es alguien) ha hecho sobre, por ejemplo, el Big Data -tan importante en campos como la investigación científica-.

La empresa alardeaba de tener información de 230 millones de estadounidenses cuando la contrató Jared Kushner, yerno de Trump, si bien ese dato era falso. Así que no quedó más remedio que acceder a la mayor fuente de información posible. Y como, eso parece por ahora, Google y Amazon están blindados, la mejor baza era Facebook. Un lugar donde el anonimato (siempre me he preguntado cuántas cuentas falsas hay en la red social y en cuantas de ellas mentimos sobre nosotros. Quizá la pregunta más fácil es, cuántas son 100% auténticas) permitió a la empresa realizar, con permiso de Facebook según los medios estadounidenses, estudios sobre 270.000 personas que sí dieron el consentimiento. Pero como una red social es precisamente una red, pudieron acceder a contactos y contactos de los contactos hasta sumar información de 50 millones de usuarios que no dieron conocimiento ni sabían que sus datos estaban siendo usurpados.

Con esa herramienta solo había que lanzar la campaña adecuada. Buscar qué decir en los anuncios y lanzarlos al por mayor. De media 50.000 diarios. Los picos, de 100.000. Si tenemos en cuenta que la diferencia conjunta en tres estados clave fue de 77.000 votos parece que Cambridge Analytica tuvo mucho que decir en la victoria del presidente por mucho que lo nieguen los miembros del gabinete y de la propia empresa.

Lo más tenebroso es que la empresa que hizo eso también se puso en contacto con el general Flynn, investigado por la trama rusa, y el libertador de Occidente Julian Assange quien no tuvo problema en diseminar esta información por el Kremlin del mismo modo que hizo con los correos de Hillary Clinton. El caldo de cultivo estaba preparado. Oficialmente Assange renunció a la oferta. La investigación, por ahora, dice lo contrario.

Facebook ya tuvo que reconocer el año pasado que hasta 126 millones de usuarios se vieron expuestos a publicidad del Kremlin sin su consentimiento. Ahora son otros 50 millones de cuentas usurpadas. Eso es una cifra superior al 7% de sus cuentas. Las acciones siguen bajando (se han dejado 70.000 millones de dólares desde que comenzó el escándalo) y las buenas intenciones de Zuckerberg a principios de año están desaparecidas.

Una parte de la población llama al boicot. Los fiscales llaman al estrado y algunos usuarios borran sus cuentas pero, del mismo modo que ocurre con la crisis económica -que parece perpetua en algunas latitudes- el problema no es una crisis de un actor de Silicon Valley. Es un problema de modelo del que muy pocas empresas se salvan.

El modelo del todo gratis que propone la nueva economía nos convierte a nosotros, las personas, en mercancía. Algo que queda refrendado en las prácticas de algunas empresas como Google –Facebook almacena los detalles de llamadas y mensajes de los teléfonos Android en los que está instalada su aplicación– que para ofrecernos servicios más personalizados juega con nuestra privacidad (y la vende).

El modelo ha de ser revisado ahora que todavía es joven para saber cuándo censurar, cuándo investigar y cuándo proteger por encima de los intereses mercantiles de empresas que parecen no querer saber nada del mundo real (excepto de su dinero): minimizan los impuestos que pagan, juegan como si fueran monopolios, van de multa en multa por no jugar limpio con los actores tradicionales -que tampoco por ello son ejemplo de ética-, están continuamente en el ojo del huracán por motivos éticos, legales etc.

El problema es que, para cambiar un modelo no vale solo con un cambio legislativo. Es importante para acotar las actividades de estos gigantes pero no es suficiente. El problema radica en la educación: en que los ciudadanos, los usuarios, aprendamos sobre cómo utilizar una herramienta que, por muy apetitosa y atractiva que nos parezca a priori es tan peligrosa como un arma (ciberacoso). Mientras esto no se aborde por la sociedad, por los educadores, por todos nosotros, este será solo un capítulo más en una carrera en la que hemos visto que los cambios de privacidad de otras redes como Instagram no han supuesto ni un solo rasguño en su cuenta de beneficios o en su número de usuarios.

De mientras, por cierto, tendremos que recapacitar por lo tremendamente influenciables que somos todos: no solo los excéntricos británicos o los red neck estadounidenses. Tendremos que volver a pensar en la importancia de reflexionar sobre lo que nos rodea. Y eso no tiene que ver con la lectura en papel o en pantalla. No tiene que ver con libros de texto clásicos o wikipedias. Tiene que ver con la forma humana en la que nos relacionamos entre nosotros y con lo que forma parte de nuestras vidas independientemente del canal que utilicemos.

Conducción autónoma, ¿reto técnico o ético?

La semana pasada hubo una noticia tecnológica que casi tapo el escándalo de Facebook y Cambridge Analytics (que analizaremos con calma esta semana cuando pase la vorágine de datos y escarmientos públicos): se dio el primer accidente mortal por atropello con un vehículo autónomo como protagonista.

Después de la primera reacción de muchos medios -bastante alarmista- la mayoría de los fabricantes han decidido parar su pruebas de conducción a pesar de la importancia del desarrollo de sistemas de conducción más seguros que, precisamente, minimicen las muertes por incidentes relacionados con los coches.

Este hecho nos recuerda, inevitablemente, a otros atropellos “simbólicos” que no pararon el desarrollo de la industria -con los enormes beneficios que ha reportado a la sociedad y los problemas que acarrea su enorme huella de carbono-: el de Mary Ward, que en 1869 falleció al salir despedida en una curva del vehículo en el que viajaba y fue aplastada por las ruedas traseras de la máquina.

Era una época en la que los coches ni siquiera estaban inventados: sus propios hijos estaban desarrollando un sistema de transporte propulsado por vapor. Aún así, se legisló para limitar la velocidad de los mismos (4 millas por hora en carretera “abierta” y 2 en ciudad) así como su señalización.

Todo ello, que podría haber acabado con el transporte rodado incluso antes de nacer fue solo el principio de la llegada de los neumáticos, del desarrollo de calzadas más adherentes, de mejores sistemas de frenado que se aplicarían en otros ámbitos e incluso sistemas de iluminación urbanos.

Como bien explican en Motorpasión, el primer atropello como tal fue el de Bridget Driscoll (parece que la maldición de inaugurar estas estadísticas está reservada solo para mujeres) en las inmediaciones de la Exposción Universal de Londres de 1851 en Hyde Park.

El atropello de Elaine Herzberg se dio en circunstancia que, según la propia policía, hubiera sido “difícil de evitar” incluso por un humano: cruzo la carretera andando con su bici a las 10 de la noche, sin reflectantes, en una zona sin iluminación y sin mirar si se acercaba algún coche. De hecho, la mujer ni siquiera fue vista por el conductor de seguridad.

Esta muerte, seguro, ayudará a desarrollar mejores sistemas de detección por parte de los fabricantes, a la implementación de nuevas leyes que protejan más cualquier situación de este tipo, a incrementar el cuidado con el que se está llevando a cabo la conducción autónoma.

Y esto es necesario porque con unos sistemas de conducción más “inteligentes” será fundamental aprender a vislumbrar nuevas leyes de circulación: desarrollo de las normas viales, diseño de las ciudades, adecuación de la velocidad de la vía en función de la cantidad de tráfico y peatones, creación de nuevos sistemas de seguridad que prevean lo que hasta ahora no han conseguido prever y, sobre todo, el desarrollo de un nuevo marco ético: el gran reto de la conducción autónoma.

Porque parece que los límites técnicos de la misma caerán con el paso de los años: hay poco que la tecnología no haya podido hacer en los últimos años para hacer que todo lo que conocíamos se volviera “inteligente”. Sin embargo, el debate ético parece mucho más complejo (algo habitual y que corremos el riesgo de abandonar en esta carrera hacia adelante de las ciencias): qué vida ha de preservar el vehículo autónomo, quién es el responsable de un atropello, cómo depurar esa responsabilidad una vez dado con el sujeto.

En cualquier caso, por mucho que ahora medios y sociedad se rasguen las vestiduras y los fabricantes quieran esperar a que pase todo este temporal para seguir con sus investigaciones, nada parará el desarrollo de los vehículos autónomos. En parte por la obligación de llegar al objetivo de Visión Cero. También por la necesidad de acabar con la lacra de las muertes en carretera. Y, por qué no, por la necesidad de cambiar nuestro modelo de transporte. Pero, sobre todo, por la hipocresía de la sociedad ante determinados males “menores” (tabaco, alcohol, contaminación) y la facilidad con la que se olvidan las noticias “de impacto”.

Tecnológicas, es hora de pedir cuentas por su huella de carbono

La imagen que abre esta noticia refleja Apple Park, la nueva central de la multinacional del iPhone, iPad y los Mac diseñada por Norman Foster según los deseos de Steve Jobs. Un centro armónico en el que la creatividad fluyera y los empleados pudieran dar lo mejor de sí mismos. Una demostración de tecnología y músculo financiero para sus rivales y un ejemplo para muchas empresas de todos los sectores. Porque pocos lobbies defienden más el medio ambiente que el de Silicon Valley.

Sin embargo, si hace poco Naciones Unidas alertaba del grave problema para el medio ambiente que supone la vorágine consumista de fast fashion (sobre todo en Europa) y su enorme impacto ambiental desde sus procesos de generación de materias primas (10.000 litros cada kilo de algodón de media); y las agencias ambientales de medio mundo están cercando a la industria automotriz e incluso la aeronáutica, es hora de hacer un examen a las grandes tecnológicas. Porque ningún sector es más capaz ahora de invertir en soluciones para solventar su huella contaminante.

A día de hoy solo se recicla en 15,5% de los productos tecnológicos desechados. Una cifra minúscula y preocupante por lo enormemente contaminantes que son los componentes de nuestros dispositivos. Una gran parte de los materiales (sobre todo los más valiosos) se pueden reutilizar, no obstante, existe un porcentaje que es necesario neutralizar puesto que su impacto ambiental -sobre todo si no se gestiona correctamente- es nefasto.

En el año 2014 se generaron, según un estudio de la Universidad de Naciones Unidas publicado por El País, 41,8 millones de toneladas de basura electrónica. La cifra, sin duda, se ha multiplicado por el mayor acceso del sudeste asiático y África a dispositivos tecnológicos. Además, solo una fracción se trata adecuadamente y ésta es solo una pequeña parte de la contaminación de procesos productivo y de distribución de la industria.

En El País también reflejan un trabajo de investigadores de la Universidad Rey Juan Carlos y la Universidad de Valladolid publicado en la revista Chasqui en la que intentan reflejar la factura de la sociedad de la información. El precio del consumismo y la necesidad de renovar los equipos por encima de las necesidades reales del usuario sumado a la obsolescencia programada.

Pero la huella del mundo digital tiene más partes. Uno es la producción (incluida la extracción de minerales muchas veces “raros”) y el uso que le damos los usuarios. Incluso cómo llega hasta nosotros.

En cuanto al proceso de producción del equipo, las estadísticas indican que para fabrican un terminal de 80 gramos (casi todos los premium superan los 110) son necesarios 44,4 kilos de recursos naturales. Y casi todos requieren su extracción mediante minería no siempre responsable. Si hacemos la cuenta, en la última década se han fabricado más de 7.100 millones de móviles. Son más de 315 millones de toneladas para que todos tengamos un móvil en nuestro bolsillo.

Para un ordenador hacen falta 240 kilos, a los que hay que sumar otros 22 de productos químicos y 1.500 litros de agua. Y a eso hay que sumarle todo el impacto ambiental de la energía consumida durante su vida.

Porque los dispositivos consumieron el año pasado el 11% de toda la energía del planeta si tenemos en cuenta que se “alimentan” de los servicios (y servidores) de Google, Amazon, Facebook, etc. Esto los hace “responsables” del 3% de las emisiones de efecto invernadero, una cifra que crecerá hasta el 4% en 2020. Los estudios indican que alrededor del 83% del impacto ambiental se da durante el uso del producto ya que las redes y centros de datos a los que se conectan son los que más consumen.

De esta forma, los garbigune (o puntos verde en otras regiones) tan solo se centran en el último eslabón de la cadena. Es cierto que pueden gestionar correctamente hasta el 90% de los materiales. De esta forma, de una tonelada de “móviles” se recuperan 650 kilos de plástico, 250 kilos de metales -aluminio y cobre sobre todo- y casi 6 kilos de metales preciosos (como el oro, la plata o el paladio).

El problema es otro. Por un lado la cantidad de personas que a pesar de que incluso en las cajas piden que se reciclen cuidadosamente los equipos, los tiran a la basura normal. Por otro, la persona que espera fuera del punto limpio y al que le damos lo que quiera coger de nuestra “basura”. La mayoría de las veces trabaja para una mafia que podrá llenar barcos para llevar a África y convertir este continente en el basurero del planeta.

Por si fuera esto, muchas veces hay ladrones que entran a robar a estos vertederos cuando están cerrados. La pregunta que nos hacemos es si podemos exigir algo a una industria que gana cada minuto que pasa miles de dólares a costa de desgastar el planeta cada segundo.

Fake news, ¿y si solo eran un punto intermedio?

Corría 2016 cuando Aviv Ovadya advertía del impacto de las fake news en las redes sociales con motivo de la campaña presidencial estadounidense. Un fenómeno que no solo estaba teniendo una injerencia crítica en la política, sino también en la salud, la educación y las relaciones internacionales (seguridad, por ejemplo).

Ahora, dos años más tarde, el tecnólogo vuelve a avisarnos: las fake news fueron solo un primer paso en un camino que nos llevará a un “apocalipsis informativo” puesto que las tecnologías que distorsionan la realidad avanzan más rápido que nuestra capacidad para gestionarlas y para controlar este fenómeno.

Los primeros síntomas, explica, los encontró poco antes de la victoria de Donald Trump. Fue entonces cuando se volcó en intentar advertir de la crisis de desinformación que se estaba avecinando. Él lo denominó “Infocalypse” y, como desgranan en un sobresaliente reportaje en BuzzFeed News del que se hace eco Genbeta, la cuestión gira en torno a la forma en la que el sistema “premia” información que muchas veces resulta ser engañosa y polarizante.

Es llamativo que en la presentación de sus conclusiones había representantes de tecnológicas como Facebook que, directamente, no le tuvieron en cuenta. El problema es que el desarrollo de herramientas de inteligencia artificial permitirá a quién lo desee manipular la realidad y hacer que un hecho que nunca ha ocurrido puede parecer cierto.

Como explican en Genbeta, algo que parece “distópico” ya está empezando a ocurrir. Tenemos el caso de vídeos porno falsos con famosas creados a partir de algoritmos de aprendizaje automático y software de código abierto -de nuevo, una herramienta indispensable mal utilizada- que ya ha tenido que ser baneado por los portales de referencia.

Más grave (aún) es el caso de manipulaciones de audio que puede sufrir una emisión en tiempo real haciendo que se sincronice un discurso con los labios de un ponente. Esto permite poner en boca de alguien algo que nunca ha dicho delante de las cámaras. El caso más flagrante que expone Ovadya es el de la “manipulación diplomática”: una inteligencia artificial puede aprender de horas de vídeos de dirigentes para luego, cuando desee una tercera persona, recrear una declaración de guerra casi imposible de distinguir de un discurso “normal”.

Esta suerte de “simulación política” puede ocurrir mucho antes de lo que parece y, tal y como pinta, dejará a las fake news como una curiosidad de principios de siglo. Por eso es fundamental trabajar a fondo para intentar adaptarnos a unas tecnologías que, en nuestra opinión, su creadores no llegan a comprender del todo.

Viralidad, desgranando su secreto

Todo publicista (os recomendamos este reportaje de Muy Interesante que da mucho que pensar), político, influencer o actor en internet busca sin descanso crear contenidos que sean virales. Esos que, de golpe, tienen impacto sobre millones de personas gracias a que encienden algo en nosotros consiguen un éxito “inesperado”.

Sí, inesperado va entre comillas porque cada vez son más los grupos de investigadores -públicos y privados- que buscan la receta que permita que el mensaje emitido sea un éxito y se convierta en viral. Uno de los estudios más recientes se ha llevado a cabo en la Escuela Annenberg de Comunicación de la Universidad de Pensilvania, en Estados Unidos, que ha concluido que la viralidad del contenido depende de la actividad cerebral del receptor.

Los investigadores contaron con la ayuda de 80 individuos que fueron sometidas a resonancias magnéticas funcionales mientras leían 80 artículos de similar extensión relacionados con salud y publicados en The New York Times. De esta forma, tenían que valorar su interés por la lectura de los artículos y compartirlos libremente mientras se realizaban las mediciones.

De esta forma, el estudio arroja que las personas tendemos a leer y compartir contenidos que conectan con nuestras experiencias, con el sentido de quienes somos o quienes queremos llegar a ser. Así, compartimos contenidos que creemos que ayudan a mejorar nuestras relaciones sociales haciéndonos parecer más inteligentes o empáticos.

La clave es que cuando un individuo escoge compartir con otros un contenido, lo hace pensando en sí mismo y en los demás, lo que hace que haya mucha más actividad neuronal. Pensar qué se va a consumir (leer) y qué se va a compartir, son por tanto, comportamientos sociales. Y esto es lo que, precisamente, permite a los investigadores predecir la viralidad de un texto.

Los usuarios del estudio compartieron en sus redes sociales los contenidos 117.611 veces. Y en todas ellas se daba una determinada combinación neuronal. De forma inconsciente se generaba una señal que daba “cierto valor” al artículo que indicaba qué se iba a compartir y qué no.

La conclusión es que es necesario generar un mensaje que haga creer al receptor que se le va a percibir de una forma positiva o que va a mejorar una relación. Si se cumple esto se va a conseguir que la tasa de dispersión del mensaje crezca.

Lo más peligroso es que, como casi todo en ciencia -incluimos las ciencias sociales- puede ser utilizado para algo muy bueno -emisión de mensajes de responsabilidad social, educación, salud, etc.- o algo muy bueno para pocos -réditos políticos o económicos, por ejemplo-.