Big Data, evolución autónoma

El nacimiento de la era 2.0 traía consigo una mayor interconexión entre máquinas, personas y máquinas y personas. Desde cualquier dispositivo se podía entablar -en teoría- una relación hombre-máquina. Domótica, dispositivos móviles, cosas «inteligentes», herramientas para la comunicación mucho más potentes y rápidas que cualquier otra hasta la fecha. En definitiva: muchos más datos saliendo de cualquier objeto con un chip.

Y como la revolución digital no para de crecer el volumen de datos que generamos crece a cada segundo exponencialmente. Datos que se acumulan a la espera de que sean analizados para crear un sorprendentemente exacto modelo de nuestro comportamiento como individuos y como sociedad. En definitiva, el laboratorio perfecto para realizar predicciones y descubrir relaciones causa-efecto que sin esta información seguramente pasaría desapercibida.

Como resultado «colateral» la figura del data scientist ha adquirido un papel trascendental en Silicon Valley. Analistas que sepan qué hacer con semejante madeja de datos y que mediante el uso de programas informáticos y potentes ordenadores sepan traducir todo lo que queremos decir y hacer. Al fin y al cabo, hace falta un factor humano que sepa discernir qué paquetes de datos hay que analizar y qué hay que buscar en ellos. Al menos hasta ahora.

Ingenieros del Instituto Tecnológico de Massachusetts han desarrollado la Data Science Machine (DSM), un software autónomo capaz de encontrar patrones en las relaciones entre todos los datos y realizar predicciones mucho más rápida y fielmente que la mayoría de los humanos.

Con su propia experiencia miembros del Laboratorio de Informática e Inteligencia Artificial del MIT se dieron cuenta que uno de los pasos críticos de la investigación de Big Data es identificar las variables que se van a extraer de la base de datos. El DSM identifica esas variables en el software y se aprovecha de las etiquetas (metadatos) para crear una correlación entre todos los datos diponibles en las bases de datos.

Kalyan Veeramachaneni, investigador del Laboratorio, y Max Kanter, estudiante de master en el mismo departamento ponen como ejemplo una base de datos en la que hay una tabla con una lista de productos y su coste y otra con una lista de artículos que han sido adquiridos por los clientes. El DSM es capaz de portar datos de una tabla a otra para calcular el coste total de las compras, el coste medio, el coste máximo, etc. y cuantos más datos haya disponibles en más tablas más relaciones podrá estudiar el software. Si a eso le sumamos los «datos categóricos» (restringidos al uso de determinados valores como nombres de marcas, días de la semana, meses, etc.) se pueden conseguir predicciones sorprendentemente certeras.

Una vez marcadas todas las variables y buscados los datos se pueden realizar predicciones y retratos a medida de lo que quiera el usuario. El DSM ya ha sido puesto a prueba. Sus dos creadores lo inscribieron en diferentes competiciones de análisis de datos y aunque no ganaron en ninguna superaron a más de la mitad de los equipos, sus predicciones casi no distaron de las de los ganadores y, lo más interesante, su tiempo invertido siempre estuvo entre las dos y las doce horas mientras que sus rivales dedicaron entre uno y dos meses.

Sin embargo tanto Veeramachaneni como Kanter subrayan que el DSM en ningún momento está concebido para sustituir a los humanos, sino para ahorrarles un tiempo crítico en los primeros procesos de análisis y dotarles de nuevas herramientas más ágiles y capaces para analizar mejor mayores cantidades de Big Data con menos esfuerzo. Como han reconocido ya son varias las empresas que se han interesado por su tecnología que ya comercializan a través de la empresa FeatureLab.

Gestión de Big Data, ¿la alternativa a Google?

Google es, a día de hoy, el gran árbitro de internet. Su navegador manda en su mercado. Su buscador es sinónimo de resultados. Su sistema operativo domina el acceso a internet desde los dispositivos móviles. Y sus algoritmos y motores de búsqueda son tan deseados como temidos a la hora de hacer que una empresa o campaña publicitaria tenga éxito en la red de redes (que cada vez gana más importancia frente a los soportes clásicos).

En plena era del Big Data es casi imposible que una campaña tenga éxito sólo por «intuición» -por muy bueno que sea nuestro director de marketing o la idea que tenemos-. La unión de estos datos y las nuevas tecnologías han pasado de ser una herramienta revolucionaria a ser una necesidad imprescindible (y ya se han llevado unos cuantos reportajes y estudios de revistas como Forbes y varias escuelas de negocios).

En sólo unos minutos una plataforma digital como Google o Yahoo! pueden obtener más cantidad de datos sobre nuestro comportamiento (como personas y consumidores) de lo que podría soñar una empresa de estudios y encuestas en una década. Por eso ya no nos sorprende que sea más fácil saber cómo somos realmente a través de nuestro perfil en las redes sociales que conociéndonos como compañeros de trabajo.

Y es ahí donde se abre un interesante negocio. Porque más allá de captar los datos hay que saber filtrarlos e interpretarlos y, cuanto mayor es la cantidad de datos y más compleja es ésta, más necesario es tener las herramientas pertinentes para saber qué hacer con ellos. Y, de nuevo, es ahí donde empresas como Adgravity tienen su oportunidad.

Permiten crear un perfil, una «huella dactilar» en palabras de su CEO en una entrevista en Cinco Días, de cada uno de los compradores cada vez que «aterrizan» en internet. Esto permite a sus clientes, explica Jesús Ollero, «mostrar a las empresas los soportes en los que tienen que invertir y qué procedimientos tienen que llevar a cabo para maximizar sus inversiones». Esto les permite saber en qué medios invertir y como interactúan las medidas que toman en su interrelación con los clientes.

El modelo que sigue Google a la hora de vender su buscador como plataforma publicitaria se resume en que el último impacto es el que hace que alguien se decante por un producto u otro. Incluso por su capacidad para generar una necesidad que redunde en una compra impulsiva. Sin embargo, Ollera explica que hay mucho más detrás de la compra o no compra.

El comportamiento del cliente potencial viene por todos los estímulos que recibe. Desde anuncios en las redes sociales (que cada vez ganan más relevancia ya que somos nosotros quienes decidimos seguir a las marcas) hasta otros inputs como banners o correos electrónicos. Y eso por ello que empresas como Adgravity tienen la posibilidad de ser los árbitros de este nuevo y millonario negocio en el que los directores de marketing deberán tener en cuenta todas las «capas» que participan en el proceso de venta y en los procesos de lanzamiento de las campañas.

Conseguir estar conectados a todas las plataformas de internet (o contratar a quien lo esté) para saber llegar a los clientes (sólo los que nos interesan no a todos) y focalizarse en sus necesidades -o crearlas- es fundamental en un momento en el que cada uno de nosotros recibimos cada vez más estímulos, tenemos más ofertas y más capacidad de comparar entre productos y servicios.

El ejemplo es contundente: «si detectamos que hay un porcentaje de personas que han buscado habitaciones de una cadena hotelera pero que al final no han dado el click -han hecho todos los demás pasos- porque el precio les parecía alto, podemos mostrárselos a la empresa para que haga una acción comercial específica solo para ellos».

Y todo ello se puede mejorar si se puede vincular la publicidad offline y la online. Conseguir que las campañas adquieran un empaque absolutamente global. Que todo cobre un sentido único de identidad mezclando la enorme capacidad técnica que nos permiten las TICs con esa intuición que tan buenos resultados les han dado durante décadas a los grandes estrategas del marketing.

IBM, el resurgir de los Blue Chips

Durante años la fortaleza o debilidad de los títulos de IBM fue un fiel reflejo de lo que pasaba en Wall Street y en la economía americana. La centenaria empresa que conmocionó el mundo cuando decidió deshacerse de su división de hardware cuando era el primer fabricante mundial para centrarse en la consultoría no sólo es una de las que mejor ha superado la crisis financiera que nos azota desde 2008, sino que se ha convertido en el gran motor que tira de la Bolsa estadounidense.

 

Si tomamos como referencia el máximo histórico que marcó el parqué en octubre de 2007, los Blue Chips valen ahora más del doble. Si analizamos las razones por las que el Dow Jones ha conseguido remontar desde el pozo en el cayó en 2009 para situarse en niveles previos a la crisis veremos que el gigante azul ha aportado -en solitario- 942 puntos a esa subida con una apreciación del 150%.

 

La clave para este comportamiento inquebrantable lo dio hace poco Ginni Rometty, su CEO: «los datos son el nuevo recurso natural». Ellos, sin duda, son los que mejor los explotan. En un momento en el que las grandes tecnológicas han hecho que gran parte de la economía -y de nuestra vida diaria- gire en torno a smartphones, tabletas, portátiles… y las redes sociales e internet se muestran como escenarios determinantes para el desarrollo del mercado publicitario y el comercio, la gestión de los datos (los famosos Big Data y Small Data) se muestra como una ventaja competitiva determinante para las empresas que se dediquen a ello.

 

Es cierto que IBM no es la única empresa que se dedica a ello. Oracle, SAP, Cisco Systems y HP también están en un negocio que, de momento, crece a un ritmo extraordinario. Cada vez hay más datos y éstos se multiplican más rápidamente. La clave para el excelente comportamiento de IBM reside en el mantra que abanderó Thomas J. Watson -su fundador- y que Rometty lleva hasta la última consecuencia: «no hay que ser conformista, hay que arriesgar». En 2012, la facturación se disparó hasta los 104.500 millones de dólares y los beneficios superaron los 16.000 millones.

 

Como bien explica Sandro Pozzi en su reportaje en El País, IBM ha sabido adaptarse a los nuevos tiempos creando nuevos mercados. No basta con adaptarse a ellos. En ocasiones hay que generar nuevos espacios donde ser el líder y generar riqueza. La fecha tope para la reestructuración de la empresa era 2015. Sin embargo, el éxito ha llegado mucho antes. Ofrecer servicios integrados a otras compañías es algo que todavía está en pleno desarrollo y que, seguro, les permitirá crecer aún más.

 

IBM vuelve a ser una empresa respetada por todos. Su marca es la segunda más valiosa del informe de Interbrand y los que anunciaron su suicidio por vender su división de hardware ven ahora que es el único gigante que aguanta el ritmo de las nuevas empresas tecnológicas -como Google- mientras otros dinosaurios intentan quitarse la «grasa» que no les permite avanzar con los tiempos -léase, HP-.

 

Un buen ejemplo de esta estrategia es la supercomputadora Watson que, según la CEO, estrena la «tercera era tecnológica». En la primera los ordenadores enumeraban. En la segunda, la actual, los dispositivos ejecutan órdenes. Watson es la primera de una nueva generación que aprende de su entorno mediante el análisis de datos que se le facilitan gracias a lo que es capaz de tomar decisiones discriminando varias opciones.

 

Sus vías de crecimiento son inusitadas. IBM acaba de retocar sus previsiones de facturación para el área de análisis de datos. De los 5.000 millones de dólares que predijo (y superó en 2010) a los más de 20.000 millones que presupone en 2015. Si tenemos en cuenta que los 16.000 millones los ha superado con tres años de antelación todo parece posible. Incluso que entre en el accionariado de Twitter una herramienta muy útil pero muy mal gestionada que, de momento, sólo acumula pérdidas astronómicas.

 

La colaboración hombre-máquina para el análisis de los Big Data ha pasado de verse como una amenaza a tratarse como una oportunidad. En la campaña presidencial de Obama se analizaron 66.000 datos diarios para saber cuál era el modo más optimo de mover personas y capitales. Dell que se ha especializado en servidores -y empieza a deshacer su negocio de hardware- busca nuevas formas de invertir su dinero en el análisis de datos y busca clientes en la Administración: desde la gestión del tráfico rodado hasta la gestión de llamadas de emergencias o políticas contra el crimen.

 

El valor ya no es lo que sabemos de algo. Ni siquiera lo que generamos. El valor reside en lo que compartimos, enriquecemos y volvemos a enriquecer. Las grandes tecnológicas comienzan a fijarse en las redes sociales como una nueva vía de explotación de datos. Seguro que IBM volverá a estar ahí la primera. Seguro que Watson también.