La era de la otra televisión

Primero llegó -al Estado- «el Plus». Después, con la entrada de las televisiones digitales, llegaron Imagenio -por ADSL-, ONO, Euskaltel -fibra óptica- y compañía. Poco después, algunas de estas televisiones se pasaron a la Alta Definición -iPlus de Digital Plus- pero todo ello se queda obsoleto. El pago por visión, la disposición de nuestros contenidos favoritos cuando nosotros queramos, con la máxima calidad y a precios sorprendentemente accesibles ha llegado. Y no precisamente de la mano de las televisiones y de las plataformas clásicas, sino de los fabricantes y de la Red. Llega una nueva televisión: Apple TV y Google TV.

Apple TV


Tras muchos intentos por consolidarse en uno de los pocos mercados que se le resistían, la empresa de la manzana pensó que si los iPod han tenido éxito para oír música y como mini ordenador, también lo tendrían unidos a la televisión. Así, la nueva edición de Apple TV se puede entender -salvando las distancias- como un iPod para la televisión.

Por el camino ha perdido su gran disco duro -aunque sigue conservando 8 GB-, pero también gran parte de su precio -se queda en unos apetecibles 119€-. A cambio, se ha convertido en el enlace perfecto entre el software de iTunes -que ya no sólo tiene música, sino capítulos de series y películas- y nuestra televisión, preferiblemente de Alta Definición.

Para poder utilizar este sistema sólo tenemos que conectar la «caja negra» a la red eléctrica y a la televisión mediante una entrada HDMI y a la red de Internet mediante un cable de red Ethernet o introduciendo nuestra clave WiFi.

Una vez hecho esto ya podemos alquilar películas, acceder a Youtube, radio streaming, podcasts y cualquier otro contenido en la web. Lo mejor, para utilizarlo podemos usar el pequeño mando a distancia que viene en la caja o nuestro iPhone, iPad o iPod Touch. Si optamos por esta segunda posibilidad, también podremos reproducir los contenidos que tengamos en estos dispositivos. Simplemente, impresionante.

Google TV


Y como Google no podía ser menos, decidió entrar también en el mercado del ocio para nuestros hogares. Su alianza con SONY, Intel y Logitech ha servido para que nazca -de momento sólo en Estados Unidos- Google TV.

Gracias a este equipo podremos acceder a cualquier contenido multimedia en la red y, si nuestra velocidad de conexión lo permite, descargarlo y visionarlo en streaming. Todo ello se adereza con todas las apps de Android Market, además de búsquedas en la Red y contenidos de pago -televisiones online y plataformas como Fox, HBO, etc.-.

Las conexiones a Flickr, Amazon, Youtube, etc. son prácticamente inmediatas, los teléfonos Android también pueden funcionar como mando a distancia -excepto si utilizamos el decodificador no integrado de Logitech-, tendremos acceso a páginas web diseñadas específicamente para este sistema -ver los resultados de la NBA y conectarnos en directo a cualquier partido que se esté emitiendo en ese momento en NBA.tv- y todo ello compatible con cualquier plataforma de televisión previa que ya teníamos contratada o, si lo preferimos, sólo con Internet.

Ha nacido la televisión total.

Google Bot, el gran cerebro

Siempre he pensado cómo es posible que con teclear unas letras en nuestro teclado, un ordenador ponga grandes paquetes de información a nuestro alcance. Decenas de buscadores nos facilitan las búsquedas, pero hay uno que es, sin duda, sinónimo de todo lo que Internet ofrece: Google.

Después de indagar tanto en wikipedia y con la ayuda de un reportaje publicado esta semana en la revista Quo, he conseguido reconstruir como funciona el corazón del gran cerebro de la Red.

La parte del creador


Como es obvio, para que Google te encuetre, primero tienes que volcar contenidos en una web, blog o similar. Es entonces cuando los Google Bots -o robots de búsqueda de Google- rastrean los contenidos y llegan a nuestra «página». Sin embargo, no todo lo que escribimos es percibido. Hay órdenes como «nofollow» que si son indicadas en el código de la página -archivo «robots.txt»- evitan que Google nos indexe. Todo lo contrario ocurre cuando tenemos enlaces en nuestra página o somo linkados desde páginas con «autoridad». Pero tened cuidado, si manipulamos en exceso los textos para ser rastreados por los Google Bots, corremos el riesgo de que nos eliminen de los resultados.

Si somos detectados, Google utiliza los títulos de páginas y enlaces de nuestras webs en sus índices. En otro índice paralelo se almacena el contenido de la página (que posteriormente es evaluado en lo que se llama comprobación editorial) y se comprueba gracias a las búsquedas de los usuarios -detectan spam y se observa que se cumpla la normativa de protección de datos-.

Si el contenido o los indexadores son engañosos, Google nos «penaliza».

El usuario de Google


Cuando entramos en google.com y tecleamos lo que queremos buscar, el portal nos sugiere palabras de búsquedas recientes y se apoya en sinónimos para mejorar los resultados. En estos tienen más importancia las web locales y más cercanas al punto geográfico del buscador. De los millones de posibilidades, sólo se muestran unas mil.

Aquí entra el programa Page Rank, el gran secreto de los de Silicon Valley. Éste ordena por ranking de interés las webs, aunque según los criterios del propio buscador. Para todo ello se aplican filtros, aunque si hay libros, vídeos o noticias relacionadas con la búsqueda, se entremezclan con las webs. Siempre se prioriza las webs visitadas anteriormente por el IP del usuario.

En ocasiones, si el término buscado también está siendo buscado a la vez por muchos otros usuarios, Google podría primar la «tendencia» de este término sobre los demás criterios.

Y aquí se obra la magia: todos los resultados aparecen en menos de un segundo y las estadísticas nos dicen que casi el 70% de los usuarios halla lo que buscaba entre las 40 primeras webs.

Más dominios, por favor

Internet no para de crecer. Sus usuarios tampoco y sus páginas web se expanden sin límites. Por eso el pasado día 10 la ICANN -la agencia internacional encargada de gestionar las extensiones de los dominios de Internet– debatía sobre la necesidad de crear hasta 500 nuevos.

La última vez que este «gobierno» se reunió fue en 2003 y de aquí nació la «matrícula» .cat para todas las web relacionadas con Catalunya y su cultura. Es por ello que otras regiones y ciudades como Euskadi (.eus), Nueva York (.nyc) y París piden extensiones para sus páginas web relacionadas.

Los 20 que hay hoy en día (.net, .com, .org, etc…) se quedan corto ante la demanda de ciudades, países y comunidades que quieren personalizar los apellidos de sus webs. Como siempre, el problema no reside en todas las personas usuarias. De hecho, las personas físicas -las personas, en definitiva- no tienen ningún problema con las referidas a comunidades y ciudades (.familias y .gais son algunas de las que podrían empezar a usarse en breve). El problemas llega, como siempre, con las jurídicas. Algunas extensiones -como leíamos en el [Enlace roto.] el pasado viernes- son problemáticas. Un ejemplo es «.orange» que podría referirse a productores de naranjas, a la famosa «teleco» francesa o a la ciudad o condado con este mismo nombre.

Asimismo, una de las extensiones más polémicas es la propuesta para las web de contenido pornográfico (proponen .xxx). A pesar de las zancadillas políticas que ha recibido asociaciones de usuarios (muchos de ellos padres) han solicitado su aprobación para facilitar la identificación estas páginas de contenidos sólo para adultos.

Cómo se registra un dominio


Una vez se decida la ampliación del número de dominios -se da por hecho debido a las necesidades de la propia red-, las propuestas se presentarán el próximo mes de mayo. Además, las candidaturas deberán cumplir requisitos técnicos, legales y económicos, en forma de 185.000 dólares por propuesta para sufragar los estudios de viabilidad.

Sin embargo, frente al optimismo de ICANN, que ve en esta ampliación una oportunidad de aumentar la diversidad en la Red, otros expertos ven en la ampliación una oportunidad económica -no saben si realmente se incluye un valor añadido cierto a los contenidos de la Red- ya que muchas empresas tendrán que comprar nuevos dominios para protegerse de oportunistas.

Joao Damas, experto en el Sistema de Nombre de dominios, añade que aumentará la «googledependencia» ya que, aunque las webs estarán agrupadas más fácilmente por grupos y contenidos, a los usuarios les costará  más recordar cuál es el dominio (y por lo tanto la URL) de la web que busca. El tiempo dirá como evoluciona un ecosistema (Internet) que ha mostrado saltarse casi todas las normas y ha salido siempre airoso.

WikiCuba

Siempre he defendido que la tecnología y los avances tecnológicos pueden cambiar el mundo mucho más que cualquier discurso político y religioso. Fidel y Raúl Castro han hecho posible que cada vez crea más en ese axioma. El miércoles 14 de diciembre de 2010 el Gobierno de Cuba lanzó a Internet el portal EcuRed o, lo que es lo mismo, la réplica cubana a la enciclopedia online de origen estadounidense Wikipedia.

El sitio, que ha nacido con más de 19.000 documentos -se incluyen biografías, artículos de referencia y trabajos académicos- y 447 «páginas a mejorar» tiene la voluntad «de crear y difundir el conocimiento con todos y para todos; desde Cuba y con el mundo»- según la propia página.

Su funcionamiento es similar al de Wikipedia y los usuarios podrán suscribirse y aportar contenidos y conocimientos previa supervisión de los administradores.

Sin entrar a valorar su contenido político -que no nos atañe en este blog- sólo me queda felicitar a sus idearios, cualquier comunidad wiki que se cree con la intención de extender conocimiento, debe ser aplaudida.

¿Qué es una wiki?

Llevamos varios días oyendo hablar de WikiLeaks. De sus [Enlace roto.], de la [Enlace roto.] y de si, incluso, se trata de periodismo, divulgación o sólo ánimo de hacer daño a las instituciones públicas. Sin embargo, este no es el debate que nos atañe ahora mismo. He echado mucho en falta, y me consta que no soy el único, que nos expliquen que es ese prefijo mágico que aparece en cada vez más páginas web: «wiki». Y nada mejor para ello que sumergirnos en la Wikipedia, el gran referente de estas páginas web y, sobre todo, la mayor enciclopedia del mundo. Aquí va la respuesta a ¿qué es una wiki?

La primera vez que tuve algún tipo de contacto con este término fue durante el curso teórico previo a la preparación de mi tesis doctoral sobre «Periodismo, comunicación y memoria en la era digital». En la asignatura de «Documentación» nuestra profesora nos animaba a sumergirnos en una página TiddlyWiki. Se trataba de una libreta de notas en la que el usuario podía apuntar todo lo que deseara online y, sobre ella, rectificar o añadir todo lo que dispusiera.

La capacidad de estas aplicaciones en los ordenadores de sobreescribirse a sí mismas cuando el usuario lo desea, incluso cuando se está ejecutando un navegador de internet, la hace perfecta como indexador de datos. Algo muy útil cuando el volumen de documentación que se maneja en el ordenador, tablet o portátil es considerable.

Sin embargo, la herramienta «wiki» más utilizada en el mundo -de hecho es el séptimo sitio web más visitado en el mundo y tiene más de 16 millones de entradas- es la Wikipedia. Está enciclopedia online que desbancó rápidamente a la mítica «Encarta» e incluso a otras «analógicas» como la Enciclopedia Britannica por su capacidad de actualización, resume a la perfección el espíritu de las páginas wiki.

Qué es una wiki


Su nombre viene de la palabra hawaiana que significa «rápido» y se refiere a un sitio web cuyas páginas pueden ser editadas por múltiples voluntarios a través de sus navegadores web. Los usuarios pueden crear, borrar o editar textos que comparten en cualquier momento.

Además, para agilizar su difusión, las páginas wiki poseen un título único. De este modo, si se escribe este título entre corchetes, se crea un enlace directo a este sitio web.

La primera página wiki fue creada por Ward Cunningham como la «base de datos en línea más fácil que puede funcionar» en 1995. Así, su eficacia y posibilidad de actualización hace que las páginas wikis sean creadas habitualmente para proveer de documentación a programas informáticos de software libre -gratuito-.

Y es precisamente esta posibilidad de actualización y edición por parte de todos los usuarios donde reside su éxito frente a formatos más tradicionales -ya hemos visto el caso de las enciclopedias, pero lo mismo ocurre con otros tipos de páginas web como los medios de comunicación-.

Si queréis más información sobre su edición, su código fuente y sus posibilidades os recomiendo, cómo no, que visitéis la página web de Wikipedia relacionada con las wikis. No tiene desperdicio.