TDT, una de cal y una de arena

TDT, tres siglas «mágicas» que empezamos a oir allá por 1999, en pleno éxtasis tecnológico de la era Aznar y que nos prometía el maná de la nueva televisión. El número de canales se multiplicaría, el de contenidos, también. Nuevas formas de llegar al espectador, nuevos formatos, nuevos tipos de programas y todo más o menos gratis.

Tan sólo era necesario una pequeña modificación en la antena y, si nuestro aparato era analógico, un receptor que descodificaría la imagen. En 2005 el gobierno de José Luis Rodríguez Zapatero comienza a elaborar el Plan Técnico Nacional de la Televisión Digital Terrestre. Su objetivo no es otro que el de democratizar el acceso a la televisión digital hasta entonces en manos de los operadores por cable y, sobre todo, de Canal Satélite Digital -ahora Canal Plus tras varios cambios de nombre y de absorber a su principal rival, Vía Digital-, la principal plataforma de televisión vía satélite.

Entre las principales medidas que se toman destaca la de adelantar el «apagón analógico» de 2012 a 2010. Por otra parte, la reorganización de las frecuencias libres y las que estaban en manos de la desaparecida Quiero TV permitieron ampliar el número de emisoras disponibles (recibieron nuevos multiplex) tanto entre los entes autonómicos como entre las empresas privadas. El aplauso era unánime: sólo Alemania, Suecia, Noruega, Finlandia, Dinamarca, Holanda, Bélgica, Luxemburgo, Estados Unidos y el Estado podían presumir de haber entrado de lleno en la era digital…

Cambio de planes, por ahora


Sin embargo, el pasado viernes 18 de noviembre, tras la aprobación del Plan Marco para la liberación del dividendo digital -las frecuencias locales y provinciales que han quedado liberadas tras el apagón y que ahora podrán ser reaprovechadas para poner en marcha todos los multiplex asignados hace dos años- ha provocado un cambio ya anunciado por los expertos hace un par de años: la incorporación de la transposición de la directiva europea sobre servicios de comunicación audiovisual exige reservar las frecuencias comprendidas entre los 790 y 862 MHz -sitas entre los canales 60 y 69- para otros servicios de comunicaciones o, lo que es lo mismo, exigen reajustar toda la red de emisiones y obliga a los usuarios a modificar nuevamente la configuración de sus antenas.

Para que sea más sencillo de entender, la nueva disposición de los canales se da por que desaparece la frecuencia única para todo el espectro estatal: ahora en cada región se empleará la de mejor alcance dependiendo del multiplexado de cada cadena emisora al haber un espectro de frecuencias mucho más amplio.

Esta fase de transición, de nuevo, no se dará homogéneamente en todo el territorio sino que las cadenas cambiarán de frecuencia paulatinamente entre julio de 2012 y el 31 de diciembre de 2014 cuando, según parece, se habrá acabado la implantación de la TDT en el Estado. Así, durante un periodo de tiempo, y para facilitar la migración de los usuarios, las cadenas emitirán simultáneamente en la frecuencia antigua y la de nueva asignación hasta que el 1 de enero de 2015 el espectro asignado antes de 2010 quede libre para que las operadoras móviles puedan utilizarlo plenamente.

¿Cuánto costará esta migración? De partida, esta segunda fase de implantación de la TDT (la primera fue la referida al apagón analógico) le costará a los contribuyentes unos 800 millones de euros -unos 18€ por habitante-, si bien esta cifra se adaptará a las «posibilidades presupuestarias» y a cada caso particular, puesto que en ocasiones será necesario compensar la adaptación de los sistemas de recepción de cada región.

Asimismo, dentro de la Ley de Economía Sostenible queda prevista la ocupación de las antiguas frecuencias de emisión analógicas de las cadenas por los nuevos multiplexados quedando un nuevo espectro libre para que las empresas de telecomunicaciones puedan aumentar su capacidad de ancho de banda hasta los 30 Mbps para cada ciudadano que tiene como objetivo la Agenda Digital Europea para mayo de 2020.

Desde el ejecutivo explican que la nueva modulación asegura la supervivencia de la televisión pública, «minimiza» el impacto de la migración a los ciudadanos, les permitirá disfrutar de las ventajas de la Agenda Europea y ayudarán a las operadoras a cumplir sus planes de ocupación de ancho de banda.

Impacto en los usuarios


Sin embargo, me temo que ese impacto minimizado y que esos 800 millones de euros se quedarán cortos. Por un lado, las operadoras han dejado claro en más de una ocasión que no podrán cumplir el objetivo panaeuropeo de la Agenda Digital sin ayuda pública debido a la gran inversión -me pregunto si además de pagarles la instalación de la línea y la cuota de uso de la misma nos pedirán dinero para algo más-; por otro lado, el bajo interés mostrado por los contribuyentes ante la TDT -malos contenidos, continuas redifusiones y ausencia de contenidos específicos- ha provocado un éxito sin precedentes en las plataformas de pago.

¿Estamos preparados los usuarios a pagar una nueva migración, a sostener los costes de la misma, a volver a adaptar nuestras antenas y todo ello para contenidos mediocres y repetitivos? Yo, de momento, me quedo con Euskaltel. Y cada vez somos más.

Amazon, democratizando la cultura

Después de su exitoso desembarco en el Estado Amazon sigue haciendo públicos sus ambiciosos proyectos para expandir su negocio, ahora le toca el turno a una biblioteca que permita a sus clientes alquilar contenidos a un precio sin competencia.


Hasta no hace mucho no era difícil ver a alguien acercarse a un videoclub para alquilar una película con un libro recién cogido de la biblioteca en la otra mano. Ahora que iTunes o  Netflix se postulan junto con las «taquillas» de los proveedores de televisión de pago como los nuevos videoclubs en plena revolución digital, Amazon quiere hacer lo propio, aunque no sólo con películas, sino también con su punto fuerte: su vasto catálogo de libros.

La noticia -que todavía no se sabe si pasa de rumor- fue publicada por The Wall Street Journal hace una semana. La empresa de Jeff Bezos preparan un servicio en el que sus abonados pagarían una tarifa anual para poder acceder a su fondo de librería. Sin embargo, varias fuentes consultadas por el diario neoyorquino han mostrado también el malestar de las editoriales ante esta posibilidad. La venta y el precio de los libros podría bajar drásticamente y, con ello, sus beneficios muy mermados por las grandes librerías digitales y por el descenso de las ventas de libros en formato papel.

De momento el plan de Amazon sólo afectaría a libros antiguos que, normalmente, tienen poco valor comercial para las editoriales. A estas «estanterías» accederían sólo los socios «Amazon Prime» que ya abonan al gigante de internet unos 60€ anuales, aunque, para satisfacer a los editores pretende limitar el número de libros que podrían «alquilar» al mes.

Sin duda este servicio se presenta como un importante puntal para las ventas de Kindle y de la futura tableta que se presenta como una alternativa barata y diferente al omnipresente iPad. En un momento en el que el comercio electrónico crece mucho más rápido que el convencional y frente a países donde el precio de los libros está prefijado -tal es el caso del Estado- esta biblioteca parece una buena forma de saltarse las barreras para que los libros lleguen, de una vez, a casi todos.

Por el momento Amazon ya prepara la llegada de su exitoso eReader en el Estado por un precio que no debería superar los 150€ y que podría dar acceso al comprador a un número limitado de títulos durante las primeras semanas posteriores a la compra sin coste alguno -como ya hizo en la entrada en otros países-. Es hora de volver a sacarse el carnet de la biblioteca.

Twitter, ¿ética o libertad de expresión?

El propio planteamiento de las redes sociales desde su origen concierne las relaciones interpersonales libres y, por ende, la libertad de expresión. Después de multitud de debates acerca de la seguridad de los usuarios en las mismas y de los contenidos que en ellas se vierten -desde la «Primavera Árabe» hasta las filtraciones al más puro estilo «WikiLeaks«- la discusión se acerca ahora a los entes públicos y a la sociedad: ¿hemos de controlar las redes sociales como hacemos con los medios de comunicación o la Libertad de Expresión -Derecho Fundamental básico- prevalece sobre la ética y la moral? Los medios de comunicación tienen sus propios códigos deontológicos, ahora le toca a Twitter, Facebook y compañía aprender a regularse… si es que quieren.

Twitter y la anorexia


La noticia saltó el pasado día 7 de septiembre. Twitter rechazó, vía correo electrónico, la [Enlace roto.] para eliminar mensajes con contenidos que fomentan la anorexia y la bulimia. Según la red social, «Twitter cree firmemente en la importancia de la libertad de expresióny trabaja para preservarla, limitar esta libertad en cualquier herramienta social podría reducir el resultado adverso de lo que normalmente se permite en el mundo real se restrinja online». Tras esto el comunicado concluye: «nos oponemos firmemente a esto (eliminar los perfiles), pues podría causar en la práctica conflictos con la libertad de expresión».

Desde el Ministerio explican que esperaban la respuesta, aunque anuncian que continuarán trabajando para que no se haga «publicidad a aquellos perfiles que utilicen el altavoz Twitter para fomentar estas enfermedades». Incluso han creado una cuenta de correo electrónico para que cualquier usuario pueda «denunciar» a los alentadores.

El objetivo ahora es encontrar el apoyo de la Unión Europea para obligar a las redes sociales a crear un código de autorregulación que les permita minimizar el daño que un usuario pueda realizar con un mal uso de las capacidades de comunicación que le permiten redes de millones de personas. Sin embargo, el  problema es más complejo de lo que podría parecer a simple vista para el gabinete de salud: publicar un contenido proanorexia no es un delito, la libertad de expresión suele prevalecer sobre los contenidos que se emiten -gracias a lo que existen herramientas tan fértiles como los blogs- por lo que no se puede solicitar la eliminación o marginación de un contenido.

El debate que se presenta ahora resulta francamente interesante tanto para legisladores como para los usuarios… y los propios medios de comunicación que ven cómo tendrán que enfrentarse a un modo de hacer periodismo ajeno a los códigos deontológicos -más allá del buen hacer del redactor-.

Si hace años se hablaba del nacimiento de un Periodismo 2.0 que requería adaptabilidad a internet, los nuevos soportes y una nueva forma de presentar los contenidos, ahora ha de hacer frente al Internet 2.0, ése en el que todo el mundo puede emitir y recoger una opinión para formarse sus propias ideas. Ése en el que lo importante es el contenido y no la forma y donde es crucial que el lector sea capaz de distinguir el trasfondo del mensaje en una inmensa maraña de palabras estériles.

Twitter, Facebook y Google Plus, en la palma de tu mano


Si la llegada de Facebook y Twitter revolucionaron el concepto de comunicación interpersonal, Google Plus ha revolucionado completamente el mundo de las redes sociales. Tras varios intentos infructuosos la empresa de Mountain View parece haber dado con la tecla para conseguir que sus fieles -muchos en todo el mundo- no se pasen al mundo de Mark Zückerberg.

En cualquier caso, el problema que se le planteaba a los millones de usuarios de las redes sociales era cómo poder utilizar todas a la vez sin que se multiplicara su trabajo. Para los propietarios de un dispositivo Android hay una buena noticia: ha nacido Social Plus, una aplicación que permite integrar las tres principales redes sociales en un único programa para compartir contactos y contenidos.

De momento los programadores no han conseguido crear un «muro» común a las tres aplicaciones y tan sólo permite copiar y pegar contenidos de una red a otra, aunque los propios desarrolladores anuncian que estas mejoras llegarán pronto, así como la posibilidad de añadir otras redes sociales a las «pestañas de trabajo» como Tumblr o Buzz -una suerte de Twitter creada por Google-. Los propietarios de iOS tendrán que esperar, aunque también aseguran que les llegará su aplicación.

Ya tenemos los dispositivos, los altavoces sociales y la tecnología para hacerlo eficazmente. Ahora, como siempre, sólo nos falta el sentido común para saber utilizarlos. Llegará.

YouTube, por la propiedad intelectual

Si algo ha caracterizado siempre a YouTube es su inmediatez. Los contenidos se cuelgan con una velocidad pasmosa en la red para que cualquiera pueda disfrutar de los mismos. Algunos usuarios, incluso, se descargan estas temáticas audiovisuales. En el caso de esta aplicación de Google, cada minuto llegan a sus «baldas» 48 horas de vídeo. Así, como casi todos los sitios de descargas y visionado de contenidos, la propiedad intelectual es su mayor «dolor de cabeza».

Para mitigarlo, YouTube acaba de añadir a sus opciones el botón «Creative Commons» un sistema de derechos de autor más flexible que el clásico Copyright. La clave es que, hasta ahora, cualquier contenido colgado en esta página tenía que acogerse a una licencia de la propia YouTube, bastante severa en estas lides.

Creative Commons es un sistema de licencias escalonadas en seis niveles diferentes. Uno de ellos -con el fin de simplificar y estandarizar los contenidos- es el elegido por el portal de vídeos para permitir colgar contenidos en su página. Se trata del referido a la obligación de colgar un enlace del autor así como su autorización expresa para el uso del material con fines comerciales.

A partir del 1 de junio cualquier editor podrá disponer de imágenes bajo esta licencia para crear su propio material. Como ejemplo del buen funcionamiento de este estándar, YouTube ha ofrecido a Al Jazeera u C-Span 10.000 archivos para su empleo, si bien se da por hecho que en poco tiempo el contenido «protegido» se multiplicará ampliamente.

La autoría de los vídeos sólo aparecerán cuando el internauta quiera saber más sobre lo que ha visto y clique el botón «más». Así, para potenciar esta opción YouTube baraja ponderar mejor los vídeos que más veces hayan mostrado el enlace al autor.

Creative Commons nació en 2001 en California en los albores de la era digital. Desde el principio se ha querido diferenciar del copyright en que mientras que en éste segundo figura el famoso «todos los derechos reservados», con CC se reservan «algunos derechos», aquellos que así ha querido el autor del contenido según el destino o aprovechamiento de su material. Esto da mucha más cancha al sector educativo y al benéfico.

Flickr, el sitio de fotografías de Yahoo! fue el primer portal de contenidos que incorporó, hace años, este estándar para sus imágenes.

Proyecto Ultraviolet, el ¿fin? de la piratería

Hollywood está harto. La piratería de sus películas ha afectado a su negocio a niveles insospechados. A las amenazas de abandonar los países propiratería -el Estado está cerca de la cabeza en este dudoso ranking- se ha unido el apoyo a cualquier ley, sea del color político que sea, para acabar con esta lacra. Sin embargo, las grandes distribuidoras han llegado a la conclusión de que es mejor ser creativos -del mismo modo que lo es su competencia- para atajar el problema. Y le han dado un nombre de lo más rimbombante: Proyecto Ultraviolet.

El pasado viernes, cuando algunos estaban en las colas de las rebajas y otros acabando de digerir el roscón entre papeles de regalo, [Enlace roto.] y [Enlace roto.] se hacían eco de una noticia que puede catalogarse de histórica: los grandes estudios de la Meca del cine se proponían apostar por Internet como modo para acabar con la piratería -y, de paso, con el formato dvd-.

Fox, Paramount, Sony, Universal, Warner Bros. y el resto de las majors que forman parte del Digital Entertainment Content Ecosystem pondrán en marcha este proyecto que ha sido presentado en el CES y que tiene como gran atractivo personalizar el consumo de cine. La plataforma tendrá como objetivo vender al usuario una serie de licencias vitalicias que le darán derecho para ver -sin límites- los contenidos adquiridos desde cualquier dispositivo con acceso a Internet. Así, estas películas, series, programas de televisión, etc. estarán accesibles en la nube y podrán ser consultados desde cualquier dispositivo móvil -hasta doce por usuario- ya que serán totalmente compatibles con cualquier plataforma. Además, al tratarse de documentos sin soporte físico, su descarga y consumo será streaming, es decir, en alta definición sin necesidad de almacenar en el aparato ningún contenido.

Asimismo, para combatir la tentación de las descargas ilegales en páginas como MegaUpload -en las que se da un intercambio privado de contenidos- se facilitará la posibilidad de que un usuario permita el visionado y consumo de su adquisición hasta un máximo de seis «amigos» asignados a su perfil.

La previsión de las empresas es que la plataforma esté operativa durante la primera mitad de 2011 -en Estados Unidos se espera que en primavera para poco después activarse en el Reino Unido y Canadá-. Además, ha recibido el apoyo unánime de las principales empresas tecnológicas mundiales como son Google, Microsoft, IBM, Nokia, Samsung, Sony o Motorola.

Keychest, la propuesta de Disney y Apple


Pero, a pesar de las buenas iniciativas, como pasó con el Betamax y el VHS y el HD DVD y el BluRay, han surgido alternativas. Así, Disney ha propuesto la plataforma Keychest que tendrá un formato similar a Ultraviolet.

Así, esta iniciativa de la casa de Mickey ha venido apoyada por Apple, la tecnológica de Steve Jobs, uno de los principales accionistas de los de Florida. Esperemos que la abundancia de ideas no de al traste con una idea que puede, por fin, poner de acuerdo a todas las partes.