Descripción

La finalidad de este proyecto de investigación es la creación del marco tecnológico adecuado que permita el desarrollo de sistemas telemáticos inteligentes que asistan al teleespectador en la búsqueda y selección de servicios y contenidos audiovisuales de su interés, a través de la TV digital. El resultado del proyecto incluirá un prototipo, que se distribuirá como software libre, que proporcione ayuda al teleespectador: encontrando programas que se adapten a las consultas del usuario, realizando recomendaciones por propia iniciativa, gestionando un perfil dinámico que refleje sus gustos y tenga en cuenta sus selecciones previas, reutilizando recomendaciones que hayan tenido éxito en usuarios con perfiles similares, etc.

La ya iniciada transición de la televisión analógica a la digital implicará no sólo un aumento considerable de los contenidos audiovisuales que podrá recibir el teleespectador, sino también la posibilidad de acceder a un sinfín de servicios telemáticos comerciales y administrativos que ya hoy se vislumbran a través de un canal ciertamente más complejo y restringido como es Internet. La televisión es un medio de comunicación que goza de una aceptación generalizada por parte de cualquier sector social, y de un grado de penetración casi absoluto en el hogar de los ciudadanos. Por ello, al dotarla en esta transición de la capacidad computacional propia de un ordenador, la televisión está llamada a convertirse en un importante canal de acceso a la sociedad de la información que se avecina.

Sin embargo, la avalancha de información y servicios que esta nueva tecnología pondrá a nuestra disposición requiere de herramientas que asistan al teleespectador en la búsqueda de esos contenidos y servicios, incluso tomando la iniciativa a la hora de realizar sugerencias en base a los perfiles de los usuarios o su historial de uso previo. Para ello, tanto las herramientas actualmente disponibles en Internet (buscadores) como los programas de ayuda de la incipiente TV digital (EPGs - Electronic Program Guides), aunque útiles, se nos muestran ciertamente insuficientes para lograr este objetivo.

Por otra parte, el principal problema con el que se enfrenta la transición de la televisión analógica a la digital no es tecnológico sino económico. El alto coste que supone para los agentes involucrados exige de retornos inmediatos por parte de los usuarios. Para ello, no cabe duda de que lo más apropiado es ofrecerles a estos aquello que más pueda interesarles, por lo que estén dispuestos a pagar. Así pues, la personalización de la televisión se nos muestra como una buena herramienta para los operadores, de cara a maximizar el ingreso medio por abonado, garantizando que para los usuarios no pasen desapercibidos los contenidos que les gusten o los servicios que puedan interesarles.

El trabajo de investigación aquí propuesto se enmarca en el ámbito genérico del razonamiento semántico sobre la naturaleza y las propiedades de los elementos de un conjunto de recursos multimedia. El objetivo de este razonamiento es conducir al establecimiento de relaciones de asociación entre esos elementos, con objeto de poder inferir nuevas propiedades en función de las ya conocidas. Este trabajo se centra, principalmente, en el razonamiento sobre los distintos servicios y contenidos audiovisuales a los que puede tener acceso un teleespectador a través de las plataformas de televisión digital a las que esté abonado. El objetivo es la definición de los elementos tecnológicos necesarios (lenguajes, protocolos, algoritmos y procedimientos), incluyendo la combinación y extensión de los ya existentes, para poder dotar a este tipo de asistentes telemáticos de una capacidad de razonamiento semántico, que enriquezca la tradicional búsqueda sintáctica basada en la simple comparación de cadenas de texto, como la que podemos encontrar actualmente en los buscadores de Internet.

Este objetivo pasa por una caracterización formal de los recursos y sus propiedades, que permita aplicar los procesos deductivos extensamente estudiados por la lógica matemática en la tarea de búsqueda y selección de los contenidos y servicios que mejor encajen en el perfil de un usuario o parezcan más apropiados como resultado de una consulta.

Hasta ahora, los distintos ámbitos tecnológicos involucrados en la creación y procesamiento de información multimedia han hecho un uso intensivo de procedimientos matemáticos para su codificación, tratamiento y representación. Sin embargo, no ha sido así en el caso de su descripción. La falta de lenguajes y herramientas dotadas de un carácter matemático formal dificulta en gran medida el razonamiento lógico sobre los recursos y sus propiedades, y la inferencia de nuevas relaciones a partir de las ya conocidas.

Por tanto, la principal herramienta que este proyecto pretende utilizar para la consecución de asistentes inteligentes como los propuestos anteriormente, es la formalización matemática de los elementos involucrados en el proceso deductivo, es decir, tanto los distintos servicios telemáticos y sus funcionalidades, como los contenidos audiovisuales (los programas emitidos por los operadores de televisión) accesibles al usuario, sus propiedades más relevantes, los perfiles de los usuarios y sus historiales, y los criterios que se puedan emplear para especificar una búsqueda.

Esta formalización previa permitirá la aplicación de técnicas matemáticas tradicionales, como:

  • La utilización de la lógica matemática para deducir nuevas propiedades y relaciones a partir de las ya establecidas. Esto posibilita el desarrollo de algoritmos para la selección de los programas y servicios que mejor se adecúen a unos ciertos criterios y la confección automática de EPGs que reflejen los gustos de los usuarios.
  • La definición de métricas que posibiliten la comparación de perfiles de usuario, historiales de uso, EPGs, etc. Esto posibilita la creación de clases de equivalencia en función de la similitud de las características de estos objetos.
  • Las técnicas de reutilización de sistemas y modelos, lo que permitirá el empleo de los resultados generados en otros contextos, por ejemplo, la recomendación de servicios, contenidos o EPGs a unos usuarios en función del éxito que estos hayan obtenido en usuarios con perfiles similares.
  • Las técnicas estadísticas (bayesianas) y los métodos de clasificación basados en la teoría de la información, como mecanismos de aprendizaje automático, para modificar dinámicamente los perfiles de los usuarios en función del éxito que tengan las recomendaciones realizadas por el sistema.

El cuerpo tecnológico desarrollado ha de permitir la creación de agentes software que procesen la información sobre los contenidos audiovisuales y generen recomendaciones al usuario. Este tipo de asistentes desarrollarán su actividad en dos posibles escenarios:

  • De forma general, a iniciativa del operador de la plataforma digital, seleccionando servicios y contenidos que puedan interesar al usuario (en base a su perfil e historial) y ofreciéndoselos.
  • De forma puntual, ante una consulta de un teleespectador, seleccionando los recursos que mejor encajen en los términos de la consulta, teniendo en cuenta el perfil del usuario y su historial.

Este tipo de agentes software poseen un carácter intrínsecamente distribuido, al tener que procesar información que se origina, agrega y reside en diferentes entornos. Es necesario procesar la información sobre los contenidos audiovisuales, que de forma general residirá en las bases de datos del operador o de proveedores externos, aunque parte de ella pueda llegar al receptor del usuario (SetTop Box o STB). También existirá un procesado de información en el STB, ya que, a menudo, la información sobre perfiles e historial de uso querrá mantenerse en el ámbito de lo privado. Se contemplan de forma natural procesos de intercambio de información entre los agentes software del receptor y los del operador, e incluso intercambio de información entre los agentes de distintos receptores, por ejemplo, si los perfiles de los usuarios pertenecen a una misma clase de equivalencia.

Por tanto, la implementación del sistema final que se derive de los resultados del proyecto será un sistema telemático, que refleje una arquitectura de agentes software que procesen e intercambien información a través de los distintos canales de comunicación disponibles, ya sean unidireccionales (el flujo de transporte que emite una plataforma digital) o bidireccionales (cable, RTC, ADSL o cualquier red a la que esté conectado el receptor).

Es importante destacar que nos encontramos en la etapa inicial de investigación de este tipo de servicios, por lo que el software que se derive de los resultados del proyecto (e incluso el que se genere en el medio plazo) tendrá un carácter experimental, con importantes avances en funcionalidad que se producirán de forma continua. Por ello, ante un previsible y prolongado estadío de falta de estabilidad, no parece conveniente implementar los resultados en forma estática, al menos en los receptores. Se exige pues, el empleo de procedimientos que permitan actualizar de forma dinámica el software que se ejecute en los receptores, tratando de evitar que queden obsoletos en un corto espacio de tiempo, lo que dificultaría enormemente la expansión comercial de este tipo de servicios.

Por tanto, la implementación de los elementos del sistema telemático descrito debe realizarse a través de aplicaciones interactivas de televisión digital, que el operador pueda descargar al STB de forma sencilla y actualizar en cualquier momento a voluntad.

En definitiva, el presente proyecto de investigación integra varias líneas de investigación: métodos formales, sistemas telemáticos, agentes software y aplicaciones interactivas de televisión digital. El objetivo es estudiar las características del nuevo contexto en el que nos situamos, el razonamiento formal sobre servicios y contenidos multimedia, para sintetizar en él algunos de los resultados logrados en cada campo por separado, identificando las limitaciones y desarrollando nuevos formalismos y procedimientos más apropiados para alcanzar el objetivo final de mejorar la asistencia al teleespectador.

Antecedentes en el campo del razonamiento semántico sobre recursos multimedia.

El tamaño del WWW ha crecido de forma espectacular en los últimos años, lo que ha provocado un incremento notable en la dificultad de encontrar los recursos más interesantes acerca de un tema en concreto, fundamentalmente provocado por la ambigüedad de los términos empleados en las consultas que permiten realizar las herramientas de búsqueda.

Para tratar de paliar este problema, se ha desarrollado en los últimos años toda una línea de investigación acerca de la metainformación, caracterizando los recursos con una serie de propiedades (metadatos) que permitan ser más precisos a la hora de decidir si encajan o no en los términos de una consulta.

A este respecto, la iniciativa internacional de mayor calado es la del grupo MPEG de ISO, que se ha plasmado en la norma MPEG-7. Entre los objetivos de esta norma está el normalizar distintos elementos de metainformación para describir ciertas propiedades de interés de recursos multimedia en general. El lenguaje empleado para ello (Description Definition Language o DDL) es una sencilla extensión del XML Schema del W3C, enriquecida con varios tipos de datos adicionales para describir características habituales en el contexto de lo audiovisual.

Esta técnica de caracterización de los recursos mediante metainformación ha abierto las puertas a un objetivo más ambicioso: el razonamiento semántico acerca de los recursos. Este campo, desarrollado hasta el momento bajo el término de Web Semántica, tiene como objetivo razonar sobre las propiedades de unos recursos para extraer nuevas propiedades y establecer asociaciones con otros recursos.

El primer paso tomado en este sentido fue la definición del lenguaje RDF (Resource Description Framework). Utilizando XML como elemento descriptivo, RDF se emplea para formalizar la definición e identificación unívoca de recursos y la forma de especificar qué propiedades tiene un recurso, junto con sus valores. RDF no se encarga de la especificación de las posibles clases de recursos y sus propiedades, sino sólo de la infraestructura para expresar relaciones entre estos, es decir, para expresar que un recurso tiene una propiedad con un determinado valor. Para abordar esta tarea adicional de especificación de vocabularios de recursos y propiedades, se desarrolló posteriormente RDF Schema, un lenguaje para unificar la forma de definir clasificaciones de objetos y especificar las propiedades que pueden ser empleadas para describir los recursos. En definitiva, se trata de un lenguaje para tipificar los recursos.

Haciendo uso, en mayor o menor medida, de RDF y RDF Schema, se han desarrollado una serie de iniciativas para normalizar casos concretos, es decir, definir vocabularios y propiedades utilizables en ámbitos determinados, generalmente relacionados con contextos de negocio particulares e impulsados por las empresas u organismos involucrados. Entre ellas destacan: Dublin Core, para describir propiedades de documentos bibliográficos; PRISM, para normalizar la metainformación que resulta de interés en la industria de las revistas; o RSS, para describir los contenidos de un sitio Web.

Llegado este punto, el estado actual de la técnica en el campo de la Web Semántica se centra en uno de los principales problemas del Web: su heterogeneidad y falta de control centralizado. Este hecho, que por otra parte es una de las virtudes que ha contribuido a la expansión exponencial del Web, implica que para un mismo concepto se puedan acuñar distintos términos y especificar distintas propiedades, según el entorno en el que se realice esa especificación o las personas que lo lleven a cabo. Esto dificulta en gran medida los procesos deductivos, ya que el desconocimiento de las equivalencias en los términos impide el uso combinado de sus propiedades y relaciones, así como el establecimiento de interrelaciones.

Para tratar de solventar este problema, en los últimos años se ha intensificado el estudio y aplicación a este campo del concepto de ontología, entendiéndolo como una agrupación de una serie objetos y un conjunto de reglas de inferencia. El principal elemento de una ontología es la taxonomía que se hace de los distintos objetos: la clasificación de los objetos en clases y la especificación de las relaciones entre clases y entre los elementos de una clase.

La disponibilidad de un conjunto de ontologías significativo y conocido, junto con una declaración de equivalencias entre términos distintos que tienen el mismo significado en ontologías diferentes, es un punto de partida imprescindible para poder relacionar unos conceptos con otros y deducir nueva información mediante la combinación de las relaciones y reglas de inferencia pertenecientes a cada ontología por separado.

Para llevar a cabo la tarea de crear ontologías, se han desarrollado a nivel internacional dos iniciativas diferentes, aunque ambas toman como punto de partida el tándem RDF/RDF Schema, tratando de extender su capacidad para expresar las propiedades de los recursos con nuevos constructores, como puedan ser elementos para establecer restricciones de cardinalidad, relaciones de transitividad o propiedades sobre conjuntos disjuntos, complementarios o intersecciones.

A nivel europeo, y bajo el paraguas de dos proyectos IST, nació OIL (Ontology Inference Layer). En E.E.U.U, y financiada por DARPA, se creó DAML (Darpa Agent Markup Language). El objetivo de ambos proyectos es muy similar: permitir, de forma sencilla y normalizada, la especificación de los objetos que forman la ontología, su división en clases, las propiedades más relevantes, la relación entre las diferentes clases y las reglas de inferencia que pueden alimentar un proceso deductivo. Para ello, recurren de forma intensiva a trabajos previos sobre lógicas descriptivas y ontologías, especialmente en el terreno de la Inteligencia Artificial, lo que le permite explotar resultados formales sobre la corrección, decidibilidad y complejidad de los sistemas de inferencia desarrollados.

Debido a tal similitud de objetivos, pronto se establecieron canales de comunicación entre ambas iniciativas, que han conducido a su integración en una sola línea, conocida como DAML+OIL. Bajo este nombre se desarrollan en la actualidad múltiples trabajos conducentes a proporcionar una solución integral para permitir el desarrollo de la Web Semántica: la especificación de un lenguaje para la descripción de ontologías que sea lo suficientemente expresivo, la creación de una lógica descriptiva que permita establecer reglas de inferencia sobre los elementos de las ontologías, la definición de un lenguaje para expresar las consultas, la creación de diversas ontologías (por ejemplo, para modelar las características y funcionalidades de los servicios Web), etc.

Para tratar de mantener un cierto control sobre la normalización de estos trabajos, el W3C ha creado un grupo de trabajo sobre ontologías Web, liderado por los investigadores responsables de DAML y OIL. Su primer resultado es un lenguaje llamado OWL (Web Ontology Language), todavía en proceso de discusión, que recoge los resultados asentados de DAML+OIL, y que pretende ser el vehículo normalizado para la descripción de las ontologías que se usen en el Web.

Antecedentes en el campo de la TV digital

En lo que respecta al contexto concreto en el que se desarrolla este proyecto de investigación, cabe destacar que el proceso de migración de la televisión analógica a la digital está todavía en sus comienzos. En principio, la mayor parte de la población sigue accediendo a este servicio a través de los canales analógicos tradicionales, aunque actualmente ya se esté emitiendo en paralelo en digital. No será hasta finales de la presente década o principios de la siguiente cuando se produzca el apagón analógico y las únicas emisiones sean en digital (todo parece indicar que la fecha exacta dependerá del grado de madurez de la tecnología y del despliegue de los equipos necesarios para que no se produzcan graves perjuicios para la población).

En todo caso, el desarrollo actual de la televisión digital ya permite afirmar que los cambios más significativos para la población son dos: la capacidad de enviar aplicaciones interactivas que doten al receptor de un carácter más activo e implementen el acceso a distintos servicios telemáticos a través de la televisión; y el mayor número de programas que se puede enviar en el mismo ancho de banda. Esto último, unido al mayor ancho de banda disponible en cable y satélite, permite incrementar de forma espectacular el conjunto de contenidos que puede recibir un espectador.

En lo que respecta a la integración de aplicaciones interactivas, el principal problema radica en lograr la compatibilidad de los servicios desarrollados, habida cuenta de la heterogeneidad de redes, canales de transmisión, sistemas operativos y hardware empleados en los distintos elementos extremo a extremo. Como quiera que lograr esta compatibilidad es esencial desde el punto de vista económico (en caso contrario, los usuarios serían reacios a actualizar sus equipos hasta el final), los distintos organismos reguladores existentes en el mundo (básicamente a nivel de Europa, E.E.U.U. y Japón) están haciendo un esfuerzo muy importante para normalizar las características de las aplicaciones y los terminales receptores que deben ejecutarlas. En lo que más nos atañe por cercanía, el consorcio Digital Video Broadcasting (DVB), que es el organismo encargado de regular estos temas en Europa, ha publicado (e impulsado de forma muy activa) la norma MHP (Multimedia Home Platform). Este estándar regula cuestiones operativas fundamentales para lograr la compatibilidad de las aplicaciones interactivas y, por tanto, de los servicios que éstas implementan: el lenguaje de programación, el ciclo de vida, la señalización entre la aplicación, el STB y el operador, el interfaz entre la aplicación y los recursos del STB, etc. Las administraciones, operadoras de televisión y fabricantes de la mayoría de países europeos han manifestado su apoyo a MHP, por lo que en el futuro se convertirá en el modelo de aplicaciones interactivas para TV digital a nivel europeo. La única incógnita estriba hoy en día en el ritmo de su despliegue, habida cuenta de que el grado de recursos (memoria y CPU) que debe tener un descodificador MHP es todavía superior al grado de recursos de los que disponen los descodificadores actuales.

En cuanto a la avalancha de contenidos a los que un usuario podrá acceder, no es necesario adentrarnos demasiado en el futuro para prever que la dificultad para estar informados de la programación disponible desbordará la capacidad de los usuarios. Hoy en día, la mayor plataforma de televisión digital, la británica BSkyB, transmite una EPG con 7000 entradas, informando de los programas que se transmitirán en el futuro inmediato en sus más de 300 canales de televisión. La normalización de los descodificadores permitirá el desarrollo de mercados horizontales, donde el usuario podrá acceder a múltiples plataformas con un solo receptor. El aumento de contenidos que se derivará de tal integración alcanzará cotas inimaginables. En cuanto la tecnología para crear aplicaciones interactivas compatibles esté consolidada (y, por tanto, su coste se reduzca), la explosión en el número de servicios telemáticos accesibles a través de la televisión será equivalente a la progresión en el número de sitios Web accesibles en Internet.

Por ello, existe un consenso a nivel internacional en que en el futuro serán necesarios mecanismos de ayuda al teleespectador para asistirle en el proceso de búsqueda y selección de servicios y contenidos que puedan ser de su interés. En este proceso se puede adivinar una analogía con lo ocurrido en Internet en los últimos años. Hoy en día, los programas de búsqueda de recursos en el Web son una herramienta fundamental para obtener la información más relevante acerca de cualquier tema.

A este respecto, la iniciativa más importante que se está desarrollando hoy en día es la denominada TV-Anytime. Se trata de un consorcio de empresas que han desarrollado una propuesta (recientemente publicada como estándar ETSI) para la normalización de: una forma unívoca de identificar un contenido concreto; un conjunto de elementos de metainformación para describir cualquier contenido genérico o una instancia del mismo; otro conjunto de elementos de metainformación para describir los perfiles de los usuarios y su historial de compra/visionado de programas; y, finalmente, una infraestructura para la publicación y localización de los contenidos por parte de creadores, operadores de televisión o terceras partes. Todo ello conforma un marco especialmente adecuado para el referenciamiento y procesamiento de contenidos, independientemente de la forma en que estos sean distribuidos, estableciendo un excelente punto de arranque para la implementación de servicios de consultas basadas en comparaciones sintácticas.

Por el contrario, TV-Anytime no se ocupa en absoluto de definir elementos de metainformación para describir servicios telemáticos proporcionados a través de la televisión, ni de la infraestructura necesaria para localizar entidades que proporcionen esos servicios. Por ello, una de las tareas del proyecto debe ser confeccionar una propuesta para especificar ese tipo de información.

En cualquier caso, TV-Anytime está teniendo una aceptación excelente entre los organismos internacionales encargados de normalizar las cuestiones referentes a la TV digital. En lo que se refiere a Europa, el DVB ya ha iniciado el proceso de extensión de las tablas de información de servicio (DVB-SI) que acompaña a los contenidos, para normalizar un procedimiento de envío al usuario de la metainformación de acuerdo a lo definido por TV-Anytime.

Conclusiones

Con estos antecedentes, el presente proyecto pretende sintetizar ambas líneas de trabajo (razonamiento semántico y TV digital) para desarrollar un asistente inteligente que seleccione los servicios y contenidos más apropiados para un determinado espectador, ya sea de forma general o ante una consulta de éste.

La sujeción a estándares es un requisito imprescindible para que los resultados que se deriven de trabajos desarrollados tengan viabilidad a nivel comercial. Por tanto, una premisa importante a este respecto será el empleo, en lo posible, de las distintas normas internacionales mencionadas previamente o de otras que tomen cuerpo en el transcurso del proyecto. Por ejemplo, entre las tareas identificadas se contempla la creación de una ontología que defina los recursos, propiedades y relaciones de los contenidos audiovisuales; o también la especificación de reglas de inferencia para el razonamiento deductivo sobre esos recursos. En ambos casos, las herramientas a utilizar como punto de partida serán las normas anteriormente presentadas, especialmente OWL y TV-Anytime. Las posibles extensiones que se definan para enriquecer la información sobre los recursos o el lenguaje de reglas de inferencia, deben preservar la compatibilidad hacia atrás; es decir, el sistema será totalmente operativo con la información normalizada en los estándares mencionados, aunque, lógicamente, sus resultados serán inferiores que en el caso de emplear la capacidad expresiva derivada de las extensiones fruto de este proyecto.

El conjunto de agentes y herramientas que compongan el prototipo desarrollado se distribuirá como software libre, para promover posibles continuaciones del proyecto o servir de germen para iniciativas empresariales de explotación.