Aplicación

LODI es un frontend para puntos de consulta SPARQL que muestra los recursos de linked open data. Muestra toda la información de los recursos, incluyendo los atributos y relaciones con otros recursos.

  • Proporciona una interfaz HTML simple para los usuarios y otra más detallada para los programadores.
  • Proporciona información del recursos en el formato N3.
  • Los atributos geoespaciales son mostrados en un mapa.
  • Las imágenes .jpg, .jpeg o .png son visualizadas de forma automática.
  • Contiene un fichero de configuración que permite, entre otras posibilidades, indicar el punto de consulta SPARQL, poner el logo del portal, enlaces, y la configuración de la interfaz.
calendar icon
Noticia

Ya han pasado 15 años del afamado artículo de Tim Berners Lee en el que se habla por primera vez de una web de datos. Este artículo fue el germen de la iniciativa de la web semántica, un esfuerzo para evolucionar la forma en la que se representaba la información con el objetivo de pasar de texto (contenido no estructurado) a datos (contenido estructurado) facilitando, por tanto, operaciones y procesos de computación más complejos.

Como resultado de esta iniciativa nació el paradigma linked data (o, como se conoce en español, “los datos enlazados”), que en su propuesta conceptual más básica se refiere a construir una web de datos, donde la información tenga un nivel de representación suficiente que permita la construcción de relaciones y enlaces, los cuales facilitan la navegación entre conjuntos de datos provenientes de diferentes fuentes, inclusive de diferentes proveedores.

Así, el linked data, en sí mismo, no es más que un conjunto de buenas prácticas para publicar y conectar datos estructurados en la web. Una propuesta que se articula a través de un conjunto de tecnologías estándar del W3C:

●   Las URIs, un mecanismo genérico para identificar entidades y conceptos, que funcionan de forma análoga a los nombres propios en el lenguaje natural. La principal ventaja con otros identificadores es que son globales (en la web) y únicos (i.e., se refieren e identifican de forma unívoca y sin ambigüedad al mismo recurso).

●   El protocolo HTTP, un mecanismo simple y universal que permite recuperar al recurso que identifica una URI. De esta forma, cuando “resolvemos” una URI es como si estuviéramos llamando al recurso a través de su nombre propio, pudiendo acceder también a su descripción (su “significado”) construido a través de otros recurso, es decir, otras URIs.

●  Modelo de datos RDF. Esta tecnología, piedra angular del stack tecnológico de la web semántica, es un framework para la descripción de recursos (entidades y objetos en la web) que se apoya en los mecanismos de nombrado y acceso que mencionados anteriormente (URIs y HTTP respectivamente).

Así, el RDF no es más que una sintaxis para la expresión de tripletas: “sujeto - verbo/relación/enlace - objeto”, que nos permiten describir los recursos de forma sencilla y natural además de un modelado abierto de los recursos, sin necesidad de esquemas o vocabularios, que facilitan la integración de conjuntos de datos heterogéneos.

El propósito original para el que fue diseñado RDF es el intercambio de datos. RDF no nació con el objetivo de sustituir ninguna tecnología, sino de complementar y proporcionar valor añadido a las ya existentes permitiendo elevar el nivel de representación de los datos publicados en la web y facilitando la comunicación entre sistemas y agentes; todo ello, independientemente de cómo estén construidos y de la tecnología subyacente. 

calendar icon
Noticia

Los datos, el nuevo petróleo del s. XXI, se han convertido en un motor de crecimiento y generador de riqueza gracias a su gran potencial de explotación. No obstante, para obtener el mayor retorno de este activo, es necesario analizar dicha información y transformarla en conocimiento.

Para facilitar el tratamiento y comprensión de los datos han surgido numerosos instrumentos que ayudan a  recopilar, estudiar, interpretar y contrastarlos para que su reutilización resulte un proceso menos complejo. Uno de estos instrumentos es Open Data Kit (ODK), una herramienta tecnológica de código abierto que permite a cualquier organización, entidad o usuario gestionar grandes volúmenes de datos con sólo tener acceso a la Red y sin necesidad de licencias.

Para poder utilizar ODK, son necesarias tres herramientas para construir una base de datos, recoger la información y agregarla a dicha base de datos para crear mapas, gráficos y todo tipo de visualizaciones que ayudan en la comprensión de la masa de datos.

Financiado por el gigante Google, Open Data Kit nace con el objetivo de brindar una herramienta basada en estándares abiertos que sea sencilla de utilizar, modificar y escalar. Los códigos fuente para interactuar ella están disponibles de manera gratuita en la página oficial del desarrollador code.google.com.

A escala nacional, las compañías CodeSyntaxZilk ProspektikerFideNet junto a las entidades DeustoTech Internet y DeustoTech Computing han colaborado conjuntamente en el proyecto OpenDash, que ha desarrollado una herramienta a través de la cual es posible acceder y explotar la información del sector público mediante un cuadro de mandos personalizado.

El resultado de OpenDash es una aplicación web que permite el registro, análisis y acceso a fuentes de datos abiertos en RDF para el tratamiento de dicha información y creación de diferentes estadísticas, gráficos y visualizaciones sin importar el origen de los datos siempre y cuando estén en el formato adecuado.

Muestra de las posibilidades que encierran los datos, este proyecto cobra especial importancia en el tratamiento del linked data al brindar la oportunidad de interconectar información pública procedente de diferentes fuentes, otorgándole un valor añadido a los datos custodiados y abiertos por las administraciones públicas. 

calendar icon
Noticia

Desde que dos de sus departamentos de Ciencias de la Informática abrieran la información sobre sus infraestructuras en el año 2006, la Universidad de Southampton (Reino Unido) se ha convertido en un referente mundial en materia de apertura de la información académica.

En la actualidad, el portal de datos abiertos de la entidad británica cuenta con más de cincuenta datasets, actualizados semanalmente a través de scripts automáticos gestionados por el software Hedgehog. La mayoría de los conjuntos están disponibles en formato RDF/XML y, cuando es posible, se brindan los datos en crudo a través de documentos csv o Excel.

La Universidad de Southampton no solo apuesta por la apertura de la información, sino por convertir el open data en linked data. En primer lugar, los datos se publican en formato RDF y se vinculan a otros sites de la web semántica, facilitando la fusión de información de diferentes fuentes. A su vez, además de implementar un punto de acceso SPARQL, la institución utiliza Graphite, una librería en PHP que simplifica el control de los datos enlazados y permite a los desarrolladores consultar los RDF sin la necesidad de escribir una sola línea en SPARQL.

Actualmente, están disponibles en el portal casi una veintena de aplicaciones que transforman los datos abiertos de la Universidad de Southampton en información de valor para sus estudiantes. Cabe destacar el mapa virtual del campus universitario donde se visualizan todos los servicios de la entidad como los puntos Wi-Fi del recinto o las instalaciones deportivas.

El pasado año, el Open Data Institute nombró a la Universidad de Southampton “Socio Fundador Honorario”, como reconocimiento a su labor a favor de la apertura de la información y su papel crucial en la conceptualización, diseño y puesta en marcha de la entidad. Este acuerdo reforzará el trabajo que realizan conjuntamente las dos instituciones en materia de formación, educación e investigación de servicios open data a escala internacional.

calendar icon
Noticia

El Consorcio W3C define los datos enlazados (linked data) como la forma de vincular los distintos datos distribuidos en Internet del mismo modo que se interconectan los enlaces de las páginas web. De esta manera, se permite a los usuarios y máquinas acceder, explorar, consultar y reutilizar dichos datos desde diferentes fuentes.

Actualmente, solo unas pocas universidades en Europa publican sus datos en formato linked data, usando tecnologías RDF y SPARQL y dando acceso directo a la información relativa a cursos, material educativo, investigación o publicaciones. Sumado a este primer obstáculo, además estas iniciativas no están conectadas entre ellas. Bajo este marco nace Linked Universities; un acuerdo entre diferentes universidades europeas que fomenta la publicación y reutilización de su conocimiento a partir de los datos enlazados.

Conscientes del potencial que ofrece el linked data para el sector académico y de investigación, los miembros de dicha alianza –formada por 11 entidades entre las que se encuentra la Universitat Pompeu Fabra- trabajan para desarrollar una plataforma de datos universitarios vinculados; un espacio colaborativo donde instituciones y ciudadanos puedan acceder, compartir y reutilizar la información. Entre los objetivos principales del proyecto se encuentran:

  • Identificar, desarrollar y estandarizar vocabularios comunes de linked data para enlazar cursos, calificaciones, material educativo…
  • Describir fórmulas de reutilización y compartir herramientas para la publicación de la información en formato de datos enlazados.
  • Impulsar iniciativas que fomenten el uso de datos enlazados en la universidad.  

Gracias a iniciativas como Linked Universities que promueven compartir, distribuir y reutilizar el conocimiento es posible mejorar los procesos de aprendizaje e investigación de las propias universidades mientras se generan nuevos servicios, productos y aplicaciones de los datos. 

calendar icon
Noticia

Open Data Support es un proyecto lanzado por el equipo DG Connect de la Comisión Europea con el objetivo es impulsar la visibilidad y facilitar el acceso a los conjuntos de datos en los diferentes portales locales y nacionales; fomentando la reutilización de la información más allá de las fronteras de cada país.

Uno de los principales obstáculos a los que se enfrenta la comunidad open data internacional es el acceso limitado y la falta de conocimiento de los datos publicados en las diferentes plataformas de los estados miembros de la UE.   

Open Data Support intenta resolver este problema mediante la homogeneización de los metadatos de los conjuntos de datos europeos publicados y la creación de un punto común desde donde acceder a dicha información. Para alcanzar esta meta, la iniciativa brinda tres tipos de servicios:

Servicios de Publicación. Ayuda a los portales y gobiernos a preparar, transformar y publicar los datos de tal forma que sea posible compartir los conjuntos de datos en la infraestructura común. De esta manera, será más fácil para la comunidad reutilizar la información.

Servicios de Formación. Dirigido a empleados públicos y equipos TI, se ofrece formación específica en materia de datos enlazados para que las administraciones europeas tengan la capacidad teórica y técnica para implementar la tecnología de linked data en sus iniciativas.  Las sesiones de formación se realizan de forma telemática a través de la plataforma JoinUp o de forma presencial; como la realizada el pasado mes de octubre en Madrid sobre la web semántica y el marco normativa vigente a nivel europeo en materia de reutilización.

Servicios de Asesoramiento y Consultoría TI. Con el fin de concienciar sobre el valor socioeconómico de la apertura de la información pública, Open Data Support brinda servicios de traducción, asesoramiento empresarial y legal o consultoría en tecnología de datos enlazados.

A través de su dirección de correo electrónico contact@opendatasupport.eu o su perfil en Twitter @OpenDataSupport, cualquier publicador de datos estatal, local o regional puede ponerse en contacto con Open Data Support y acceder a sus servicios. Además, también es posible visualizar los materiales formativos a través de su canal de Slideshare.  

calendar icon
Noticia

El pasado 16 de octubre, la DG CONNECT of the European Commision, dentro del marco del proyecto Open Data Support y a través de datos.gob.es  impartió una jornada de formación sobre aspectos relativos a la web semántica y el marco normativa vigente a nivel europeo en materia de reutilización

El objetivo de esta formación fue el de mejorar la visibilidad y accesibilidad de los conjuntos de datos publicados en los portales web por órganos y organismos públicos de los países miembros. De este modo se intenta aumentar y mejorar la reutilización de los datos públicos.

La formación, impartida por Makx Dekkers, miembro activo del Consejo Consultor de Expertos de ePSIPlatform, instruyó sobre los siguientes temas:

  • PSI Directive, donde se trató temas como: los conceptos de Open Data, Linked Data, Gobierno Abierto, las políticas e iniciativas relacionadas con Gobierno Abierto y el rol de la PSI Directive dentro de los datos de las administraciones.
  • Introducción a Linked Data , se explicó qué es linked data, open data, sus diferencias, cómo se deben publicar datos dentro del esquema de 5 estrellas y, por último, los aspectos económicos y sociales del linked data
  • Introducción a la gestión de metadatos, se habló sobre qué es un metadato, la terminología y objetivos de su gestión, la calidad de los metadatos, el uso de vocabularios controlados y el intercambio y agregación de metadatos.
  • Licenciamiento de datos y metadatos, se expuso la importancia del licenciamiento, el significado de “open” en Open Data, la revisión de la PSI Directive, las opciones de licenciamiento para datos y metatados.

Esta formación se dirigió tanto a los órganos y organismos públicos que tienen ya datos públicos reutilizables puestos a disposición como a aquellos que están empezando a publicarlos. A ella han acudido más de 50 representantes de 23 organismos completando el aforo disponible.

 

Descripción Tipo Descarga
Open Government Data & the PSI Directive .ppt PowerPoint
Introductionto Linked Data .ppt PowerPoint
Introtuction to metada manegement .ppt PowerPoint
Data & metadata licensing .ppt PowerPoint

 

calendar icon
Entrevista

Asunción Gómez-Pérez es ingeniera informática, máster en Ingeniería del Conocimiento, doctorado en Informática y máster en Dirección y Administración de Empresas.

Ha publicado más de 150 artículos y es autora y coautora de varios libros sobre Ingeniería Ontológica e Ingeniería del Conocimiento. Ha sido directora del comité de programa de ASWC'09, ESWC'05 y EKAW'02 y coorganizadora de numerosos talleres en ontologías.

En la actualidad, dirige el Departamento de Inteligencia Artificial y el Ontology Engineer Group (Grupo de Ingeniería Ontológica) de la Universidad Politécnica de Madrid (UPM).

Participa, también, en iniciativas de Datos enlazados (Linked Data) de instituciones como la Biblioteca Nacional de España.

--

Oscar Corcho, por su parte, es Profesor Titular de Universidad en el citado Departamento de Inteligencia Artificial y miembro, también, del Grupo de Ingeniería Ontológica.

Ha trabajado como investigador Marie Curie en la Universidad de Manchester y como gestor de investigación en la empresa iSOCO. Es licenciado en informática, Máster en Ingeniería del Software y Doctor en Ciencias de la Computación e Inteligencia Artificial por la UPM.

Sus actividades de investigación se centran en la e-Ciencia Semántica, la Web Semántica y la Ingeniería Ontológica. Entre otros numerosos proyectos de relieve,  ha participado en el International Classification for Patient Safety (ICPS), financiado por la Organización Mundial de la Salud.

Ha publicado más de 100 artículos en revistas, conferencias y workshops y es autor de varios libros, entre ellos el manual de referencia “Ontological Engineering".

 

¿Cómo definiríais el papel que desarrolla el Ontology Engineering Group respecto de la información del sector público?

Nuestro grupo de investigación ha sido pionero en España en la generación y publicación de Linked Data de calidad de varios conjuntos de datos del sector público estatal. Concretamente, somos responsables de la publicación de Linked Data de conjuntos de datos del Instituto Geográfico Nacional (a través de la Web), la Biblioteca Nacional y la Agencia Estatal de Meteorología.

En todos estos casos, hemos trabajado con miembros de estas organizaciones durante el proceso de generación de vocabularios, generación de datos en RDF y publicación de los datos como Linked Data.

También hemos participado en iniciativas trasnacionales, como la del observatorio Otalex con Portugal. En todas estas iniciativas se han utilizado vocabularios consensuados por las comunidades implicadas, tecnologías propuestas por el W3C, y un mismo enfoque metodológico.

Se destaca la inclusión de contenidos de “provenance” y licencias de uso en todas ellas.

Asimismo, somos miembros activos del grupo de trabajo del W3C sobre Linked Data gubernamental y hemos propuesto, entre otros, un documento de buenas prácticas sobre la generación de Linked Data en el sector público.

Igualmente, hemos participado en otros grupos de trabajo que de forma indirecta son de utilidad para el sector público. A modo de ejemplo, hemos participado en el Semantic Sensor Network Incubator Group que ha desarrollado una ontología de sensores que es de gran utilidad para representar datos dinámicos como pueden ser datos metereológicos, tráfico en ciudades, niveles de polución, etc. Además, ha participado en el Library Linked Data incubator group proporcionando soluciones para Bibliotecas.

Finalmente, el grupo lidera la Red temática española de Linked Data para la que uno de los objetivos primordiales es dar a conocer iniciativas de publicación de Linked Data de los sectores público y privado.

… hemos propuesto, entre otros, un documento de buenas prácticas sobre la generación de Linked data en el sector público…"

 

¿Qué valores encarna, en vuestra opinión y desde el punto de vista de la investigación, la actividad de apertura de datos?

En el contexto de la investigación, la apertura de datos nos permite en muchos casos poder llevar a cabo investigaciones o evaluaciones sobre nuestras investigaciones que no serían posibles o serían más costosas si no dispusiéramos de estos datos.

Por ejemplo, en nuestro grupo hemos utilizado datos públicos para estudiar el grado de reutilización de vocabularios en la nube, técnicas y métodos que permitan mejorar la calidad de los datos, para proponer técnicas para el acceso a datos dinámicos procedentes de redes sociales y sensores, mecanismos de consultas a datos distribuidos, desarrollar nuevos procesos en los que los especialistas de dominio participan en la apertura (como ocurrió en la transformación de los datos de la Biblioteca Nacional), etc.

… nos permite llevar a cabo investigaciones… que no serían posibles o serían más costosas si no dispusiéramos de estos datos".

 

¿Cómo surgió el interés por los datos públicos?

En primer lugar, nuestro interés surgió desde la perspectiva tecnológica y desde el punto de vista de los vocabularios que se pueden utilizar para representar y compartir mejor estos datos. Tratándose de un grupo de investigación que lleva trabajando en el área de los vocabularios (ontologías) desde el 1995, nos resulta muy interesante trabajar para conseguir que las distintas administraciones acuerden los vocabularios a utilizar para compartir sus datos. Asimismo, también podemos proporcionar los vocabularios en varios idiomas utilizando técnicas automáticas, evaluar y explotar nuestra experiencia en las tecnologías semánticas y de la Web de datos.

… nos resulta muy interesante trabajar para que las administraciones acuerden vocabularios para compartir sus datos…"

 

¿Cuáles son los actores, niveles o fases con los que identificaríais el sector?

Hay muchos tipos de actores involucrados en este sector. Desde las administraciones públicas, responsables de los datos en última instancia, hasta los usuarios finales, pasando por los agentes reutilizadores y los facilitadores tecnológicos. Nuestra experiencia nos dice que todos ellos son importantes.

Sobre las fases para generar y publicar Linked Data de calidad, hemos propuesto guías de buenas prácticas que se pueden seguir para llevar a cabo este proceso de manera sistemática (https://dvcs.w3.org/hg/gld/raw-file/default/bp/index.html).

Hemos propuesto guías de buenas prácticas para llevar a cabo este proceso de manera sistematica..."

 

¿Qué escenario ideal imaginaríais a partir de la información del sector público?

El sector público debe proveer los datos en tiempo, forma y con la calidad adecuada. Un escenario en el que los datos que se publican son ampliamente reutilizados para fines que no se habían previsto inicialmente, y que redundan de nuevo en la mejora de la calidad de los datos originales, y por tanto son útiles también para la propia administración pública.  

… datos reutilizados para fines no previstos inicialmente y que redundan en la mejora de los datos originales… y son útiles para la propia administración… "

 

¿Qué acciones inmediatas tomaríais para fomentar esta actividad?

La creación de un instituto como el Open Data Institute del Reino Unido podría ser una muy buena iniciativa a tener en cuenta para aglutinar y fomentar la sostenibilidad de este modelo de publicación de datos.

La creación de un Plan Estratégico que refleje cuál será la estrategia a seguir por la Administración en los próximos años. Dicho plan debería incluir:

  1. La creación de una metodología común para todas las administraciones públicas (nacional, autonómica y local). De la misma forma que se construyó Métrica para el desarrollo de software en la Administración, debiera crearse una metodología específica que sistematice los procesos a seguir en la apertura de datos y su exposición como datos enlazados.
  2. Acordar los modelos a utilizar por las administraciones públicas para representar: personas, organismos, estructuras organizativas, información estadística, geográfica, documental, licencias, `datos de “provenance”, etc.
  3. Analizar los vocabularios que otras iniciativas europeas están utilizando con el fin de preparar las bases para un futuro intercambio de datos entre administraciones e instituciones europeas y de otros países.
  4. Cursos de Capacitación en sus distintas modalidades de presencia para la Administración General del Estado, autonomías y ayuntamientos sobre: aspectos legales, estándares y de normativa del W3C, procesos de liberación de datos, tecnologías semánticas relacionadas con la Web de Datos, etc.
  5. Cursos de formación en apertura de datos y tecnologías semánticas dentro de los estudios de Informática.
  6. La creación de un Observatorio que monitorice el impacto de la apertura de datos en el mercado y su creación de valor, así como la calidad de las diferentes iniciativas.

 

Como profesionales pero, también, como usuarios, ¿qué responsabilidad tiene el conjunto de la sociedad en esta materia Open Data?

La sociedad tiene tanta responsabilidad como las administraciones públicas en este proceso. Los ciudadanos no son sólo los usuarios finales potenciales de esta actividad de generación y publicación de Linked Data, sino también responsables de mejorar su calidad en caso de que esto sea posible.

Los ciudadanos no son sólo los usuarios finales… sino también responsables…"

 

Si fuera una administración pública, ¿qué información entendéis que debería ser abierta?

En general, debería ser abierta toda la información que esté disponible en la administración y que no afecte a la Seguridad Nacional o a la Privacidad de las personas físicas o jurídicas.

La Administración pública debe proporcionar mecanismos para proporcionar datos en diferentes formatos estandarizados que fomenten la interoperabilidad, incluyendo en todos ellos el “provenance” del dato y las licencias de uso.

 

Y si fuera una empresa, ¿qué datos esperaríais y para qué aplicación concreta?

Estamos seguros de que cualquier fuente de datos puede ser reutilizada incluso aunque a priori la administración pública correspondiente no pensara que pudiera ser reutilizada.

En nuestra opinión, lo mejor es disponer de estos datos de manera abierta, para que las empresas puedan dedicarse a obtener el máximo valor añadido de los mismos. Incluso las propias administraciones pueden ser las primeras beneficiarias de estos datos abiertos.

 

¿Cómo veis ahora mismo el estado del Open Data en el ámbito estatal y en el conjunto de España?

A pesar de que existen iniciativas como datos.gob.es y también iniciativas puntuales autonómicas y locales bastante importantes, queda mucho camino por realizar en España para conseguir estar a la altura de los procesos de apertura de datos de otros países de nuestro entorno, como por ejemplo el Reino Unido.

Los pasos que se están dando son adecuados, aunque muy lentos e insuficientes. Se echa en falta directrices más detalladas que vayan más allá de reales decretos y normativas y una voluntad expresa de muchas instituciones de publicar datos de mayor utilidad.

Los pasos que se están dando son adecuados, aunque muy lentos e insuficientes…"

calendar icon
Evento

La Biblioteca Nacional (BNE) presenta este miércoles, 14 de diciembre, el portal datos.bne.es, que forma parte del proyecto “Datos enlazados en la BNE” impulsado por esa institución en colaboración con el Grupo de Ingeniería Ontológicade la Universidad Politécnica de Madrid.

Esta iniciativa consiste en la transformación y publicación de los catálogos bibliográfico y de autoridades de la Biblioteca Nacional en formatoRDF (Resource Description Framework o Marco de Descripción de Recursos) utilizando las ontologías de la Federación Internacional de Asociaciones de Bibliotecarios y Bibliotecas (IFLA en sus siglas inglesas). Dichos vocabularios, a su vez, se han elaborado a partir de la Descripción Bibliográfica Internacional Normalizada (ISBD) y de losRequerimientos Funcionales para Registros Bibliográficos (FRBR).

El programa “Datos enlazados en la BNE” conecta, además, los mencionados catálogos con los registros del proyecto VIAF, en el que participan una veintena de instituciones internacionales, entre ellas las bibliotecas nacionales de FranciaAlemania y del Congreso de los Estados Unidos, y al que la Biblioteca Nacional española se adhirió en el año 2009.

Asimismo, y de acuerdo con el concepto de datos enlazados introducido por Tim Berners-Lee dentro del marco de la Web Semántica, los recursos de la BNE (fundada en 1711) se vinculan con otros conjuntos de información de la “nube” de Linked Open Data, como DBPedia (el proyecto de extracción de datos de Wikipedia lanzado por las universidades germanas de Leizpig y Berlin, y por la sociedad OpenLink Software).

Esta iniciativa es, para Proyecto Aporta, un nuevo ejemplo del compromiso del sector público español en materia de apertura y reutilización de datos y reflejo de la apuesta de la comunidad tecnológica e investigadora de nuestro país a favor del acceso a la información.

El nuevo proyecto del BNE comparte el espíritu favorable a la reutilización del recientemente aprobado Real Decreto 1495/2011, de 24 de octubre, y sigue la línea marcada por la Conferencia de Bibliotecas Nacionales Europeas (CENL, en el acrónimo original).

 

Datos del encuentro

En el acto de presentación de datos.bne.es intervendrán Asunción Gómez-Pérez y Daniel Vila-Suero, catedrática y jefe de Proyecto en la UPM, respectivamente, así como Ricardo Santos y Ana Manchado, jefes de la Sección de Autoridades y del Servicio de Proyectos Bibliográficos, por este orden, de la Biblioteca Nacional.

Además, asistirá a la presentación Gordon Dunsire, presidente de IFLA Namespace Group.

calendar icon
Noticia

 

Hace unas semanas comentábamos en un  post  de  nuestro blog  la importancia del Linked Data para la reutilización. Según decíamos, el Linked Data es el futuro de la reutilización, pero… ¿Cuál es el futuro del Linked Data?

Recientemente  ha sido publicado un informe, en fase de borrador, que pretende realizar un análisis sobre el futuro del Linked Data. Escrito por Paul Miller y financiado por The Joint Information Systems Commitee (JISC), el informe, titulado “Linked Data Horizon Scan” centra su atención en el potencial que el Linked Data ofrece en un caso concreto: Las universidades del Reino Unido.

Para ello, Paul Miller realiza un análisis de conceptos de gran importancia para entender la masa  crítica del asunto tales como la web semántica, los datos enlazados o la apertura de datos.

Además, nos ofrece una serie de ejemplos en los que los datos enlazados se han realizado con éxito. Es el caso de la popular cadena de televisión BBC, el afamado periódico New York Times o la prestigiosa agencia de información inteligente para empresas y profesionales Thomson Reuters, entre otros.

Se incluye en el informe un breve estudio de la situación acutal del Linked Data en las universidades británicas, en el que se pone de manifiesto la incipiente aparición de iniciativas que comienzan a utilizar los datos enlazados. Sin embargo, según se revela en el informe, aún queda mucho camino por recorrer en este aspecto.

Para finalizar, el autor incluye una serie de recomendaciones que a su juicio se deberían seguir para lograr potenciar el desarrollo del Linked Data. Este conjunto de recomendaciones son 10 medidas, clasificadas en 3 grandes apartados: Web Identifiers (identificadores web), Data Publishing (publicaciones de datos) y Suporting Measures (medidas de apoyo).

Nos encontramos ante un interesante informe, de obligada lectura para los interesados en la reutilización, que tal y como explica el autor, se encuentra en fase de borrador por lo que las sugerencias serán bienvenidas.

calendar icon