SIRIS Academic es una empresa de consultoría e investigación que diseña e implementa estrategias y policy solutions en el ámbito de la educación superior, la investigación y la innovación. Trabajan con agentes responsables en la toma de decisiones políticas, facilitando herramientas, procesos y reflexiones que ayuden a establecer y abordar cuestiones clave para su misión.
SIRIS Academic está orientada a organizaciones con vocación pública o social. Esta perspectiva sitúa el éxito en la generación de valor añadido para la sociedad, lo que se alinea con sus valores, cultura y enfoque.
Entrevista a Fernanda Peset, profesora titular de la Universidad Politécnica de Valencia, Departamento de Comunicación Audiovisual, Documentación e Historia del Arte.
Analice la situación actual de la publicación en abierto de los resultados científicos en España. ¿En qué punto se encuentra en comparación con otros países?
En el caso de los resultados científicos han de distinguirse sin duda los dos grandes grupos que se identifican: las publicaciones y los datos. Ya se observó en el año 2012, cuando la Comisión europea ejecutó una encuesta sobre preservación digital, que en el caso de las publicaciones se había avanzado enormemente y en el caso de los datos que subyacen a la investigación se estaba comenzando.
¿Cuáles son los principales obstáculos que dificultan la apertura de los datos por parte de la comunidad científica?
En la encuesta que hemos ejecutado durante el proyecto DATASEA los investigadores indican que los motivos que les preocupan son: el mal uso o interpretación y cuestiones de tipo legal sobre la confidencialidad y los derechos de propiedad intelectual. Algunos también señalaron que perdían tiempo haciéndolos disponibles o temían que otros llevaran la delantera en investigación con sus datos. En general, se intenta exprimir las muestras todo lo posible, pero también se teme la crítica.
¿Qué medidas considera necesarias para promover e incentivar la cultura de la apertura de datos en el ámbito investigador?
Sin ninguna duda, el reconocimiento del trabajo de liberarlos es clave para que se generalice la apertura. Los parámetros de la evaluación de un científico están muy claros en las convocatorias tanto de la promoción profesional como en las propias organizaciones. Ante la presión, los investigadores optan por rentabilizar su trabajo, lo que significa dedicar el mayor tiempo posible a la publicación en revistas indexadas o en obtener patentes. Este sería el camino de los incentivos, pero también las obligaciones que se contraen al obtener una financiación o publicar en una determinada revista pueden ser decisivas para que se invierta el tiempo necesario en abrirlos. Obviamente, lo ideal es una combinación de ambas vías, que necesitarán siempre de una alfabetización en datos y apoyo de las organizaciones, lo que actualmente está comenzando en España.
"Ante la presión, los investigadores optan por rentabilizar su trabajo, lo que significa dedicar el mayor tiempo posible a la publicación en revistas indexadas o en obtener patentes."
Bajo el marco del Programa Horizon2020, en 2013 se lanzó un plan piloto para mejorar y maximizar la reutilización de los datos de investigación. ¿Cuáles son las conclusiones extraídas tres años después?
No tenemos constancia de que se hayan difundido evidencias desde la propia Comisión Europea. Puede afirmarse sin embargo que el plan piloto ha animado a los investigadores, formen parte o no de él, a pensar sus investigaciones desde esta perspectiva. Aunque no exista obligación, incluir en el apartado Impacto cómo se van a obtener, gestionar y liberar los datos siempre contribuye a una mejor evaluación de sus propuestas.
Por otra parte, tanto las oficinas de gestión de la investigación como los servicios de información están preparándose para una demanda de asesoramiento sobre ello. Por ejemplo, la traducción de los requerimientos de H2020 en la herramienta DMP (Data management plan), llamada PAGODA, por parte del consorcio Madroño ha supuesto un posicionamiento estratégico.
Por último, el borrador de la Agenda para la ciencia abierta http://ec.europa.eu/research/openscience/pdf/draft_european_open_science_agenda.pdf#view=fit&pagemode=none contempla expresamente redactar una política sobre el acceso a los datos, para lo que en estos momentos se está constituyendo un panel de expertos.
¿En qué consiste el OAI, Open Archive Initiative, y cuáles son los rasgos principales de su protocolo OAI-PMH?
En el nivel filosófico, supone el primer gran paso para romper con las formas tradicionales de acceder a la ciencia. El aumento de los precios de las revistas durante los 80 estaba agravando la brecha de países y organizaciones de primer y segundo orden. A partir de entonces, las vías verde y dorada del acceso abierto -repositorios y revistas, respectivamente- conforman lo que en estos momentos estamos viviendo. Los mandatos derivados del movimiento Open Access han sido decisivos para la apertura de la información científica. Sin embargo, desde mi perspectiva el modelo se ha desvirtuado, tal y como demuestra el elevado coste destinado a pagar la vía dorada. La financiación de la investigación se está destinando en parte a la publicación, y por tanto, en ocasiones, a mantener la industria editorial. Pero no es posible adoptar posturas extremas, sin industria tampoco contaríamos con los servicios a los que actualmente tenemos acceso…
En cuanto a los rasgos principales del protocolo creo que ha sido su concepción y la facilidad de implementación los factores que han determinado su éxito. Dividir el suministro de información en proveedores de datos y proveedores de servicios que pueden cosechar los metadatos de los primeros revolucionó el panorama y ahorró costes a escala mundial.
"Los mandatos derivados del movimiento Open Access han sido decisivos para la apertura de la información científica."
¿Qué cree que haría falta para que la comunidad científica e investigadora valorase más el papel de los datos abiertos y su reutilización?
Después de haber vivido en primera persona el movimiento del acceso abierto desde sus inicios, creo que algunas cuestiones se van a repetir. De hecho algunas declaraciones sobre el acceso abierto ya incluían los datos. Y de aquella experiencia cabe destacar la necesidad del apostolado desde los diversos agentes involucrados: el propio sector científico, desde las autoridades académicas y políticos y desde los servicios de soporte. El apoyo es fundamental para que se culmine con éxito el camino y en ello la formación, es decir la alfabetización en datos, va a ser cada vez más necesaria.
La Comisión Sectorial de Tecnologías de la Información y las Comunicaciones de la Conferencia de Rectores de Universidades Españolas (CRUE-TIC) publicó el pasado mes de junio una guía cuyo objetivo es impulsar y ayudar a las universidades nacionales a poner en marcha iniciativas de datos abiertos propias; contribuyendo en la construcción de una universidad abierta del siglo XXI.
A través de dicho documento, se establecen las bases sobre las cuales las universidades en España pueden abrir sus datos de forma coherente, desarrollando políticas de acceso abierto al conocimiento, tanto docente como investigador.
El documento brinda una introducción general a la cultura de datos abiertos, haciendo un recorrido por los diferentes conceptos y sus fundamentos e incluyendo ejemplos de iniciativas de apertura. A su vez, promueve la adopción institucional de políticas que fijen la orientación y alcance de las iniciativas proponiendo una serie de formulaciones básicas de estas políticas y asumiendo el decálogo de buenas prácticas en apertura de los datos creado en el Día Open Data en Euskadi, celebrado en el año 2012:
1.Publicación de datos en formatos abiertos y estándares.
2. Esquemas y vocabularios consensuados y metadatos abiertos.
3. Inventario en un catálogo de datos estructurado.
4. Datos accesibles desde direcciones web persistentes y amigables.
5. Mínimo de datasets relativos al nivel de competencias del organismo y su estrategia de exposición de datos
6. Compromiso de servicio, actualización y calidad del dato.
7. Monitorización y evaluación del uso y servicio mediante métricas.
8. Datos bajo condiciones de uso no restrictivas y comunes.
9. Evangelización y enseñanza en el uso de datos.
10. Recopilación de aplicaciones, herramientas y manuales para motivar y facilitar la reutilización.
Para ayudar a las universidades a determinar qué datos abrir, se ha realizado una revisión los portales de datos abiertos de universidades a escala internacional y fruto de este trabajo el documento incluye un listado con las categorías de datos más habituales publicados por las instituciones académicas. Además, el grupo CRUE-TIC está trabajando actualmente en un censo inicial consensuado de datasets (acceso, matrícula, calificaciones y graduación de estudiantes, docencia impartida, investigación realizada, recursos humanos, economía, y recursos materiales) que aumente el valor de la información al facilitar su combinación y comparación, permita enlazar los datos y posibilite el desarrollo nuevos productos y servicios.
Esta guía ofrece también una serie de recomendaciones técnicas para orientar y facilitar el análisis técnico a los departamentos de TI de las universidades que emprendan el camino hacia la publicación de sus datos en abierto.
Dichas pautas establecen tres niveles de complejidad en el desarrollo de un portal open data teniendo en cuenta el volumen de datos publicados y la periodicidad de actualización:
- Nivel 1: Hasta 100 datasets y hasta 10 datasets que requieren actualización semanal.
- Nivel 2: Hasta 1.000 datasets, hasta 100 datasets que requieren actualización semanal.
- Nivel 3: Superior a 1.000 datasets o más de 100 conjuntos que requieran actualización semanal.
En base a ello, el documento analiza las soluciones tecnológicas y describe unas infraestructuras orientativas incluyendo la estructura de los metadatos; los formatos (estructurado, semántico, enriquecido); el almacenamiento de la información; frameworks; la integración con los sistemas de información existentes y los lenguajes de consulta.
Por último, se describen las iniciativas de datos abiertos puestas en marcha o en desarrollo en 6 universidades españolas: Universidad Pablo de Olavide, Universitat Pompeu Fabra, Universidad de Alicante, Universitat Jaume I, Universidad de León y Universidad de Granada.
Con este tipo de trabajos, el grupo CRUE-TIC pretende fomentar el trabajo coordinado, evitar replicar los esfuerzos de análisis y diseño de soluciones y favorecer la colaboración entre universidades.
Desde que dos de sus departamentos de Ciencias de la Informática abrieran la información sobre sus infraestructuras en el año 2006, la Universidad de Southampton (Reino Unido) se ha convertido en un referente mundial en materia de apertura de la información académica.
En la actualidad, el portal de datos abiertos de la entidad británica cuenta con más de cincuenta datasets, actualizados semanalmente a través de scripts automáticos gestionados por el software Hedgehog. La mayoría de los conjuntos están disponibles en formato RDF/XML y, cuando es posible, se brindan los datos en crudo a través de documentos csv o Excel.
La Universidad de Southampton no solo apuesta por la apertura de la información, sino por convertir el open data en linked data. En primer lugar, los datos se publican en formato RDF y se vinculan a otros sites de la web semántica, facilitando la fusión de información de diferentes fuentes. A su vez, además de implementar un punto de acceso SPARQL, la institución utiliza Graphite, una librería en PHP que simplifica el control de los datos enlazados y permite a los desarrolladores consultar los RDF sin la necesidad de escribir una sola línea en SPARQL.
Actualmente, están disponibles en el portal casi una veintena de aplicaciones que transforman los datos abiertos de la Universidad de Southampton en información de valor para sus estudiantes. Cabe destacar el mapa virtual del campus universitario donde se visualizan todos los servicios de la entidad como los puntos Wi-Fi del recinto o las instalaciones deportivas.
El pasado año, el Open Data Institute nombró a la Universidad de Southampton “Socio Fundador Honorario”, como reconocimiento a su labor a favor de la apertura de la información y su papel crucial en la conceptualización, diseño y puesta en marcha de la entidad. Este acuerdo reforzará el trabajo que realizan conjuntamente las dos instituciones en materia de formación, educación e investigación de servicios open data a escala internacional.
El Consorcio W3C define los datos enlazados (linked data) como la forma de vincular los distintos datos distribuidos en Internet del mismo modo que se interconectan los enlaces de las páginas web. De esta manera, se permite a los usuarios y máquinas acceder, explorar, consultar y reutilizar dichos datos desde diferentes fuentes.
Actualmente, solo unas pocas universidades en Europa publican sus datos en formato linked data, usando tecnologías RDF y SPARQL y dando acceso directo a la información relativa a cursos, material educativo, investigación o publicaciones. Sumado a este primer obstáculo, además estas iniciativas no están conectadas entre ellas. Bajo este marco nace Linked Universities; un acuerdo entre diferentes universidades europeas que fomenta la publicación y reutilización de su conocimiento a partir de los datos enlazados.
Conscientes del potencial que ofrece el linked data para el sector académico y de investigación, los miembros de dicha alianza –formada por 11 entidades entre las que se encuentra la Universitat Pompeu Fabra- trabajan para desarrollar una plataforma de datos universitarios vinculados; un espacio colaborativo donde instituciones y ciudadanos puedan acceder, compartir y reutilizar la información. Entre los objetivos principales del proyecto se encuentran:
- Identificar, desarrollar y estandarizar vocabularios comunes de linked data para enlazar cursos, calificaciones, material educativo…
- Describir fórmulas de reutilización y compartir herramientas para la publicación de la información en formato de datos enlazados.
- Impulsar iniciativas que fomenten el uso de datos enlazados en la universidad.
Gracias a iniciativas como Linked Universities que promueven compartir, distribuir y reutilizar el conocimiento es posible mejorar los procesos de aprendizaje e investigación de las propias universidades mientras se generan nuevos servicios, productos y aplicaciones de los datos.
Mari Luz Congosto es licenciada en Informática por la Universidad Politécnica de Madrid y Máster en Telemática por la Universidad Carlos III.
Ha trabajado en entornos de investigación en Telefónica I+D, ELIOP y Fujitsu y participado en la creación plataformas sociales dedicadas a la divulgación científica.
Actualmente es investigadora del Departamento de Telemática de la Universidad Carlos III. Está especializada en minería y visualización de datos.
¿Qué es, en su opinión, el periodismo de datos y la visualización de datos y en qué se diferencia de otros modelos de información?
El periodismo de datos se diferencia fundamentalmente en las fuentes. En el periodismo tradicional las fuentes suelen ser personas; en el de investigación, documentos que no se pueden procesar automáticamente. En el periodismo de datos las fuentes son datos que pueden ser procesados automáticamente hasta obtener información. La automatización permite escalar el volumen de datos hasta niveles inimaginables.
La visualización es hija del periodismo infográfico del que hereda el lenguaje visual y la capacidad de síntesis para transmitir información. A diferencia de la infografía, la visualización se desarrolla en un medio digital, lo que le permite ser dinámica, interactiva y multimedia.
El periodismo de datos y la visualización pertenecen al mundo digital, se complementan y se realimentan. La visualización permite sintetizar los datos de forma visual y facilita descubrir nuevos patrones que mejoren el proceso de los datos.
El periodismo de datos y la visualización pertenecen al mundo digital, se complementan y se realimentan…"
¿Qué papel entiende que guardan los profesionales de este ámbito respecto de la información del sector público?
El sector público es depositario de una gran cantidad y variedad de datos de interés común. La explotación de estos datos por el sector público está enfocada al área administrativa pero puede tener muchísimas más aplicaciones y en ese punto el periodismo de datos puede generar información de valor.
¿Cómo surgió su interés por esta actividad?
Para mi Tesis empecé a trabajar con datos de la Red, primero en blogs y después en Twitter y utilicé la visualización como una herramienta de análisis que me ayudaba a mejorar el proceso de datos y a comprender mejor la información que estaba manejando.
¿Qué conocimientos, habilidades o herramientas precisa el tratamiento periodístico de los datos del sector público?
Hay tres conocimientos básicos: periodismo para saber comunicar información; programación para poder procesar datos automáticamente; y diseño para ser capaces de sintetizarlos de una forma visual.
Es muy difícil que una sola persona posea estos tres conocimientos aunque puede ser fuerte en uno de ellos y tener nociones de los otros dos. Lo más práctico es que haya equipos multidisciplinares que hablen un lenguaje común, como ocurre en The New York Times, que son líderes en periodismo de datos.
Lo más práctico es que haya equipos multidisciplinares que hablen un lenguaje común..."
¿Qué perfiles profesionales serían, a su juicio, los mejor situados para trabajar en el Periodismo o en la visualización de datos?
Hay tres perfiles profesionales: los periodistas, los informáticos y los diseñadores. Ellos son fuertes en uno de los conocimientos básicos; sólo tienen que complementar los dos restantes.
En su opinión, ¿cuál sería un buen ejemplo de lo que es este modelo de periodismo y de trabajo en el área del Open Data?
En España, el periódico La Información tiene un buen equipo de periodismo de datos y ha hecho trabajos muy interesantes, como los Presupuestos Generales del Estado, a través de los años; la evolución del paro; el patrimonio de los diputados; comparativas de IRPF por comunidades, etc. También existen iniciativas particulares como la Fundación CIVIO con Dónde van mis impuestos y España en llamas -con 10 años de incendios forestales-.
Todos estos ejemplos aportan información de valor basada en datos públicos y son de interés general.
En España, el periódico La Información tiene un buen equipo de periodismo de datos…"
¿Qué haría falta para que el conjunto de la sociedad, incluidos los gobiernos, valorasen todavía más el papel de los datos públicos?
Los ciudadanos deben tomar conciencia de que los datos públicos han sido generados con el dinero de los impuestos y, por tanto, son un bien común. Los gobiernos necesitan transmitir confianza a los ciudadanos y una manera de hacerlo es mediante una gestión transparente que incluya los datos abiertos.
Por otro lado, los datos públicos pueden ser una fuente de riqueza generadora de nuevos servicios para los ciudadanos.
Los gobiernos necesitan transmitir confianza a los ciudadanos…"
Si fuera una administración local, regional o nacional, ¿qué información consideraría más interesante para su apertura?
Debería ser obligatorio que todas las administraciones proporcionasen de una manera accesible las partidas presupuestarias desglosadas al máximo detalle y la ejecución del presupuesto indicando qué cantidades se han adjudicado en las distintas formas de licitación.
Además de los datos económicos, deberían irse incorporando datos como los de tráfico, transporte público, medio ambiente, sanidad, seguridad oferta cultural, etc., que pueden generar nuevas servicios de información que ayuden a la toma de decisiones.
datos como los de tráfico, transporte público, medio ambiente, sanidad, seguridad... pueden generar nuevos servicios de información que ayuden a la toma de decisiones…"
¿Por qué habría un lector de interesarse por este tipo de noticias basadas en los datos que custodian las administraciones?
Porque los lectores pueden acceder de una manera más relacionada, comprensible y sintetizada a una enorme cantidad de datos que ahora está oculta, dispersa o publicada en medios tan poco atractivos como los boletines oficiales.
¿Cómo ves ahora mismo el estado del Open Data en el ámbito estatal y en el conjunto de España?
En el ámbito estatal me parece una buena iniciativa datos.gob.es por su labor de catalogación de datos y de difusión de información relacionada con el Open Data. La mayoría de las administraciones autonómicas ha abierto su portal de Open Data siguiendo el camino de autonomías pioneras. La Administración Local está aún por desplegar.
De todas estas iniciativas echo en falta un criterio común en la forma de llevar a cabo la apertura de datos tanto en la prioridad de los temas como en los formatos de datos y en los métodos de acceso.
Un handicap para los portales de Open Data es la velocidad con que se desarrolla la tecnología y la rapidez con que unos formatos de datos pasan a ser obsoletos mientras que otros adquieren mucho auge. Por otro lado, la forma de acceder vía fichero puede ser insuficiente para cierto tipo de tratamientos de datos que requieran de información muy específica en tiempo real y en este punto los portales de Open Data deberían ir incorporando una alternativa de acceso a los datos vía APIs (application programming interface), como ya han empezado a realizar algunos portales.
No dudo de que la apertura de datos irá a más y a mejor, porque es algo beneficioso para todos.
Los portales de Open Data deberían ir incorporando una alternativa de acceso a los datos vía API's…"
Asunción Gómez-Pérez es ingeniera informática, máster en Ingeniería del Conocimiento, doctorado en Informática y máster en Dirección y Administración de Empresas.
Ha publicado más de 150 artículos y es autora y coautora de varios libros sobre Ingeniería Ontológica e Ingeniería del Conocimiento. Ha sido directora del comité de programa de ASWC'09, ESWC'05 y EKAW'02 y coorganizadora de numerosos talleres en ontologías.
En la actualidad, dirige el Departamento de Inteligencia Artificial y el Ontology Engineer Group (Grupo de Ingeniería Ontológica) de la Universidad Politécnica de Madrid (UPM).
Participa, también, en iniciativas de Datos enlazados (Linked Data) de instituciones como la Biblioteca Nacional de España.
--
Oscar Corcho, por su parte, es Profesor Titular de Universidad en el citado Departamento de Inteligencia Artificial y miembro, también, del Grupo de Ingeniería Ontológica.
Ha trabajado como investigador Marie Curie en la Universidad de Manchester y como gestor de investigación en la empresa iSOCO. Es licenciado en informática, Máster en Ingeniería del Software y Doctor en Ciencias de la Computación e Inteligencia Artificial por la UPM.
Sus actividades de investigación se centran en la e-Ciencia Semántica, la Web Semántica y la Ingeniería Ontológica. Entre otros numerosos proyectos de relieve, ha participado en el International Classification for Patient Safety (ICPS), financiado por la Organización Mundial de la Salud.
Ha publicado más de 100 artículos en revistas, conferencias y workshops y es autor de varios libros, entre ellos el manual de referencia “Ontological Engineering".
¿Cómo definiríais el papel que desarrolla el Ontology Engineering Group respecto de la información del sector público?
Nuestro grupo de investigación ha sido pionero en España en la generación y publicación de Linked Data de calidad de varios conjuntos de datos del sector público estatal. Concretamente, somos responsables de la publicación de Linked Data de conjuntos de datos del Instituto Geográfico Nacional (a través de la Web), la Biblioteca Nacional y la Agencia Estatal de Meteorología.
En todos estos casos, hemos trabajado con miembros de estas organizaciones durante el proceso de generación de vocabularios, generación de datos en RDF y publicación de los datos como Linked Data.
También hemos participado en iniciativas trasnacionales, como la del observatorio Otalex con Portugal. En todas estas iniciativas se han utilizado vocabularios consensuados por las comunidades implicadas, tecnologías propuestas por el W3C, y un mismo enfoque metodológico.
Se destaca la inclusión de contenidos de “provenance” y licencias de uso en todas ellas.
Asimismo, somos miembros activos del grupo de trabajo del W3C sobre Linked Data gubernamental y hemos propuesto, entre otros, un documento de buenas prácticas sobre la generación de Linked Data en el sector público.
Igualmente, hemos participado en otros grupos de trabajo que de forma indirecta son de utilidad para el sector público. A modo de ejemplo, hemos participado en el Semantic Sensor Network Incubator Group que ha desarrollado una ontología de sensores que es de gran utilidad para representar datos dinámicos como pueden ser datos metereológicos, tráfico en ciudades, niveles de polución, etc. Además, ha participado en el Library Linked Data incubator group proporcionando soluciones para Bibliotecas.
Finalmente, el grupo lidera la Red temática española de Linked Data para la que uno de los objetivos primordiales es dar a conocer iniciativas de publicación de Linked Data de los sectores público y privado.
… hemos propuesto, entre otros, un documento de buenas prácticas sobre la generación de Linked data en el sector público…"
¿Qué valores encarna, en vuestra opinión y desde el punto de vista de la investigación, la actividad de apertura de datos?
En el contexto de la investigación, la apertura de datos nos permite en muchos casos poder llevar a cabo investigaciones o evaluaciones sobre nuestras investigaciones que no serían posibles o serían más costosas si no dispusiéramos de estos datos.
Por ejemplo, en nuestro grupo hemos utilizado datos públicos para estudiar el grado de reutilización de vocabularios en la nube, técnicas y métodos que permitan mejorar la calidad de los datos, para proponer técnicas para el acceso a datos dinámicos procedentes de redes sociales y sensores, mecanismos de consultas a datos distribuidos, desarrollar nuevos procesos en los que los especialistas de dominio participan en la apertura (como ocurrió en la transformación de los datos de la Biblioteca Nacional), etc.
… nos permite llevar a cabo investigaciones… que no serían posibles o serían más costosas si no dispusiéramos de estos datos".
¿Cómo surgió el interés por los datos públicos?
En primer lugar, nuestro interés surgió desde la perspectiva tecnológica y desde el punto de vista de los vocabularios que se pueden utilizar para representar y compartir mejor estos datos. Tratándose de un grupo de investigación que lleva trabajando en el área de los vocabularios (ontologías) desde el 1995, nos resulta muy interesante trabajar para conseguir que las distintas administraciones acuerden los vocabularios a utilizar para compartir sus datos. Asimismo, también podemos proporcionar los vocabularios en varios idiomas utilizando técnicas automáticas, evaluar y explotar nuestra experiencia en las tecnologías semánticas y de la Web de datos.
… nos resulta muy interesante trabajar para que las administraciones acuerden vocabularios para compartir sus datos…"
¿Cuáles son los actores, niveles o fases con los que identificaríais el sector?
Hay muchos tipos de actores involucrados en este sector. Desde las administraciones públicas, responsables de los datos en última instancia, hasta los usuarios finales, pasando por los agentes reutilizadores y los facilitadores tecnológicos. Nuestra experiencia nos dice que todos ellos son importantes.
Sobre las fases para generar y publicar Linked Data de calidad, hemos propuesto guías de buenas prácticas que se pueden seguir para llevar a cabo este proceso de manera sistemática (https://dvcs.w3.org/hg/gld/raw-file/default/bp/index.html).
Hemos propuesto guías de buenas prácticas para llevar a cabo este proceso de manera sistematica..."
¿Qué escenario ideal imaginaríais a partir de la información del sector público?
El sector público debe proveer los datos en tiempo, forma y con la calidad adecuada. Un escenario en el que los datos que se publican son ampliamente reutilizados para fines que no se habían previsto inicialmente, y que redundan de nuevo en la mejora de la calidad de los datos originales, y por tanto son útiles también para la propia administración pública.
… datos reutilizados para fines no previstos inicialmente y que redundan en la mejora de los datos originales… y son útiles para la propia administración… "
¿Qué acciones inmediatas tomaríais para fomentar esta actividad?
La creación de un instituto como el Open Data Institute del Reino Unido podría ser una muy buena iniciativa a tener en cuenta para aglutinar y fomentar la sostenibilidad de este modelo de publicación de datos.
La creación de un Plan Estratégico que refleje cuál será la estrategia a seguir por la Administración en los próximos años. Dicho plan debería incluir:
- La creación de una metodología común para todas las administraciones públicas (nacional, autonómica y local). De la misma forma que se construyó Métrica para el desarrollo de software en la Administración, debiera crearse una metodología específica que sistematice los procesos a seguir en la apertura de datos y su exposición como datos enlazados.
- Acordar los modelos a utilizar por las administraciones públicas para representar: personas, organismos, estructuras organizativas, información estadística, geográfica, documental, licencias, `datos de “provenance”, etc.
- Analizar los vocabularios que otras iniciativas europeas están utilizando con el fin de preparar las bases para un futuro intercambio de datos entre administraciones e instituciones europeas y de otros países.
- Cursos de Capacitación en sus distintas modalidades de presencia para la Administración General del Estado, autonomías y ayuntamientos sobre: aspectos legales, estándares y de normativa del W3C, procesos de liberación de datos, tecnologías semánticas relacionadas con la Web de Datos, etc.
- Cursos de formación en apertura de datos y tecnologías semánticas dentro de los estudios de Informática.
- La creación de un Observatorio que monitorice el impacto de la apertura de datos en el mercado y su creación de valor, así como la calidad de las diferentes iniciativas.
Como profesionales pero, también, como usuarios, ¿qué responsabilidad tiene el conjunto de la sociedad en esta materia Open Data?
La sociedad tiene tanta responsabilidad como las administraciones públicas en este proceso. Los ciudadanos no son sólo los usuarios finales potenciales de esta actividad de generación y publicación de Linked Data, sino también responsables de mejorar su calidad en caso de que esto sea posible.
Los ciudadanos no son sólo los usuarios finales… sino también responsables…"
Si fuera una administración pública, ¿qué información entendéis que debería ser abierta?
En general, debería ser abierta toda la información que esté disponible en la administración y que no afecte a la Seguridad Nacional o a la Privacidad de las personas físicas o jurídicas.
La Administración pública debe proporcionar mecanismos para proporcionar datos en diferentes formatos estandarizados que fomenten la interoperabilidad, incluyendo en todos ellos el “provenance” del dato y las licencias de uso.
Y si fuera una empresa, ¿qué datos esperaríais y para qué aplicación concreta?
Estamos seguros de que cualquier fuente de datos puede ser reutilizada incluso aunque a priori la administración pública correspondiente no pensara que pudiera ser reutilizada.
En nuestra opinión, lo mejor es disponer de estos datos de manera abierta, para que las empresas puedan dedicarse a obtener el máximo valor añadido de los mismos. Incluso las propias administraciones pueden ser las primeras beneficiarias de estos datos abiertos.
¿Cómo veis ahora mismo el estado del Open Data en el ámbito estatal y en el conjunto de España?
A pesar de que existen iniciativas como datos.gob.es y también iniciativas puntuales autonómicas y locales bastante importantes, queda mucho camino por realizar en España para conseguir estar a la altura de los procesos de apertura de datos de otros países de nuestro entorno, como por ejemplo el Reino Unido.
Los pasos que se están dando son adecuados, aunque muy lentos e insuficientes. Se echa en falta directrices más detalladas que vayan más allá de reales decretos y normativas y una voluntad expresa de muchas instituciones de publicar datos de mayor utilidad.
Los pasos que se están dando son adecuados, aunque muy lentos e insuficientes…"
La Universidad de Jaén celebra este miércoles, 12 de diciembre, una conferencia sobre “La reutilización de la documentación histórica fotográfica y cinematográfica del Ministerio de Agricultura para el conocimiento de la sociedad rural española”.
El acto, organizado en colaboración con el Ministerio de Agricultura, Alimentación y Medio Ambiente, se celebrará a partir de las 19:00 horas en la Sala de Grados-Edificio Zabaleta D1 (Campus "Las Lagunillas") de esa institución académica. La ponencia correrá a cargo de Juan Manuel García Bartolomé, jefe de Área de la División de Estudios y Publicaciones del mencionado departamento público.
Esta actividad se complementa con la presentación oficial de la exposición “Senderos de la Memoria. Una mirada a la España rural: 1948-1968”, que hasta el próximo 18 de diciembre exhibe una parte selecta del valioso fondo documental fotográfico y cinematográfico histórico del Ministerio de Agricultura.
Alberto Cairo enseña infografía y visualización de datos en la Universidad de Miami.
Es autor de The Functional Art: An Introduction to Information Graphics and Visualization (2012).
¿Qué es, en su opinión, el Periodismo de datos y en qué se diferencia de otros modelos de información?
Lo que se conoce hoy como Periodismo "de datos" es un agregado de varias tradiciones clásicas del periodismo: el data-driven journalism, el database journalism, el periodismo de precisión y la visualización de información. En resumen, el Periodismo de datos consiste en el uso sistemático de métodos de investigación (principalmente cuantitativa, pero no sólo) para generar datos, analizarlos, filtrarlos, organizarlos, extraer sentido de ellos y presentarlos por medio de historias periodísticas, gráficos, mapas, etc. Con ese fin, toma prestadas herramientas y técnicas de las ciencias sociales, el periodismo y el diseño gráfico y de interacción.
... generar datos, analizarlos, filrarlos, organizarlos, extraer sentido de ellos y presentarlos por medio de historias periodísticas..."
¿Qué papel entiende que guardan los profesionales de este ámbito respecto de la información del sector público?
El periodista es un mediador entre fuentes y público, un facilitador de la comunicación entre individuos y entidades. El sector público puede (y debe), ciertamente, poner datos a disposición del público, y es seguro que muchos ciudadanos accederán a dichos datos en su forma bruta. Pero el papel del profesional especializado en leer esos datos y darles una forma digerible por los ciudadanos sin tiempo (o sin conocimientos) para hacerlo por su cuenta es imprescindible.
... leer esos datos y darles una forma digerible para los ciudadanos sin tiempo (o conocimientos)... es imprescindible."
¿Cómo surgió su interés por esta actividad?
Soy periodista de formación e infografista por vocación. Siempre me ha inquietado la desconfianza que muchos colegas muestran por las matemáticas, la estadística y el método científico. Esa desconfianza conduce a una profunda ignorancia y a un mal servicio a los ciudadanos. En un mundo en el que la cantidad de información se duplica cada poco tiempo, el periodista debe aprender a manejar las mejores herramientas para domarla.
¿Qué conocimientos, habilidades o herramientas precisa el tratamiento periodístico de los datos del sector público?
Conceptuales (estadística, métodos de investigación) y tecnológicos (herramientas de software: OpenOffice, Excel, R, Tableau...). De todas formas, no hay que mitificar la tecnología. Se pueden conseguir buenos resultados utilizando herramientas rudimentarias, siempre que se dominen los fundamentos.
¿Qué perfiles profesionales serían, a su juicio, los mejor situados para trabajar en el Periodismo de datos?
Profesionales de las ciencias de la computación con interés en comunicación, periodistas con conocimientos de métodos de investigación cuantitativa y diseñadores e infografistas de perfil técnico, no tan artístico como es tradicional en la profesión.
... interés en comunicacion... investigación cuantitativa... diseñadores e infografistas de perfil técnico..."
En su opinión, ¿cuál sería un buen ejemplo de lo que es este modelo de periodismo?
The Guardian (con ciertas reservas), NPR, ProPublica y The New York Times, pero hay muchos otros. En América Latina, por ejemplo, tenemos a La Nación (Costa Rica), que tiene un equipo de periodismo de investigación muy fuerte, La Nación (Argentina), que está explorando el periodismo de datos, Estado de São Paulo, que acaba de abrir un pequeño grupo formado por periodistas, programadores y diseñadores, etc.
¿Qué haría falta para que el conjunto de la sociedad, incluidos los gobiernos, valorasen todavía más el papel de los datos públicos?
La existencia de más historias y herramientas que ayudasen a los ciudadanos a descubrir realidades que a veces permanecen ocultas. Un buen ejemplo es España en llamas, que no ha recibido toda la publicidad que se merece: http://www.espanaenllamas.es/ o el Manifestómetro, una iniciativa ignorada por todos los medios de comunicación porque va en contra de sus intereses ideológicos: http://manifestometro.blogspot.com/
... Un buen ejemplo es España en llamas, que no ha recibido toda la publicidad que se merece."
Si fuera una administración local, regional o nacional, ¿qué información consideraría más interesante para su apertura?
En general, cualquiera relacionada con el control social de los representantes políticos: gastos, actividades, agenda, etc.
¿Por qué habría un lector de interesarse por este tipo de noticias basadas en los datos que gestionan las administraciones?
Porque le ayuda a controlar mejor a quien le representa y le ayuda a confirmar (o desmentir) intuiciones. Le doy un ejemplo: hace más de un año, cuando todavía trabajaba en Brasil, para la revista semanal Época, hicimos un gráfico que mostraba cuánto cada diputado gasta en llamadas telefónicas por mes. Esos datos están disponibles en la Web del Congreso, pero no en un formato que sea legible por los ciudadanos, lo que es un problema común en muchos países. Nosotros tomamos ese banco de datos, lo analizamos y creamos el siguiente interactivo:
http://revistaepoca.globo.com/diagrama/noticia/2011/10/diagrama-298-anos-de-falacao.html
El éxito fue enorme.
... ayuda a controlar mejor a quien le representa y le ayuda a confirmar (o desmentir) intuiciiones..."
El grupo Opendata Sevilla y la Universidad Pablo de Olavide organizan los próximos días 23 y 24 de noviembre de 2012 sus II Jornadas sobre Gobierno Abierto y Open Data.
Acudirán a la cita, que se celebrará en la sede de la mencionada institución académica, algunos de los principales especialistas en apertura y reutilización de la información del sector público nacional, así como representantes de varias de las iniciativas públicas punteras en la materia dentro de nuestro país (entre ellas, Open Data Euskadi, Open Data Navarra o la propia datos.gob.es).
Además, participarán en las diferentes sesiones reconocidos expertos en áreas cada véz más pujantes como el periodismo de datos, la visualización de información o el desarrollo de aplicaciones basadas en datos libres (ver ponentes).
Las jornadas incluyen desde conferencias y mesas redondas sobre Gobierno Abierto, Transparencia, Acceso a la Información y experiencias Open Data, hasta talleres prácticos sobre herramientas de gestión de datos.
Las sesiones se completan con un hackaton (concurso colaborativo de programadores) destinado a la creación de aplicaciones informáticas a partir de los datos que publicará la propia Universidad a lo largo del encuentro y de los contenidos en el proyecto adoptaunaplaya.es (ver programa).
Sobre los organizadores
Opendata Sevilla es un grupo de trabajo surgido a raíz del I Encuentro Opendata Sevilla con el objetivo de difundir el potencial social y económico de la apertura y reutilización de los datos públicos.
La Universidad Pablo de Olavide se considera, en palabras de los organizadores, "la primera universidad pública española en proclamar el Gobierno Abierto como aspiración de modelo de gestión y acción, apostando por el Open Data".