Tras meses de trabajo, el III Desafío Aporta llega a su fin. Bajo el lema “el valor del dato en la educación digital”, este año se buscaban soluciones que utilizasen datos abiertos para impulsar mejoras en el sector educativo.
La competición, organizada por la Iniciativa Aporta, lanzada por Red.es junto con la Secretaría de Estado de Digitalización e Inteligencia Artificial, comenzó en octubre de 2020, con una primera fase que consistía en un concurso de ideas. Tras la valoración del jurado, se eligieron 10 finalistas que han contado con tres meses para transformar sus ideas en un prototipo. Estos prototipos fueron presentados el pasado 22 de junio en una sesión online.
10 propuestas que destacan por su calidad
Los 10 trabajos presentados son una gran muestra del poder de los datos abiertos para transformar el sector educativo, mejorando su eficacia y eficiencia. La necesidad de un acceso universal al conocimiento a través de una educación inclusiva y de calidad ha quedado aún más patente en el contexto actual de pandemia que vivimos. Los datos abiertos pueden ayudar a superar este reto. Pueden ser analizados y utilizados para dar forma a soluciones que ayuden a mejorar la experiencia del alumnado en el proceso de aprendizaje, por ejemplo, a través de la personalización de la educación, la identificación de problemas de comportamiento o la toma de decisiones informada, entre otros aspectos.
Todos los trabajos presentados mostraban una gran calidad, reflejo del esfuerzo demostrado por todos los equipos finalistas. El jurado, integrado por expertos representantes de empresas, administraciones públicas y organismos ligados a la economía digital y el mundo académico, lo ha tenido complicado a la hora de elegir a los tres ganadores. Finalmente, los tres ganadores son UniversiDATA-Lab, Proyecto MIP y EducaWood, que se llevan un premio de 4.000€, 3.000€ y 2.000€ respectivamente.

Primer premio: UniversiDATA-Lab
-
Equipo: Universidad Rey Juan Carlos, Universidad Complutense de Madrid, Universidad Autónoma de Madrid, Universidad Carlos III de Madrid y DIMETRICAL The Analytics Lab S.L.
El primer premio ha sido para UniversiDATA-Lab, un portal público para el análisis avanzado y automático de los datasets publicados por las universidades. Se trata de un proyecto complementario a UniversiDATA: mientras que el objetivo de UniversiDATA es facilitar el acceso a conjuntos de datos universitarios de alta calidad y con formatos y criterios estándar, el objetivo de UniversiDATA-Lab es poner en valor esos datasets, llevando a cabo análisis avanzados y automáticos de los mismos, aprovechando la homogeneidad del contenido.
UniversiDATA-Lab ofrece un catálogo de aplicaciones creadas gracias a la aplicación de técnicas avanzadas de análisis y visualización, llevadas a cabo en lenguaje R. En la sesión online mostraron el análisis de desplazamientos interurbanos, el análisis del CO2 que generan los desplazamientos de los alumnos y el análisis de las diferencias de género en las distintas ramas universitarias.
Estos análisis pueden ser fundamentales a la hora de ayudar a las universidades a tomar decisiones relacionadas con la administración y la gestión, con grandes beneficios en el medio ambiente, la economía y la sociedad.
Capturas de UniversiDATA-Lab


Segundo premio: Proyecto MIP
- Equipo: Aday Melián Carrillo, Daydream Software.
Proyecto MIP, el ganador del segundo premio, es un servicio online donde cualquier usuario puede registrarse y empezar a crear MIPs (Marked Information Picture). Un MIP es un soporte de información que consiste en una serie de capas interactivas sobre imágenes estáticas que facilitan la retención de información y la identificación de elementos.
El prototipo incluye un conversor en Python de datos abiertos GeoJSON al formato necesario para desarrollar atlas interactivos. A su vez, también ofrece una nube pública de MIPs accesibles libremente para consultas, estudios o aprendizaje independiente.
Gracias a esta herramienta los profesores pueden crear MIPs de forma rápida y sencilla, dibujando manualmente regiones de interés sobre cualquier imagen importada a través de la web. Una forma más amena de educar y con la que atraer más fácilmente la atención del alumnado.
Capturas de Proyecto MIP


Tercer premio EducaWood
-
Equipo: Jimena Andrade, Guillermo Vega, Miguel Bote, Juan Ignacio Asensio, Irene Ruano, Felipe Bravo y Cristóbal Ordóñez.
EducaWood es un portal web socio-semántico que permite explorar la información forestal de una zona del territorio español y enriquecerla con anotaciones de árboles. Su objetivo es impulsar las actividades de aprendizaje medioambiental, uno de los aspectos principales de la “Educación para los Objetivos de Desarrollo Sostenible” de la UNESCO, y que forma parte de la Agenda 2030 del Gobierno español.
Gracias al uso de EducaWood, el profesorado puede proponer actividades que los estudiantes realizan de manera presencial u online (a través de visitas virtuales al campo). En la modalidad presencial, los estudiantes visitan zonas naturales y realizan anotaciones de árboles, como la localización e identificación de especies, medidas, microhábitats, fotos, etc. Estas anotaciones pasan a estar disponibles para toda la comunidad como datos abiertos, posibilitando así el uso de la aplicación en remoto. Estos datos son enriquecidos, además con otras fuentes como el Mapa Forestal Español, el Inventario Forestal Nacional, GeoNames o DBPedia.
Educawood ayuda al alumnado a conocer mejor su entorno, a la vez que se promociona la toma de conciencia ecológica.
Capturas de Educawood


Alberto Martínez Lacambra, Director General de Red.es, hace entrega de los galardones
Los premios a los tres ganadores se han dado a conocer el 8 de julio en un acto organizado en la sede de Red.es.
Los 3 galardones han sido anunciados por Alberto Martínez Lacambra, Director General de Red.es, quien ha destacado la educación como elemento clave en la evolución de una sociedad marcada por la pandemia, así como la necesidad de trabajar para reducir la brecha digital y social que todavía existe. Ha agradecido la participación de todos los participantes, destacando la calidad de su trabajo.
El acto ha contado con la participación de varios miembros del jurado, que han podido conversar con los tres equipos ganadores.
En el siguiente video puedes ver cómo transcurrió el acto. También están disponibles las fotos en nuestra cuenta de Flickr.
En datos.gob.es ya estamos trabajando para dar forma al IV Desafío Aporta, que esperamos poder anunciar en los próximos meses.
La primavera está llegando a su fin para dar lugar al verano, a las vacaciones y al calor. Como cada cambio de estación, para la Iniciativa Aporta es el momento de repasar qué ha pasado en el ecosistema de datos abiertos durante los últimos tres meses.
Impulso a las estrategias de datos
Durante esta estación hemos visto como varias iniciativas, tanto locales como estatales, lanzaban procesos para actualizar sus estrategias relacionadas con los datos:
- En abril, el Ayuntamiento de Málaga presentó un Plan Municipal de Gobierno Abierto que incluye iniciativas de impulso a los datos abiertos. En concreto, el desarrollo de campañas informativas, la homogeneización de los formatos de los conjuntos de datos y la incorporación progresiva de nuevos datasets, incluyendo también datos externos a la gestión municipal.
- La Comunidad de Murcia puso en marcha una encuesta dirigida a las empresas de la región para conocer qué conjuntos de datos son de su interés, con el objetivo de valorar su incorporación al catálogo de datos abiertos de la región.
- El Gobierno de Asturias realizó un proceso participativo para elaborar una Estrategia de Gobernanza Pública. Entre otros aspectos, pretende implementar mecanismos que faciliten la participación y el acceso a los datos abiertos.
- El Ministerio de Asuntos Económicos y Transformación Digital ha lanzado una consulta para identificar propuestas para la integración de la Inteligencia Artificial en las cadenas de valor de los diferentes sectores de la economía. Todo ello en el marco de la Estrategia Nacional de Inteligencia Artificial.
La apuesta por los datos abiertos de los organismos públicos españoles también queda patente en el creciente apoyo a la Carta Internacional de Datos Abiertos. La representación española en el Open Data Charter ha crecido durante esta primavera: dos comunidades autónomas, Asturias y Valencia, y una entidad local, el Ayuntamiento de Pinto, acordaron adherirse.
Nuevos portales y conjuntos de datos abiertos
Además de la floración, la primavera también nos ha traído nuevas plataformas de compartición de datos abiertos:
- El Ayuntamiento de Alcalá de Henares ha desarrollado un nuevo Portal de Transparencia y Datos Abiertos para facilitar el acceso a la información y fomentar la transparencia de sus gestiones.
- También se ha estrenado una nueva versión de Euskalmet, el servicio meteorológico del País Vasco. El portal incluye un API Rest para reutilizadores.
- La Oficina Española de Patentes y Marcas ha presentado una nueva versión de su portal Open Data en un nuevo formato. A través de él, los usuarios pueden acceder a datos reutilizables de todas las modalidades de Propiedad Industrial, disponibles en formatos PDF, XML o SGML, entre otros.
Otros portales ya existentes han apostado por incorporar nuevas herramientas:
- El Servicio de Información Territorial de Baleares (Sitibsa) ha puesto en marcha una herramienta para incorporar de manera automática los datos abiertos de su portal al servicio de mapas de la Infraestructura de Datos Espaciales de Baleares (Ideib).
- El Centro Nacional de Información Geográfica (CNIG) ha publicado la aplicación web ‘Mapa a la Carta’, que permite personalizar sus mapas topográficos.
- GeoPamplona, el sistema de información geográfica desarrollado por el Ayuntamiento de la ciudad, ha incorporado novedades para mejorar la experiencia del usuario y hacer el servicio más accesible para la ciudadanía. Un ejemplo es su nuevo catálogo de mapas con información ya seleccionada, para que el usuario no tenga que buscarla.
- El Ayuntamiento de Zaragoza ha creado 'Mis mapas, mis datos', una herramienta para elaborar mapas sencillos y complejos, combinando varias fuentes de datos.
Además, como viene siendo habitual, la gran mayoría de las iniciativas de datos abiertos han ido actualizando sus datos de manera periódica. Algunas de las novedades que se han presentado estos meses son los mapas de patrimonio cultural de cada municipio en el portal de la diputación de Barcelona o los datos sobre el estado del Mar Menor en el portal de Murcia.
Crecen los eventos y los materiales formativos
Durante estos meses hemos asistido a multitud de eventos y webinars ligados a los datos abiertos. Algunos de ellos se han grabado y están disponibles para ver en cualquier momento:
- Unos días antes de la llegada de la primavera, en marzo, tuvo lugar jornada “El Dato en las Administraciones Locales 20/30. Experiencias y Retos”, que organizó el Ayuntamiento de Alcobendas, el Instituto de Transferencia de Conocimiento en Innovación Pública (ITCIP) y el Club de Innovación, con el apoyo de la FEMP (Red de Entidades Locales por la Transparencia y la Participación), la Red Española de Ciudades Inteligentes – RECI y Oracle. Las diferentes sesiones se pueden ver aquí.
- El 23 de abril se celebró una mesa redonda, en el marco del Máster en Tecnología e Innovación Digital en Ingeniería de la UNED, sobre "Big Data y datos abiertos aplicados a la movilidad". Si te lo perdiste, puedes verlo en Youtube.
Además, se han lanzado algunos cursos, guías y libros para aquellos que quieran ampliar sus conocimientos en materia de nuevas tecnologías y datos:
- El Gobierno central ha puesto en marcha el proyecto Elementos de IA en España. Se trata de un curso online gratuito dirigido a toda la ciudadanía que ofrece formación en fundamentos básicos de la Inteligencia Artificial.
- Castilla y León ha presentado la 'Guía de transformación digital para el empleado público', que cuenta con una sección dedicada a los datos abiertos. En ella se explica qué son, se habla del catálogo Nacional de Datos Abiertos (datos.gob.es) y se resalta la importancia de la reutilización de la información en el sector público.
- El Foro de Ingeniería en Geomática y Topografía del Grupo de Trabajo de la IDEE publica una nueva versión del libro 'Infraestructuras de Datos Espaciales', que enfatiza la publicación y descripción de los conjuntos de datos espaciales por medio de servicios. Entre otras cuestiones, incluye cómo se deben presentar a través de visualizadores y catálogos para su gestión y explotación.
Reutilización de datos por parte de Administraciones públicas y ciudadanos
El impacto de los datos abiertos también ha quedado patente en estos meses gracias a múltiples ejemplos. Por un lado, tenemos una serie de administraciones públicas que han aprovechado el valor de los datos para poner en marcha proyectos que mejoren su eficiencia y el servicio que proporcionan a la ciudadanía:
- La Agencia Tributaria de Madrid ha lanzado un proyecto para utilizar Big Data e Inteligencia Artificial para luchar contra el fraude en los impuestos municipales. Un Laboratorio Tributario liderará esta estrategia incorporando información del Portal de Datos Abiertos del Ayuntamiento.
- La Diputación de Valencia inicia el proyecto 'Connecta València: territorio turístico, inteligente y sostenible', que analiza datos turísticos para adaptar y mejorar la experiencia en todos sus municipios.
- El Ayuntamiento de Barcelona ha impulsado el proyecto piloto 'Dades x Comerç', desarrollado por BCNOpenData para ayudar al pequeño comercio a tomar decisiones y conocer mejor el comportamiento de la clientela en base a datos abiertos.
Por otro, empresas y emprendedores han utilizado los datos para crear productos, como por ejemplo:
- Las elecciones a la Comunidad de Madrid nos dejaron múltiples ejemplos de piezas periodísticas desarrolladas en base a datos abiertos, como por ejemplo estas de El Pais o eldiario.es.
- Dos bilbaínos han creado CityAr, una app donde los usuarios pueden organizar rutas, participar en eventos o jugar a través de realidad aumentada. CityAr utiliza los datos abiertos de Bilbao para mostrar la oferta cultural y de ocio de la ciudad.
En este periodo también se ha anunciado la convocatoria a dos premios dirigidos a reutilizadores:
- Los Premios Asedie 2021, para empresas, instituciones y proyectos de datos abiertos que puedan aportar valor social y/o económico. El plazo de presentación de candidaturas finaliza el 15 de septiembre de 2021.
- La nueva edición del concurso de datos abiertos que cada año convoca Castilla y León, dirigido a periodistas, docentes, estudiantes o reutilizadores de datos. Los interesados en participar deben mandar su propuesta antes del 13 de julio.
Un par de novedades a nivel mundial
A nivel internacional, una de las principales novedades ha sido el lanzamiento del nuevo portal europeo de datos, data.europa.eu, que se posiciona como punto de acceso único para los datos de toda Europa. Su desarrollo y gestión para los próximos 6 años ha sido adjudicado a un consorcio integrado, entre otros, por el Grupo de Ingeniería Ontológica de la Universidad Politécnica de Madrid.
Por su parte, Asia ha lanzado su primer portal oficial que reunirá datos abiertos publicados por instituciones, agencias y organizaciones de los distintos países que forman parte del continente.
Con estos ejemplos, queda patente que el ecosistema de datos abiertos no para y continúa evolucionando mes a mes. Si quieres compartir cualquier otra novedad que consideres de interés, te invitamos a contarnos tu opinión en la sección de comentarios.
Recientemente reflexionamos acerca del auge del periodismo de datos dentro de los medios de comunicación, una disciplina que cada vez está cobrando una mayor relevancia. A través de las tecnologías y herramientas ligadas a los datos, esta modalidad periodística permite ofrecer a los lectores una información más documentada, atractiva y comprensible. Para ello, realizan acciones como interpretar presupuestos municipales, combinar estadísticas e informes financieros o explorar información geoespacial para contar historias basada en grandes cantidades de datos.
En esta ocasión, queremos resaltar el papel que el periodismo de datos juega a la hora de servir como impulso para la creación de nuevas empresas, asociaciones y grupos de usuarios que reutilizan datos para impulsar la economía o impulsar la rendición de cuentas.
A continuación, analizaremos cómo la reutilización de los datos, dentro del campo del periodismo, ha favorecido la aparición de nuevos modelos de negocio, organizaciones sin ánimo de lucro y actividades de transparencia, investigación o fact-checking político en las que el periodismo de datos es el punto central de su negocio o actividad diaria.
Organizaciones ligadas al periodismo de datos

Agencias de noticias: EPDATA
EpData es la plataforma creada por Europa Press que tiene como principal objetivo facilitar el uso de datos públicos por parte de los periodistas para enriquecer las noticias mediante gráficos, además de analizar el contexto y contrastar las cifras ofrecidas por las diferentes fuentes.
Esta plataforma nace con el propósito de trasladar el espíritu de una agencia de noticias al mundo del periodismo de datos. Para conseguirlo, han creado un amplio repositorio de datos con todas las estadísticas sobre las que se informa a menudo en Europa Press, con más de 60 millones de datos de fuentes públicas y privadas. Cualquier usuario puede consultarlas a través de este enlace.
Actividades de EpData ligadas al periodismo de datos
Este repositorio permite a EpData ofrecer gráficos, estadísticas y visualizaciones de datos relacionadas con la actualidad cada día. Por ejemplo, durante el último año han ido mostrando datos actualizados sobre la pandemia actual que han utilizado para sus noticias otros medios y publicaciones científicas.
No obstante, el abanico de temas que compaginan en su plataforma es muy amplio, ya que ofrecen estadísticas y gráficas basadas en datos de temas tan diversos como empleo, evolución de la economía, sociedad, política, etc.
Fact-checking: Maldito Dato
Según sus coordinadores, “Maldito Dato es el proyecto dentro del medio de verificación Maldita.es en el que se llevan a cabo las informaciones de periodismo de datos, transparencia, investigación y el fact-checking político, es decir, la verificación del discurso político”.
En otras palabras, Maldito Dato es la sección de Maldita.es que realiza periodismo de datos, formada por especialistas en esta materia. Entre sus principales funciones, está la realización de piezas periodísticas basadas en los datos, fact-checking político y temas realizados a partir del uso de la Ley de Transparencia.
Actividades de Maldito Dato ligadas al periodismo de datos
Los datos abiertos forman una parte importante de la naturaleza de Maldito Dato, tanto a la hora de publicarlos como de reutilizarlos en sus noticias. Algunos ejemplos son:
- Mapa de casos de coronavirus a nivel municipal de toda España, desarrollado en base a los datos que publica cada comunidad autónoma.
- Datos del Ministerio de Sanidad sobre la vacunación, usando los datos que publica el Ministerio de Sanidad, bien sea en forma de datos abiertos o de informes diarios.
- En este otro ejemplo se puede ver cómo utilizan los datos del Portal Estadístico de la Delegación del Gobierno contra la Violencia de Género para realizar diversas gráficas comparativas sobre el incremento del número de llamadas al 016. También han realizado gráficas comparativas basadas en los datos del INE o incluso los del CIS.
Además de utilizar datos abiertos de las administraciones públicas, en otras ocasiones son ellos mismos quienes publican datos abiertos. Por ejemplo, cuando liberan bases de datos que obtienen por solicitudes de información a través de la Ley de Transparencia. Algunos ejemplos son la base de datos de solicitudes de información pública que realizan los ciudadanos en el Portal de la Transparencia, la base de datos con las inspecciones sanitarias a las piscinas de Madrid o la de las subvenciones del Ministerio del Interior por 'situaciones catastróficas'.
Organización sin ánimo de lucro: CIVIO
CIVIO es una organización sin ánimo de lucro que promueve la transparencia de las instituciones y que las personas puedan acceder a la información pública a través de la tecnología unida al periodismo. Para conseguir este objetivo cuentan con tres grandes líneas de actuación:
- Periodismo
- Incidencia pública
- Servicios de transparencia de las AA.PP.
Actividades de CIVIO ligadas al periodismo de datos
Esta organización ha publicado recientemente una investigación acerca del uso de la contratación de emergencia durante 2020. Para elaborarla han utilizado los contratos de emergencia adjudicados durante el pasado año que han sido publicados en el Portal de Contratación del Sector Público y desde las plataformas vinculadas a las diferentes comunidades autónomas. En este enlace se puede consultar un buscador de contratos de emergencia y aquí las principales conclusiones de la investigación.
Al final de este artículo, desde CIVIO nos explican la metodología que siguen para llevar a cabo el análisis de estos datos, así como las dificultades que han ido encontrando en el proceso. Los datos utilizados en esta investigación se han puesto a disposición de todos los usuarios en Datos Civio en formatos que facilitan su reutilización. Gracias a ello, diversos medios de comunicación han utilizado la base de datos de CIVIO para elaborar sus propias informaciones.
Análisis, visualización y comunicación de datos: STORYDATA
Storydata es una organización de mujeres expertas en investigación, análisis, visualización y comunicación de datos. Se caracterizan por ofrecer un servicio de comunicación global dirigido a entidades públicas y privadas que quieran transformar un conjunto de datos, propios o externos, en un relato comunicativo. Para ello utilizan diversos soportes y formatos, desde la elaboración de reportajes hasta la creación de campañas y la difusión de contenidos en redes sociales.
Actividades de Storydata ligadas con el periodismo de datos
Los datos abiertos forman parte del ADN de Storydata. Algunos de sus proyectos más relevantes son:
- El proyecto Datos contra el ruido que persigue combatir a través de datos abiertos las opiniones sobre la violencia machista.
- Colaboración en la sección de datos de la revista Barcelona Metròpolis del Ayuntamiento de Barcelona.
- Redacción sobre artículos de divulgación acerca de datos en el dossier de Associació de dones periodistes de Catalunya.
- Convenio de colaboración con el Máster de Periodismo de datos y Fact Checking de Blanquerna.
- Formación a múltiples medios, instituciones y universidades sobre periodismo de datos y visualización, como la Escola de dades de Sentit Crític, el Máster de Diseño de la Información y Visualización de Datos de Elisava, Instituto de la Euromediterránea (Euromesco), Jurados y píldora formativa en el Big Data Challenger de Fundación la Caixa.
Actualmente, Storydata colabora con medios de comunicación como Crític, por ejemplo, creando una visualización de datos que muestra la desigualdad en tiempos de confinamiento o esta otra sobre cómo afecta el coronavirus a los diferentes municipios de Catalunya.
Grupos de usuarios y lista de periodistas de datos
Si eres un periodista de datos, o estás interesado en la materia, quizás te interese saber que existen diferentes plataformas en las que puedes encontrar grupos de usuarios relacionados con la reutilización de datos en el ámbito del periodismo.
- En LinkedIn destaca el grupo ‘Periodismo de datos’, creado para que interesados y profesionales del periodismo de datos puedan aportar y compartir conocimiento relacionado con esta disciplina.
- En MeetUp encontramos el grupo de usuarios ‘Periodismo y visualización de datos’. Organizado por Adolfo Antón, cuenta con más de 1.200 participantes que interactúan en relación con el uso de los datos para su reutilización en materia periodística.
- También en MeetUp destaca el grupo Madrid Abriendo Datos.
- Grupos de Telegram o Slack: muchos usuarios de organizan a través de Telegram (en grupos como postdata, periodismodatos y visualizar) o Slack (periodismodatos.slack.com).
En la red también podemos encontrar una lista de comunicadores especializados en datos en España y Latinoamérica, formada por más de 300 periodistas. Este proyecto reúne a una serie de profesionales que ven en los datos la verdadera materia prima del periodismo. Si quieres consultar la lista completa, puedes hacerlo a través del siguiente enlace.
Esta es tan solo una muestra de organizaciones, empresas y grupos de usuarios ligados al periodismo de datos. Si conoces alguna otra que pueda ser de interés, no dudes en escribirnos un comentario o enviarnos un correo a dinamizacion@datos.gob.es.
Contenido elaborado por el equipo de datos.gob.es.
El periodismo de datos es una de las disciplinas que más ha crecido en los medios de comunicación en los últimos años, tanto dentro como fuera de nuestras fronteras. Esta modalidad del periodismo consiste en recabar datos veraces, analizarlos y ponerlos a disposición de la ciudanía a través de artículos y/o recursos gráficos e interactivos, facilitando la comprensión de asuntos complejos.
En datos.gob.es hemos entrevistado a Adolfo Antón, diseñador, periodista, formador y apasionado del Software Libre y el conocimiento abierto. Adolfo ha sido presidente de Open Knowledge Foundation España, coordinador de School of Data España, responsable del Datalab de Medialab Prado, coordinador del grupo de trabajo de Periodismo de Datos, de las Jornadas de Periodismo de Datos y comisario de los talleres de Periodismo de Datos (2014-2019) y Visualizar (2015-2018). Actualmente es coordinador del Máster Universitario de Periodismo y Visualización de Datos de la Universidad de Alcalá y Profesor del Máster de Periodismo Digital y de Datos en Universidad Nebrija.
Entrevista completa:
1. ¿A qué se dedica un periodista de datos?
Gracias, en primer lugar, por interesaros en el periodismo y la visualización de datos y por lo que puedo aportar a estos ámbitos. Agradezco y celebro la existencia de datos.gob.es, un proyecto imprescindible que cumple diez años dentro de poco y que, paradójicamente, creo que no es lo suficientemente conocido, utilizado y reconocido en estos campos.
Para responder a vuestra primera pregunta me voy a centrar en lo que habéis definido como periodismo de datos y que comienza por la recolección de datos veraces. Actualmente hay muchos proyectos que se encuentran en el campo de la verificación de noticias y esto, a mi modo de ver, lo entiendo como reacción a una proliferación exagerada de noticias falsas, manipuladas, bulos, mentiras y otras faunas y floras de las malas prácticas no solo periodísticas, sino también comunicativas. Es necesario verificar, certificar, acreditar y/o curar los datos con los que trabajamos, aportando un contexto, fuente y metodología. Si no, desarrollaremos análisis erróneos e historias falseadas.
Hay un dicho periodístico que dice "que un mal dato no te estropee un buen titular", y en esta tentación es muy importante que la ética periodística sea fuerte en periodistas, editorxs y en el propio medio.
Es necesario verificar, certificar, acreditar y/o curar los datos con los que trabajamos, aportando un contexto, fuente y metodología. Si no, desarrollaremos análisis erróneos e historias falseadas.
El periodismo de datos es, fundamentalmente, el uso de aplicaciones informáticas para trabajar con datos, ya sean pocos, muchos o muchísimos. En el periodismo de datos también son importantes la estadística, la infografía o la visualización de datos.
Con esas herramientas informáticas, se realiza lo que Paul Bradshaw denominó la pirámide invertida del periodismo de datos:
- Compilar (recopilar, recoger, recabar)
- Limpiar (fregar, escarbar, investigar, interrogar)
- Contextualizar (contexto de los datos y de la historia, metodología) y
- Combinar (datos, visualizaciones, infografías, mapas, textos, interactivos…)
Para ello es necesario, por tanto, utilizar herramientas informáticas y lenguajes informáticos que cubran una, varias o todas las tareas del proceso de trabajo. No es mandatorio, pero sí que es conveniente no enclaustrarnos en software que sea privativo y/o propietario pues determinará el uso que hagamos del mismo. Asimismo, los servicios de terceros pueden ser de gran ayuda, pero se prefieren servicios propios que podamos controlar al cien por cien.
2. ¿Por qué es importante el periodismo de datos? ¿Podría indicarnos algún caso de éxito o investigación donde haya sido clave?
El periodismo de datos es el periodismo que investiga con datos y, por tanto, es tan importante, necesario y primordial como el periodismo, si por ello entendemos un periodismo crítico e independiente, un cuarto poder de la sociedad actual. No saber trabajar con datos utilizando herramientas informáticas nos limita hacer buen periodismo, sea este económico, político o deportivo. Cada vez más el periodismo de datos deja de ser el caso de éxito excepcional de un periodismo generalista para ser la metodología del periodismo en general.
Los primeros casos de éxito en España pueden circunscribirse en torno a Civio, una organización que realiza periodismo de datos en proyectos como España en llamas, entre otros. Luego, son relevantes los proyectos que surgieron en torno a la conjunción de tres elementos que hicieron crecer el periodismo de datos en España:
- El grupo de Periodismo de Datos de Medialab-Prado, que despierta el interés público por esta disciplina y permiten la creación de una comunidad incipiente;
- El Máster de Periodismo de Investigación, Datos y Visualización de Unidad Editorial/URJC, que forma a una primera generación de periodistas de datos;
- Los medios que apuestan por ello en mayor o menor medida, como El Español, El Mundo, El Confidencial, RTVE, El Diario de Navarra, eldiario.es o Ara.cat.
Un punto álgido del periodismo de datos internacional y también de España fue, sin duda, la investigación sobre los Papeles de Panamá (Panama Papers) del Consorcio Internacional de Periodistas de Investigación (ICIJ, International Consortium of Investigative Journalists) de 2016 en la que participaron 109 medios de 76 países. En España fueron LaSexta y El Confidencial los medios participantes y lograron una amplia repercusión y la dimisión de entonces ministro de Industria, Energía y Turismo.
Lamentablemente, ni el Laboratorio de Datos de Medialab-Prado (continuador del grupo de periodismo de datos entre 2016 y 2019) existe ya, ni todos esos medios han mantenido o fortalecido los equipos. Pero, en general, sí que la disciplina se ha extendido en cuanto a comunidad, universidades y prácticas. Este proceso se ha acelerado tanto con la crisis del COVID19 que ya se considera al periodo actual como la segunda edad de oro de la visualización de datos.
3. ¿A qué retos se enfrenta hoy en día el periodismo de datos?
Es una pregunta difícil de contestar pues creo que a los retos tradicionales del periodismo se suman los que producen, como decía al principio, la abundancia de noticias falsas, manipuladas, sesgadas y difundidas por redes sociales donde cuestiones como la ética, la intimidad, la privacidad, la autoría, el anonimato o la producción automática y replicada en masa de contenidos genera un ruido ensordecedor. Además, se apuesta por una polarización intensiva que sirve para coleccionar datos de personas para crear perfiles de consumidores. Esto bombardea el proceso racional, reflexivo, discursivo y con escala de grises que un buen periodismo puede favorecer.
Si me centro en el periodismo de datos como metodología, el principal reto que observo es el de formar a periodistas en el uso de aplicaciones informáticas para trabajar con datos y con ello, poco a poco, mejorar la producción periodística para que el público en general valore los buenos productos periodísticos de datos.
El principal reto que observo es el de formar a periodistas en el uso de aplicaciones informáticas para trabajar con datos y con ello, poco a poco, mejorar la producción periodística para que el público en general valore los buenos productos periodísticos de datos.
4. ¿Hay una apuesta decidida de los medios tradicionales por el periodismo de datos?
Los Papeles de Panamá supusieron un momento esperanzador para el periodismo de datos y también por el hecho de que una televisión generalista apostara por esta disciplina. No ha ocurrido en términos generales, pero sí que la crisis del coronavirus ha producido un aumento de trabajos donde se produce cierto análisis y visualización de datos que son apreciables en las portadas de las webs de los medios, por ejemplo. Sin un análisis en profundidad diría que la mayoría son más escaparates con productos fáciles que completos trabajos de periodismo de datos en el sentido de que no se realizan todas las etapas del proyecto periodístico, sino fragmentos que cubren la demanda.
Cabe destacar el trabajo en análisis y visualización de datos que están haciendo en El País, RTVE.es y eldiario.es. A su vez, los medios especializados en verificación de noticias como Newtral y Maldita realizan una constante producción de noticias con formatos innovadores que también cuentan con análisis y visualización de datos.
Por otro lado, hay personas que no trabajan en medios pero que se han agrupado para trabajar desde el inicio de la pandemia sobre los datos del COVID19 en un esfuerzo encomiable que aúna recolección, análisis y visualización de datos y que deja el trabajo prácticamente preparado para que los medios lo tomen y rematen, pero todavía no se ha producido esa conexión mágica.
Por la experiencia de los talleres de periodismo de datos de Medialab-Prado diría que trabajar con datos lleva tiempo, requiere profesionales, equipo, ideas, etc., pero no son inversiones que puedan estar alejadas de cualquier redacción periodística, sea cual sea el tamaño del medio. El hecho de que esa apuesta decidida no se haya producido también deja el campo abierto a que otras propuestas se posicionen mejor, como ha ocurrido con las de verificación de noticias.
5. Los datos abiertos son fundamentales para que los periodistas de datos cuenten con información veraz de fuentes oficiales. ¿Qué tipos de datos son los más demandados por estos profesionales para sus investigaciones?
Mi impresión es que normalmente no se aprovechan los datos abiertos que hay, ya sea porque son muy complejos, porque se requiere amplios conocimientos en el tratamiento de datos, porque hay que trabajar mucho con ellos, porque se desconocen o, finalmente, porque no son "atractivos", no están de moda.
Es decir, tener un portal de datos abiertos y una política de publicación de datos abierta no asegura que se haga un uso de los datos, lo cual no quita para que esto, la publicación de datos abiertos de calidad, deba ser la política por defecto de toda administración pública y fuente de información que se precie.
Hay muchos casos distintos y citarlos todos llevaría un ejercicio más preciso de recolección de los mismos. Pongamos dos ejemplos. Los datos del INE, además de su complejidad, de los microdatos, vienen en formatos diversos, hay buscadores con los que crear tu propio conjunto cuyas interfaces son muy antiguas y poco usables. Otro caso es el del portal de datos del ayuntamiento de Zaragoza. Uno de los mejores, pero requiere registro para trabajar con la API y los datos se puede extraer JSON… Pongo puntos suspensivos porque si bien es uno de los formatos de datos más utilizados y manejable, no todo el mundo, al igual que con los microdatos, sabe usarlo. En definitiva, no todos los problemas en el periodismo de datos vienen por la ausencia de datos sino también por los formatos y las habilidades para manejarlos.
Normalmente no se aprovechan los datos abiertos que hay, ya sea porque son muy complejos, porque se requiere amplios conocimientos en el tratamiento de datos, porque hay que trabajar mucho con ellos, porque se desconocen o, finalmente, porque no son "atractivos", no están de moda.
En este sentido, el del manejo de las habilidades, recuerdo que últimamente he visto más de un medio que incrusta visualizaciones hechas por terceros. Podría ser un ejemplo más de esos nichos que el periodismo de datos está produciendo para que haya agencias de noticias especializadas en datos. No tendría que ser algo negativo, pero me parece que se usan herramientas a su vez de terceros con formatos limitados. En el extremo contrario estaría el caso de la BBC, que realiza una guía de estilo de cómo hacer gráficos con R y crean una librería para que el estilo de sus gráficos sea distinto. Eso es apostar por los datos también.
En los talleres de periodismo de datos o visualizar siempre nos encontrábamos con la falta del conjunto de datos mágico con el que trabajar, había que crearlo. Pero también nos encontrábamos con sorpresas y creo que, sin lugar a dudas, no utilizamos la mayoría de los datos disponibles por desconocimiento de que existan. Así que, además de demandar datos, apostaría en paralelo por aprender a utilizar los existentes o crearlos.
6. ¿Qué importancia tienen las visualizaciones en los reportajes de datos? ¿Qué tecnologías y herramientas utilizan?
Si me atengo a lo que normalmente se cuenta, las visualizaciones se utilizan en dos fases fundamentalmente:
- Por un lado, en la etapa del análisis de datos. Se visualizan los datos más fácilmente con todo tipo de herramientas gráficas o gráficos que nos ayuden a encontrar valores extraños, patrones, medias, etc.
- Por otro lado, en la parte final del proyecto, del producto periodístico. La o las visualizaciones pueden ser una parte más o la pieza principal de la historia periodística.
Últimamente intento explicar qué es la visualización de datos en términos informáticos. En formato papel la visualización se realiza con herramientas manuales, impresión manual o digital. Pero en la pantalla, en la Web se pueden hacer ¡las visualizaciones que queramos! Con caracteres, texto, imágenes, vídeo, audio, interacción, etc. Si entendemos el lenguaje y los lenguajes de este medio, seremos capaces de producir de una manera más integrada trabajos de periodismo de datos donde cualquier elemento tenga cabida.
Para ello no necesitamos hardware distinto al que ya manejamos, ordenadores de sobremesa o portátiles, pero sí un compendio de herramientas de software libre o de código abierto.
Huelga decir que hay un espectro amplísimo de posibilidades en el terreno del software privativo y/o propietario, pero el uso de software libre o de código abierto es fundamental para dar un salto en el uso de tecnologías en el periodismo y la visualización de datos.
Si entendemos el lenguaje y los lenguajes de este medio, seremos capaces de producir de una manera más integrada trabajos de periodismo de datos donde cualquier elemento tenga cabida.
7. Actualmente está implicado en 2 masters sobre periodismo de datos. ¿Por qué los periodistas deberían tener conocimientos de análisis y visualización de datos?
Además de la experiencia de Medialab-Prado, he recibido o dado cursos en medios y universidades. He formado parte del Máster de Periodismo de Datos del Centro Universitario Villanueva en sus tres ediciones; realicé la guía docente de dos módulos del Máster de Periodismo de Datos de UNIR y comencé la docencia, aunque en aquel momento no me convenció la formación en línea, posiblemente por el uso y abuso de software propietario; he dado un módulo de datos en el Máster del Periodismo de Agencia de la Agencia EFE-UC3M. Ahora estoy como docente en el módulo de Periodismo de Datos y Visualización del Máster de Periodismo Digital y de Datos de la Universidad Nebrija donde intento transmitir estos conocimientos básicos sobre periodismo y visualización de datos.
No dejo de aprender y de practicar cada día. He creado este Máster de Periodismo y Visualización de Datos de la Universidad de Alcalá porque entiendo que no hay ninguna apuesta formativa que aborde estas temáticas de forma integral, desde el software libre o de código abierto, y porque desde que comencé a relacionarme con este mundo he visto que el análisis y la visualización de datos son esenciales para el periodismo de datos, pero no se han abordado así en las distintas apuestas universitarias.
Es cierto que, desde el inicio, también he oído o leído que el periodismo de datos es colaboración y que hay muchos perfiles en la redacción y una persona no puede albergarlos todos, y la virtud es la cooperación. Eso es cierto, pero para cooperar hay que saber cooperar por un lado y saber de lo que se quiere cooperar por otro. En el periodismo clásico la cooperación es habitual –esperemos que no se pierda–, por lo que solo faltarían las habilidades. La formación que se hace, casi siempre, suele atender a diversos perfiles, así ha de ser para tener también una visión de conjunto, saber qué hacen otros, qué cosas me podrían interesar, qué puntos fuertes debo desarrollar o compensar. Y luego, teniendo una buena base y con la práctica, utilizar unas u otras habilidades en unos u otros roles.
R Hispano es una comunidad de usuarios y desarrolladores que nació en 2011, en el seno de las III Jornadas de Usuarios de R, con el objetivo de fomentar el avance del conocimiento y el uso del lenguaje de programación en R. Desde datos.gob.es hemos hablado con Emilio López Cano, presidente de R Hispano, para que nos cuente más sobre las actividades que realizan y el papel de los datos abiertos en ellas.
Entrevista completa
1. ¿Puede explicarnos de forma breve qué es la Comunidad R-Hispano?
Se trata de una asociación creada en España cuyo objetivo es el de promover el uso de R entre un público hispano. Hay muchos usuarios de R a nivel mundial e intentamos servir como punto de encuentro entre todos aquellos cuyo idioma principal es el español. Al tener como referencia un grupo más pequeño dentro de una comunidad tan grande, es más fácil entablar relaciones y conocer a personas a las que acudir cuando se quiere aprender más o compartir lo aprendido.
2. R nace como lenguaje ligado a la explotación estadística de los datos, sin embargo, se ha ido convirtiendo en una herramienta esencial de la Ciencia de Datos, ¿por qué tanta aceptación de este lenguaje por la comunidad?
Es verdad que muchos profesionales de la ciencia e ingeniería de datos tienden a utilizar lenguajes más genéricos como Python. Sin embargo, hay varios motivos por los que R se hace imprescindible en el “Stack” de los equipos que trabajan con datos. En primer lugar, R tiene su origen en el lenguaje S, que se diseñó en los años 70 específicamente para el análisis de datos, en el seno de los laboratorios Bell. Esto permite que personas con diferente formación informática pueda participar en proyectos complejos, centrándose en los métodos de análisis. En segundo lugar, R ha envejecido muy bien, y una amplia comunidad de usuarios, desarrolladores y empresas contribuyen al proyecto con paquetes y herramientas que extienden la funcionalidad de forma rápida hacia los métodos más innovadores con (relativa) sencillez y todo el rigor.
3. R Hispano funciona a través de numerosas iniciativas locales, ¿qué ventajas conlleva esta forma de organización?
En las actividades del día a día, sobre todo cuando teníamos encuentros presenciales, hace más de un año, es más cómodo coordinar a las personas de la manera más cercana posible. No tiene sentido que una persona en Madrid organice reuniones mensuales en Málaga, Sevilla o Canarias. Lo interesante de estos eventos es asistir regularmente, ir conociendo a los asistentes, entender lo que demanda el público y lo que se puede ofrecer. Eso, aparte de mimo y dedicación, requiere estar cerca porque, si no, no hay forma de establecer ese vínculo. Por eso nos ha parecido que es desde las propias ciudades como se tiene que mantener esa relación de día a día. Por otra parte, es la forma en la que la Comunidad de R se ha organizado en todo el mundo, con el éxito que todos conocemos.
4. ¿Consideráis las iniciativas de datos abiertos una valiosa fuente de información para el desarrollo de vuestros proyectos? ¿Algún ejemplo de reutilización destacable? ¿Qué aspectos consideráis mejorables de las iniciativas actuales?
Lo primero decir que R Hispano como tal no tiene proyectos. Sin embargo, muchos socios de R Hispano trabajan con datos abiertos en su ámbito profesional, ya sea académico o empresarial. Desde luego, es una fuente de información muy valiosa, con muchísimos ejemplos, como el análisis de los datos de la pandemia que todavía sufrimos, los datos de competiciones deportivas y rendimiento de deportistas, datos medioambientales, socioeconómicos, … No podemos destacar ninguno porque hay muchos muy interesantes que lo merecerían igualmente. En cuanto a las mejoras, todavía hay muchos repositorios de datos públicos que no los publican en formato “tratable” por los analistas. Un informe en PDF puede ser datos abiertos, pero desde luego no contribuyen a su difusión, análisis, y explotación por el bien de la sociedad. Todos los datos abiertos deberían estar tabulados en formatos que permitan la rápida importación a software, como por ejemplo R.
5. ¿Puede contarnos algunas de las actividades que llevan a cabo esas Iniciativas locales?
Varios grupos locales de R, tanto en España como Latam, colaboraron recientemente con la empresa de formación en tecnologías, UTad, en el evento “Encuentros en la fase R”. Celebrado en formato online con dos días de duración. Las jornadas de usuarios de R que celebramos cada año, normalmente las organiza alguno de los grupos locales de la sede. El grupo de Córdoba está organizando las próximas, aplazadas con motivo de la pandemia y de las que esperamos poder anunciar fechas pronto.
El Grupo de Usuarios de R de Madrid comenzó a funcionar como grupo local vinculado a la Comunidad R hispano hace más de quince años. Desde su origen mantiene una periodicidad mensual de reuniones anunciadas en la red social Meetup (patrocinado por parte de RConsortium, entidad, fundada y subvencionada por grandes compañías para favorecer el uso de R). La actividad se ha visto interrumpida por las limitaciones del Covid-19, pero todo el historial de las presentaciones se ha ido recopilando en este portal.
Desde el Grupo de R Canarias se han involucrado en la conferencia TabularConf, que tuvo lugar el 30 de enero, en formato online, con una agenda de una decena de ponencias sobre data science e inteligencia artificial. En el pasado el grupo canario realizó un encuentro de usuarios de R con comunicaciones sobre varios tópicos, incluidos modelización, tratamiento de datos geográficos, así como consultas a APIs de datos públicos, como datos.gob.es, con la librería opendataes. Otras librerías presentadas en un meetup que realizaron en 2020 son istacr o inebaseR, siempre apostando por el acceso a datos públicos.
En el Grupo Local de Sevilla, durante los hackatones celebrados en los últimos años, ha comenzado a desarrollar varios paquetes totalmente vinculados a datos abiertos.
-
Aire: Para obtener datos de calidad del aire en Andalucía (funciona, pero necesita algunos ajustes)
-
Aemet: Paquete de R para interaccionar con la API de AEMET (datos climáticos). Dimos los primeros pasos en un hackaton, luego Manuel Pizarro hizo un paquete totalmente funcional.
-
Andaclima: Paquete para obtener datos climáticos de estaciones agroclimáticas de la Junta de Andalucía
-
Datos.gob.es.r: Embrión de paquete para interaccionar con http://datos.gob.es. Realmente solo una exploración de ideas, nada funcional por ahora.
Sobre COVID-19 merece la pena destacar el desarrollo por parte de la UCLM, con la colaboración en un exmiembro de la Junta Directiva de la Comunidad R Hispano, de un panel de análisis de la COVID-19, con los casos que la Junta de Comunidades de Castilla-La Mancha presenta por municipio. Consiste en una herramienta interactiva para consultar la información sobre la incidencia y tasas por 100.000 habitantes.
6. Además, también colaboran con otros grupos e iniciativas.
Sí, colaboramos con otros grupos e iniciativas centradas en datos, como la UNED (Facultad de Ciencias), que durante un largo periodo de tiempo nos acogió como sede permanente. También destacaría nuestras actuaciones con:
-
Grupo de Periodismo de Datos. Presentaciones conjuntas con el grupo de Periodismo de Datos, compartiendo las bondades de R para sus análisis.
-
Una colaboración con el Grupo Machine Learning Spain que se tradujo en una presentación común en el Google Campus de Madrid.
-
Con grupos de otros lenguajes de datos, como Python.
-
Colaboraciones con empresas. En este punto destacamos el haber participado en dos eventos de Analítica Avanzada organizadas por Microsoft, así como el haber recibido pequeñas ayudas económicas de empresas como Kabel o Kernel Analytics (recientemente adquirida por Boston Consulting Group).
Estos son algunos ejemplos de presentaciones en el grupo de Madrid basadas en datos abiertos:
Además, diferentes socios de R-Hispano, también colaboran con instituciones académicas, en las que imparten diferentes cursos relacionados al análisis de Datos, fomentando especialmente el uso y análisis de datos abiertos, como por ejemplo la Facultad de Economía de la UNED, la Facultades de Estadística y de Turismo y Comercio de la UCM, la Universidad de Castilla-La Mancha, la EOI (asignatura específica sobre datos abiertos), la Universidad Francisco de Vitoria, la Escuela Superior de Ingeniería de Telecomunicaciones, el ESIC y la escuela K-School.
Por último, nos gustaría destacar el vínculo constante que se mantiene con diferentes entidades de relevancia del ecosistema R: con R-Consortium (https://www.r-consortium.org/) y RStudio (https://rstudio.com/). Es a través del R-Consortium donde hemos conseguido el reconocimiento del Grupo de Madrid como grupo estable y del que conseguimos el patrocinio para el pago de Meetup. Dentro de RStudio mantenemos diferentes contactos que nos han permitido igualmente conseguir patrocinios que han ayudado en las Jornadas de R, así como ponentes de la talla de Javier Luraschi (autor del paquete y libro sobre “sparklyr”) o Max Kuhn ( autor de paquetes como “caret” y de su evolución “tidymodels”).
7. A través de ROpenSpain algunos socios de RHispano han colaborado en la creación de paquetes en R que facilitan el uso de datos abiertos.
ROpenSpain es una comunidad de entusiastas de R, de los datos abiertos y la reproducibilidad que se reúne y organiza para crear paquetes de R de la máxima calidad para la explotación de datos españoles de interés general. Nace, con la inspiración de ROpenSci, en febrero de 2018 como organización de GitHub y dispone de un canal de colaboración en Slack. A enero de 2021, ROpenSpain agrupa los siguientes paquetes de R:
-
opendataes: Interactúa fácilmente con la API de datos.gob.es, que proporciona datos de las administraciones públicas de toda España.
-
MicroDatosEs: Permite importar a R varios tipos de ficheros de microdatos del INE: EPA, Censo, etc.
-
caRtociudad: Consulta la API de Cartociudad, que proporciona servicios de geolocalización, rutas, mapas, etc.
-
Siane: Para representar información estadística sobre los mapas del Instituto Geográfico Nacional.
-
airqualityES: Datos de calidad del aire en España de 2011 a 2018.
-
mapSpain: Para cargar mapas de municipios, provincias y CCAA. Incluye un plugin para leaflet.
-
MorbiditySpainR: Lee y manipula datos de la Encuesta de Morbilidad Hospitalaria
-
Spanish: Para el procesamiento de cierto tipo de información española: números, geocodificación catastral, etc.
-
BOE: Para el procesamiento del Boletín Oficial del Estado y del Boletín Oficial del Registro Mercantil.
-
istacbaser: Para consultar la API del Instituto Canario de Estadística.
-
CatastRo: Consulta la API del Catastro.
Algunos de estos paquetes se han presentado en eventos organizados por la Comunidad R Hispano.
8. Para terminar, ¿cómo pueden las personas interesadas seguir a R-Hispano y colaborar con vosotros?
Un elemento importante como nexo de unión en toda la comunidad de usuarios de R en español es la lista de ayuda R-Help-es:
-
Búsqueda: https://r-help-es.r-project.narkive.com/;
-
Suscripción: https://stat.ethz.ch/mailman/listinfo/r-help-es ).
Es una de las pocas listas de ayuda sobre R, activas e independiente de la principal en inglés R-Help que ha generado más de 12.800 entradas en sus más de 12 años de historia.
Además, se mantiene un gran nivel de actividad en las redes sociales que sirven como altavoz, palanca a través de las cuales se dan a conocer futuros eventos o diferentes noticias relacionadas con datos de interés para la comunidad. Podemos destacar las siguientes iniciativas en cada una de las plataformas:
-
Twitter: Presencia de la propia asociación R-Hispano; https://twitter.com/R_Hisp y participación en el hastag #rstatsES (R en Español) de diferentes colaboradores de R del ámbito nacional.
-
LinkedIn: En esta red profesional, “R” tiene presencia a través de la página de empresa https://www.linkedin.com/company/comunidad-r-hispano/. Además, multitud de socios de R-Hispano tanto de España como de Latam forman parte de esta red compartiendo recursos en abierto.
-
Canal de Telegram: Existe un canal de Telegram dónde se difunden con cierta periodicidad noticias de interés para la comunidad https://t.me/rhispano
Por último, en la página web de la asociación, http://r-es.org, se puede encontrar información sobre la asociación, así como la forma de hacerse socio/a (la cuota es, como R, gratuita).
El European Data Portal (EDP) ha presentado su informe “Copernicus data for the open data community”, elaborado por con.terra como parte del consorcio encargado del EDP. Como ya hemos contado en otras ocasiones, Copernicus es el programa de la Unión Europea de Observación de la Tierra que proporciona información precisa, oportuna y de fácil acceso para mejorar la gestión del medio ambiente, comprender y mitigar los efectos del cambio climático y garantizar la seguridad civil.
El informe pretende ayudar a los usuarios a aprovechar el potencial de los datos de Copernicus para crear aplicaciones de observación de la Tierra, dando respuesta a tres preguntas básicas:
- ¿Qué puedo hacer con los datos de Copernicus?
- ¿Cómo puedo acceder a los datos?
- ¿Qué herramientas necesito para utilizar los datos?
Tras una introducción en las que se repasan las principales actividades y servicios disponibles del programa, el informe se divide en dos partes: una primera donde se examinan ejemplos de aplicaciones de datos de Copernicus y una segunda parte más práctica, donde se replica un caso de uso particular en profundidad.
Casos de uso de Copernicus
La primera parte abarca una serie de posibles casos de uso a nivel general para responder a la primera de las preguntas planteadas anteriormente: ¿qué se puede hacer con los datos de Copernicus?
Los casos de uso analizados se vinculan con las áreas temáticas que aborda el programa Copernicus (emergencias, seguridad, vigilancia marina, vigilancia terrestre, cambio climático y vigilancia atmosférica), así como con sus servicios y herramientas. Estos ejemplos abarcan la observación de la contaminación plástica de los océanos, el cambio de la tierra por las actividades mineras, el impacto de las actividades volcánicas, la pérdida de hielo, la creación de islas artificiales, la deforestación, los incendios forestales, las tormentas o las plagas.

El informe resalta la importancia de conocer qué datos son adecuados para cada caso de uso específico. Por ejemplo, los datos se SENTINEL 2 MSI son adecuados para los servicios de vigilancia terrestre, gestión de emergencias y seguridad, mientras que los de SENTINEL 3 Altimetry están ligados a las áreas de vigilancia marina y cambio climático. Para ayudar en esta tarea de identificación, la guía incluye referencias a distintas guías de usuario con especificaciones sobre las misiones, los instrumentos utilizados para recopilar los datos y los productos de datos generados.
Caso práctico de uso de los datos de Copernicus
La segunda parte del informe se centra en un caso de uso particular que aborda en profundidad, incluyendo cómo descargar los datos apropiados, procesarlos y construir aplicaciones con ellos. En concreto, se aborda el mapeo del flujo de lava del volcán Etna utilizando datos del servicio de gestión de emergencias de Copernicus. El objetivo es realizar el seguimiento del impacto de las actividades volcánicas en la naturaleza y en las zonas urbanas.
En primer lugar, el informe muestra cómo buscar y descargar datos para esta área de interés. En este caso, se usan los productos de Sentinel-2 desde el Copernicus Open Access Hub. El punto de entrada para acceder a los datos de Copernicus es su propia web, que proporciona una visión general de los puntos de acceso a los datos. A través de distintas imágenes, el informe muestra las opciones de búsqueda y de filtro para localizar los datos adecuados.

Para visualizar y procesar los datos, se propone utilizar software comerciales como ArcGIS Pro, herramientas SIG gratuitas como QGIS, herramientas de procesamiento de código abierto como SNAP o bibliotecas de programación como GDAL. En el caso del ejemplo, se utiliza SNAP (Sentinel Application Platform), la plataforma de la Agencia Espacial Europea (ESA, en sus siglas en inglés), para ver el flujo de lava.
Al final del capítulo se ofrecen algunas explicaciones sobre la automatización del flujo de trabajo con la API del Open Access Hub y la herramienta SNAPgraph.
Conclusiones finales
El informe finaliza con varias conclusiones, entre las que destacan:
- Los usuarios pueden extraer un gran valor de los datos de Copernicus pero para ello necesitan estar familiarizados con las plataformas implicadas y las herramientas necesarias.
- Para la mayoría de los casos de uso, es necesario combinar los datos de Copernicus con datos in situ. El propio programa Copernicus utiliza datos procedentes de sensores terrestres, por ejemplo, para la calibración y validación de sus productos.
El papel de España en Copernicus
El Ministerio de Transportes, Movilidad y Agenda Urbana, a través del Instituto Geográfico Nacional, y el Ministerio para la Transición Ecológica (MITECO) representan a España en el Foro de Usuarios de Copernicus, para el seguimiento y evolución del programa. En esta entrevista Nuria Valcárcel, Subdirectora Adjunta (Observación del Territorio) de la Subdirección General de Geodesia y Cartografía, en la D.G. Instituto Geográfico Nacional (IGN) profundiza en los servicios de Copernicus y su utilidad en el ámbito económico y social.
En datos.gob.es también puedes encontrar esta otra entrevista a Stéphane Ourevitch, fundador de SpaceTec, que participó como ponente en el Encuentro Aporta 2019, donde nos cuenta la utilidad de los datos para la observación del Espacio y cómo desde el programa Copernicus se impulsa en emprendimiento a través de acciones como hackathons.
Los datos de Copernicus son de gran utilidad en todo el mundo. En nuestro país, también encontramos múltiples servicios y aplicaciones desarrollados en base a los datos de Copernicus, algunos de los cuales están recogidos en este artículo.
El Open Data Day fue la fecha elegida para el lanzamiento del EU Datathon 2021, un evento que ya va por su quinta edición. Organizado por la Oficina de Publicaciones de la Unión Europea en el marco de las primeras jornadas EU Open Data Days, busca poner de manifiesto el valor de los datos abiertos y mostrar las oportunidades de los modelos de negocio basados en ellos. Tienes más información sobre estas jornadas en esta nota de prensa.
Los equipos participantes deben crear una aplicación móvil o web que dé respuesta a retos relacionados con las prioridades de la Comisión Europea, utilizando conjuntos de datos abiertos.
3 retos a resolver
Los retos disponibles son:
- Reto 1: ‘A European Green Deal’. El Pacto Verde Europeo (European Green Deal, en inglés) es el plan para impulsar una economía europea moderna, sostenible y competitiva. Aquellos que elijan este reto deberán desarrollar aplicaciones o servicios dirigidos a crear una Europa más verde, por ejemplo, impulsando el uso eficiente de los recursos o reduciendo la contaminación.
- Reto 2: ‘An economy that works for people’. En este caso se buscan aplicaciones o servicios dirigidos a empresas, administraciones públicas o ciudadanos en general con el fin de crear una unión económica y monetaria más justa, que permita el crecimiento de las economías de los países miembro junto con la reducción de la pobreza y la desigualdad. En esta categoría tendría cabida, por ejemplo, una solución para impulsar la creación de empleo juvenil.
- Reto 3: ‘A Europe fit for the digital age’. La UE aspira a una transformación digital que funcione para las personas y las empresas. Por ello, en este reto se impulsa la creación de aplicaciones o servicios que mejoren las competencias en materia de datos, aumenten la conectividad o hagan que los datos sean más comprensibles para todos, tomando como base la Estrategia Europea de Datos.
Cada desafío se organiza como una competición independiente de igual importancia.
Las soluciones presentadas deben combinar al menos un conjunto de datos de data.europa.eu (EU Open Data Portal o European Data Portal) con cualquier otro conjunto de datos disponible públicamente.
¿Quién puede participar?
Está dirigido a ciudadanos de todo el mundo que estén interesado en crear prototipos de productos basados en datos abiertos públicos e incluso crear nuevos modelos de negocio con o sin ánimo de lucro a través de la exploración de dichos datos.
La participación está abierta a personas físicas o entidades jurídicas, integradas en equipos de entre uno y cuatro miembros.
No puede inscribirse el personal que trabaja en las instituciones, agencias, organismos, organizaciones asociadas o contratistas de la Oficina de Publicaciones de la UE.
¿Cómo se desarrolla la competición?
Los equipos participantes deben registrar su propuesta siguiendo este formulario antes del 21 de mayo de 2021 a las 23:59 CET (hora central europea). A partir de entonces la competición se desarrollará en 2 fase:
-
Preselección
Todas las propuestas serán evaluadas por el jurado, compuesto por expertos de dentro y fuera de las instituciones y agencias de la UE en base a una serie de criterios como son la pertinencia del reto seleccionado o el potencial y creatividad de la solución propuesta.
Para cada desafío, se preseleccionará un máximo de tres equipos que hayan obtenido el mayor número de puntos. Todos los equipos participantes recibirán la notificación de los resultados antes del 11 de junio de 2021.
-
Fase final
Se invitará a los equipos preseleccionados (tres por reto) a convertir sus propuestas en aplicaciones. Además, cada equipo preseleccionado deberá producir un video de 60 segundos, en el que presente su aplicación y el equipo que trabaja en ella, antes del 1 de agosto de 2021.
La final de la competición tendrá lugar el 25 de noviembre. Las aplicaciones presentadas en cada desafío serán evaluadas por un jurado compuesto por al menos cinco expertos. Además de la relevancia de la propuesta, se tendrán en cuenta los datos abiertos utilizados (potencial económico y social, interoperabilidad con otras fuentes de datos, etc.) y la adecuación al objetivo (madurez del producto, beneficios ofrecidos, etc.).

¿Cuál es el premio?
En total, se entregarán 99.000 euros (33.000 para cada reto), que se dividirán para cada reto de la siguiente manera:
- Primer puesto: 18.000 euros
- Segundo puesto: 10.000 euros
- Tercer puesto: 5.000 euros
Desde datos.gob.es te invitamos a presentar tu propuesta. ¡Mucha suerte a todos los participantes!
Más de 2.500 millones de toneladas. Esa es la cantidad de residuos que según la Unión Europea se producen cada año en el territorio comunitario –aunque el dato en concreto es de 2016-, con el consiguiente peligro para el medio ambiente y nuestro propio futuro. Esta preocupante situación está llevando a las instituciones europeas a fomentar un cambio de modelo en la gestión de residuos.
Durante años, la gestión de residuos ha sido lineal, es decir, se extraen los recursos naturales, que se usan para producir un determinado bien, que se consume y posteriormente se desecha. Este sistema requiere de grandes cantidades de energía y materiales baratos y de fácil acceso. Parte de este modelo también son prácticas como la obsolescencia programada, muy habitual en el ámbito tecnológico, donde la empresa “programa" el fin de la vida útil del producto, de tal forma que pasado un determinado periodo de tiempo este deja de funcionar.
Este modelo lineal no es viable a largo plazo y por ello cada vez más voces piden cambiarlo por una gestión basada en la economía circular.
¿Qué es la economía circular?
Cuando hablamos de economía circular nos referimos a un sistema económico que reemplaza el concepto de 'fin de vida útil' por el de “Reducir, reutilizar, reciclar y recuperar materiales en los procesos de producción, distribución y consumo”. Es decir, en vez de desechar los productos estos vuelven a entrar en el ciclo de producción, lo cual contribuye a crear calidad ambiental, prosperidad económica y equidad social, en beneficio de las generaciones actuales y futuras.
Gracias a estas acciones, podemos alargar el ciclo de vida de los productos al máximo y reducir los residuos al mínimo. Cuando un producto deja de funcionar, sus materiales todavía se pueden aprovechar para crear otros productos nuevos y mantenerse dentro de la economía siempre que sea posible.
Esta práctica conlleva numerosas ventajas, desde la reducción de las emisiones de gases de efecto invernadero hasta el ahorro económico para las empresas y los consumidores, que pueden disponer de productos más duraderos.
¿Cómo contribuyen los datos abiertos a fomentar la economía circular?
Al igual que en otros campos, la información que se obtiene a través de los datos abiertos puede ayudar a impulsar una mejor toma de decisiones sobre el uso eficiente de los recursos. Los datos pueden contribuir al entrenamiento de algoritmos para predecir ciertas tendencias y ayudar a ciudadanos, administraciones y empresas a implementar las medidas necesarias para garantizar un futuro sostenible.
En su artículo ‘Open Data and the Circular Economy’, el European Data Portal detalla 3 áreas donde los datos abiertos tienen un gran impacto en la economía circular:
- Un sistema de generación de alimentos más sostenible. Los datos abiertos pueden contribuir a resolver problemas logísticos, mejorar la eficiencia y garantizar la seguridad alimentaria. Los datos sobre la producción y la distribución, los cambios de temperatura que sufren los productos, el aumento del nivel del agua o el mapeo de la deforestación pueden mejorar la toma de decisiones estratégicas para regular la oferta y la demanda en toda Europa, evitando consumir recursos de más. En este sentido, destaca la investigación basada en datos abiertos de Smartchain, cuyo objetivo es desarrollar una cadena de suministro de alimentos más corta y sostenible.
- Gestión de recursos eficiente y optimización de residuos. El proceso de recogida selectiva y el uso de la capacidad total de las plantas de reciclaje se puede mejorar si contamos con la información apropiada. En este sentido, el Ayuntamiento de Santiago ha puesto en marcha un sistema inteligente de recogida de residuos sólidos urbanos utilizando tecnología IoT y algoritmos de aprendizaje automático enriquecidos con datos abiertos. En este ámbito la concienciación ciudadana también es fundamental a través de apps como EcoCity, que monitoriza la gestión de residuos en las ciudades y establece una serie de objetivos para mejorar los hábitos de reciclaje urbano y reducir la generación de residuos. Los usuarios pueden escoger el contenedor de reciclaje que desean monitorizar en su barrio. Si detectan alguna incidencia con los contenedores registrados, pueden enviar un aviso directamente al ayuntamiento de la localidad.
- Reducción de la contaminación. Los datos abiertos sobre la contaminación del aire o de nuestros mares ayudan a concienciar sobre la polución y sus riesgos para la salud. Este tipo de información puede mejorar el proceso de toma de decisiones para proteger la salud de los ciudadanos de la UE y el medio ambiente a través de medidas preventivas, como la paralización de la expansión del Aeropuerto de Heathrow, en Londres. Aplicaciones y visualizaciones como el Índice Nacional del Aire, Aire.cat o el explorador de ecosistemas de agua dulce muestran indicadores que permiten tomar conciencia de la realidad de nuestro entorno.
Así avanza la economía circular en Europa
La Comisión Europea presentó el pasado mes de marzo de 2020, en el marco del Pacto Verde Europeo, un nuevo Plan de acción para la Economía Circular que incluye propuestas sobre el diseño de productos más sostenibles, la reducción de residuos y el empoderamiento de los ciudadanos (como el “derecho a reparar").
Además, con el fin de aplicar de manera eficaz y eficiente el nuevo marco de productos sostenibles, la Comisión persigue realizar diversas acciones en materia de datos como:
- Establecer un espacio común europeo de datos relativos al Pacto Verde, para aplicaciones inteligentes con datos sobre las cadenas de valor e información de los productos.
- Proporcionar datos armonizados sobre las concentraciones de microplásticos en el agua de mar.
- Cooperar con la industria para desarrollar sistemas armonizados de seguimiento y gestión de la información sobre sustancias peligrosas, en sinergia con las medidas del marco de la política de productos sostenibles y la European Chemicals Agency (ECHA).
- Impulsar la publicación de datos medioambientales por parte de las empresas a través de la revisión de la directiva sobre información no financiera.
- Apoyar una iniciativa empresarial para desarrollar principios de contabilidad ambiental que complementen los datos financieros con datos de desempeño de la economía circular.
- Además, Horizon Europe apoyará el desarrollo de indicadores y datos, materiales y productos innovadores que ayuden a impulsar la economía circular.

En nuestro país, el impulso de la economía circular viene marcado por la Estrategia Española de Economía Circular 2030 (EEEC), entre cuyos objetivos para 2030 se encuentran reducir la generación de residuos en un 15% con respecto a 2010, mejorar un 10% la eficiencia en el uso del agua o reducir la emisión de gases de efecto invernadero por debajo de los 10 millones de toneladas de CO2 equivalente.
Vivimos en un contexto marcado por el aumento de la demanda de materias primas y escasez de recursos. Muchas de las materias primas son finitas y, al igual que la población mundial aumenta, también lo hace la demanda. Por ello, la economía circular se presenta como un elemento capital para el óptimo desarrollo del futuro de toda la población. Dentro de todas las iniciativas que ya se están llevando a cabo, los datos pueden jugar un papel fundamental a la hora de aumentar nuestro conocimiento e impulsar tecnologías que nos ayuden a todos los ciudadanos a avanzar hacia un futuro sostenible.
Contenido elaborado por el equipo de datos.gob.es.
El ecosistema de datos abiertos ha estado muy activo durante los últimos meses. El año 2020 ha finalizado ofreciéndonos dos novedades importantes. La primera, el Open Data Maturity Report publicado por el European Data Portal, donde España ha aumentado su posición global en un 5% y se mantiene entre los líderes del sector europeo. La segunda, la nueva Estrategia Nacional de la Inteligencia Artificial, que incluye una serie de medidas relacionadas con los datos abiertos.
Pero son muchas más las novedades que se han producido estos meses. Es este artículo te contamos algunos ejemplos, tanto a nivel nacional como local y regional.
Iniciativas estatales relacionadas con los datos abiertos
Además de la publicación de la Estrategia de Inteligencia Artificial, en las últimas semanas también se ha presentado el Plan de Digitalización de las Administraciones Públicas 2021-2025, que movilizará una inversión pública de, al menos, 2.600 millones de euros para los próximos tres años. Entre sus puntos, el plan destaca “la importancia de evolucionar el modelo de acceso a la información pública y privada para impulsar servicios de alto valor añadido”. Para ello tomará como base el trabajo desarrollado en materia de datos abiertos por la Iniciativa Aporta.
Además de estas acciones estratégicas, cabe destacar que algunos organismos estatales han aprovechado la época invernal para lanzar nuevos proyectos ligados a los datos abiertos:
- El Ministerio de Transportes, Movilidad y Agenda Urbana ha publicado su estudio de movilidad con Big Data que caracteriza la movilidad a nivel nacional, de comunidad autónoma, provincial y local durante la pandemia de COVID-19. Los datos generados en el estudio han sido puestos a disposición de los ciudadanos en formato de datos abiertos y han servido para elaborar una serie de indicadores.
- El Ministerio de Turismo ha puesto en marcha 'Dataestur', una plataforma que recoge datos básicos del turismo de España y desde donde se puede acceder a las distintas fuentes estadísticas turísticas procedentes de organismos públicos y privados.
Iniciativas Locales de datos abiertos
Durante estos últimos meses, diversos ayuntamientos e instituciones han llevado a cabo iniciativas relacionadas con los datos abiertos, como por ejemplo:
- El portal de datos abiertos del Gobierno de Aragón estrenó un nuevo servicio de chatbot que facilita a los ciudadanos el acceso a la información disponible en Aragón Open Data. Gracias a ello, los aragoneses pueden estar mejor informados y hacer uso de los datos de manera más accesible.
- La Comunidad de Murcia crea 'Educación en Gobierno Abierto' un nuevo programa educativo para acercar a los estudiantes conceptos como la rendición de cuentas o participación ciudadana.
- El Ayuntamiento de Santiago de Compostela ha desarrollado y construido nuevos recolectores inteligentes de superficie para la caracterización de los residuos sólidos orgánicos, a través del uso de tecnologías IoT y algoritmos entrenados con datos abiertos. Esta acción le permite avanzar en su camino hacia convertirse en una smart city.
- El Gobierno de Canarias estrenó su nuevo portal de datos abiertos, que cuenta con más de 7.500 datos. Gracias a ello, este portal ha logrado convertirse en el punto de acceso único con más datos de información pública registrados en toda España.
- La Comunidad de Madrid ha anunciado una nueva estrategia de datos abiertos para promover y reforzar la transparencia de la administración y favorecer un desarrollo económico basado en el conocimiento, la información y los datos.
- El Ayuntamiento de Ronda lanza “Geoportal Ronda” una nueva herramienta de datos abiertos espaciales a través de la cual ya se puede consultar toda la información geográfica y urbanística del término municipal.
- El Ayuntamiento de Málaga ha recibido un reconocimiento en los Premios IDC gracias a un proyecto municipal que pone en valor los datos abiertos y sus usos para mejorar la calidad de vida de la ciudadanía. En concreto, el Consistorio ha quedado tercero en la categoría de 'Desarrollo económico y compromiso ciudadano'.
- En dichos premios también ha sido galardonado el Ayuntamiento de Vigo en la categoría 'Planificación y administración' gracias la plataforma Smart City VCI+, que centraliza y estructura los datos de la ciudad para crear un cuadro de mando que permite una gestión local más eficaz. La plataforma incluye un portal de datos abiertos para que los ciudadanos puedan consultar datos de carácter municipal en diferentes formatos y utilizarlos así en ámbitos profesionales y particulares.
Novedades internacionales
Acabamos el repaso incluyendo algunos ejemplos de proyectos internacionales ligados con la materia:
- La Unión Europea está impulsando el proyecto EO4AGRI, que busca utilizar datos de observación terrestre del programa Copernicus para digitalizar el sector agrícola y adaptar la PAC a los nuevos tiempos.
- La Comisión Europea ha lanzado una consulta pública para recopilar opiniones sobre las iniciativas de interoperabilidad del sector público en la UE. La información recopilada se incorporará a la evaluación del Marco Europeo de Interoperabilidad (EIF). La fecha límite para participar es el 27 de abril.
- Una expedición internacional ha creado un conjunto de datos que recopila información sobre las dinámicas físicas y biológicas del Ártico para ayudar a entender mejor el cambio climático. De momento estos datos se utilizarán de forma exclusiva hasta el 1 de enero de 2023, cuando se publicarán en abierto.
- China ha presentado una plataforma pública de datos que permite comprobar los niveles de emisiones en tiempo real ver que fábricas e instituciones contaminan más.
- El Ministerio de Turismo y Deportes de Argentina ha lanzado un portal de datos abiertos utilizando Andino, una plataforma sobre CKAN.
Estos han sido tan solo algunos ejemplos que se pueden encontrar en el mundo de los datos abiertos, pero hay muchos más. Si conoces alguna otra novedad interesante que sea de interés, puedes hacer una mención en los comentarios o enviarnos un correo a la dirección dinamizacion@datos.gob.es.
El pasado mes de octubre, desde la Iniciativa Aporta, junto con la Secretaría de Estado de Digitalización e Inteligencia Artificial y Red.es, se lanzó la tercera edición del Desafío Aporta. Bajo el lema “El valor del dato en la educación digital” se buscaba premiar ideas y prototipos que fueran capaces de identificar nuevas oportunidades de captar, analizar y utilizar la inteligencia de los datos en el desarrollo de soluciones en el ámbito educativo.
Dentro de las propuestas presentadas en la Fase I, se pueden encontrar candidaturas de diversa índole. Han participado desde particulares, hasta equipos del ámbito académico universitario, instituciones educativas y empresas privadas, que han ideado plataformas web, aplicaciones móviles y soluciones interactivas con la analítica de datos y las técnicas de machine learning como protagonistas.
Un jurado de reconocido prestigio ha sido el encargado de evaluar las propuestas presentadas en base a una serie de criterios públicos. Las 10 soluciones seleccionadas como finalistas son:

EducaWood
- Equipo: Jimena Andrade, Guillermo Vega, Miguel Bote, Juan Ignacio Asensio, Irene Ruano, Felipe Bravo y Cristóbal Ordóñez.
¿En qué consiste?
EducaWood es un portal web socio-semántico que permite explorar la información forestal de una zona del territorio español y enriquecerla con anotaciones de árboles. El profesorado puede proponer actividades de aprendizaje medioambiental contextualizadas a su entorno. Los estudiantes realizan dichas actividades en visitas al campo mediante anotaciones de árboles (localización e identificación de especies, medidas, microhábitats, fotos, etc.) a través de sus dispositivos móviles. Además, EducaWood permite realizar visitas virtuales al campo y realizar actividades remotas con la información forestal disponible y con las anotaciones generadas por la comunidad, posibilitando así su uso por colectivos vulnerables y en escenarios Covid.
EducaWood utiliza fuentes como el Mapa Forestal Español, el Inventario Forestal Nacional o GeoNames, las cuales han sido integradas y republicadas como datos abiertos enlazados. Las anotaciones que se generan con las actividades de los estudiantes se publicarán también como datos abiertos enlazados, contribuyendo así al beneficio comunitario.
Educación en Datos. Innovación y Derechos Humanos.
- Equipo: María Concepción Catalán, Asociación Innovación y Derechos Humanos (ihr.world).
¿En qué consiste?
Esta propuesta plantea un portal web de educación en datos para estudiantes y docentes centrado en los Objetivos de Desarrollo Sostenible (ODS). Su principal objetivo es proponer a sus usuarios diferentes retos a resolver mediante el uso de datos, como por ejemplo ‘¿A qué se dedicaban las mujeres en España en 1920?’ o ‘¿Cuánta energía se necesita para mantener una granja de 200 cerdos?’.
Esta iniciativa utiliza datos de diversas fuentes como la ONU, el Banco Mundial, Our World in Data, la Unión Europea y cada uno de sus países. En el caso de España utiliza datos de datos.gob.es y el INE, entre otros.
UniversiDATA-Lab
- Equipo: Universidad Rey Juan Carlos, Universidad Complutense de Madrid, Universidad Autónoma de Madrid, Universidad Carlos III de Madrid y DIMETRICAL The Analytics Lab S.L.
¿En qué consiste?
UniversiDATA-Lab es un portal público y abierto cuya función es alojar un catálogo de análisis avanzados y automáticos de los conjuntos de datos publicados en el portal UniversiDATA, y que es fruto del trabajo colaborativo de las universidades. Surge como evolución natural de la sección "laboratorio" actual de UniversiDATA, abriendo el alcance de los análisis potenciales a todos los datasets/universidades presentes y futuros, con el fin de mejorar los aspectos analizados y estimular que las universidades sean laboratorios de ciudadanía, aportando un valor diferencial a la sociedad.
Todos los conjuntos de datos que las universidades están publicando o van a publicar en UniversiDATA son potencialmente utilizables para llevar a cabo análisis en profundidad, siempre considerando el respeto a la protección de datos personales. Las fuentes concretas de los análisis se publicarán en GitHub para favorecer la colaboración de otros usuarios para aportar mejoras.
LocalizARTE
- Equipo: Pablo García, Adolfo Ruiz, Miguel Luis Bote, Guillermo Vega, Sergio Serrano, Eduardo Gómez, Yannis Dimitriadis, Alejandra Martínez y Juan Ignacio Asensio.
¿En qué consiste?
Esta aplicación web persigue el aprendizaje de historia del arte a través de diferentes entornos educativos. Permite al alumnado visualizar y realizar tareas geoetiquetadas sobre un mapa. El profesorado puede proponer nuevas tareas, que son agregadas al repositorio público, además de seleccionar las tareas que puedan resultar más interesantes para su alumnado y visualizar las que realicen. Por otro lado, en el futuro se desarrollará una versión móvil de LocalizARTE en la que para realizar las tareas será necesario que el usuario se encuentre próximo al lugar donde estén geoetiquetadas.
Los datos abiertos que se utilizan en la primera versión de LocalizARTE provienen de la relación de monumentos históricos de Castilla y León, DBpedia, Wikidata, Casual Learn SPARQL y OpenStreetMap.
Estudio Datos PISA y datos.gob.es
- Equipo: Antonio Benito, Iván Robles y Beatriz Martínez.
¿En qué consiste?
Este proyecto se basa en la creación de un cuadro de mando que permite ver la información del informe PISA, realizado por la OCDE, u otras evaluaciones educativas junto con datos proporcionados por datos.gob.es de ámbito socioeconómico, demográfico, educativo o científico. El objetivo es detectar qué aspectos favorecen el incremento del rendimiento académico utilizando un modelo de machine learning, de tal forma que se pueda llevar a cabo una toma de decisiones eficaz. La idea es que los propios centros de estudio puedan adaptar sus prácticas y currículos educativos hacia las necesidades de aprendizaje del alumnado para garantizar un mayor éxito.
Esta aplicación utiliza diversos datos abiertos del INE, del Ministerio de Educación y Formación Profesional o de PISA España.
Big Data en Educación Secundaria… y lo secundario en Educación
- Equipo: Carmen Navarro, Colegio Nazaret Oporto.
¿En qué consiste?
Esta propuesta persigue dos objetivos: por un lado, mejorar la formación del alumnado de secundaria en competencias digitales, como el control de sus perfiles digitales en internet o el uso de datos abiertos para sus trabajos y proyectos. Por otro, la utilización de los datos generados por el alumnado en una plataforma e-learning del centro tipo Moodle para determinar patrones y métricas que permitan personalizar el aprendizaje. Todo ello alineado con los ODS y la Agenda 20-30.
Para su desarrollo se utilizan datos de la OMS y del datatón “Big Data en la lucha contra la obesidad”, donde diversos alumnos y alumnas propusieron medidas para mitigar la obesidad mundial en base al estudio de datos públicos.
DataLAB: el laboratorio de datos en la Educación
- Equipo: iteNlearning, Ernesto Ferrández Bru.
¿En qué consiste?
Los datos obtenidos con técnicas de Inteligencia Artificial empiristas como big data o machine learning ofrecen correlaciones, no causas. iteNleanring basa su tecnología en modelos científicos con evidencia, además de en datos (procedentes de fuentes como el INE o el Instituto Vasco de Estadística - Eustat). Estos datos son curados con el fin de asistir a los docentes en la toma de decisiones, una vez que DataLAB identifica las necesidades específicas de cada estudiante.
DataLAB Matemáticas es un instrumento educativo profesional que, partiendo de modelos neuropsicológicos y cognitivos, mide el nivel de neurodesarrollo de los procesos cognitivos específicos desarrollados por cada estudiante. Con ello genera un cuadro de mando educativo que, a partir de datos, nos informa de las necesidades específicas de cada persona (alta capacidad, discalculia...) con el objetivo de que puedan ser potenciadas y/o reforzadas, permitiendo una educación basada en evidencias.
El valor del podcast en la educación digital
- Equipo: Adrián Pradilla Pórtoles y Débora Núñez Morales.
¿En qué consiste?
2020 ha sido el año en que los podcasts han despegado como nuevo formato digital para el consumo de diferentes ámbitos de información. Esta idea busca aprovechar el auge de esta herramienta para utilizarla en el ámbito educativo y que el alumnado pueda aprender de una forma más amena y diferente.
La propuesta recoge los temarios oficiales de educación secundaria o universitaria, así como de oposiciones, que se pueden obtener de fuentes de datos abiertas y webs oficiales. A través de tecnologías de procesamiento del lenguaje natural, esos temarios se asocian con audios ya existentes del profesorado sobre historia, inglés, filosofía, etc. en plataformas como iVoox o Spotify, dando como resultado un listado de podcast por curso y materia.
Entre las fuentes de datos utilizadas para esta propuesta se incluyen la Oferta Pública de Empleo de Castilla La Mancha o las competencias educativas en diferentes etapas.
Proyecto MIPs
- Equipo: Aday Melián Carrillo, Daydream Software.
¿En qué consiste?
Un MIP (Marked Information Picture) es un nuevo soporte interactivo de información, que consiste en una serie de capas interactivas sobre imágenes estáticas que facilitan la retención de información y la identificación de elementos.
Este proyecto consiste en un servicio para la creación de MIPs de forma rápida y sencilla, dibujando manualmente regiones de interés sobre cualquier imagen importada a través de la web. Los MIPs creados serán accesible desde cualquier dispositivo y tienen múltiples aplicaciones como recurso docente, personal y profesional.
Además de la creación manual, los autores han implementado en Python un conversor de datos GeoJSON a MIP de forma automática. Como primer paso, han desarrollado un MIP de provincias españolas a partir de esta base de datos pública.
FRISCHLUFT
- Equipo: Harut Alepoglian y Benito Cuezva, Asociación Cultural Colegio Alemán, Zaragoza.
¿En qué consiste?
El proyecto Frischluft (Aire Fresco) es una solución hardware y software para la medición de parámetros ambientales en el colegio. Con ello se pretende mejorar el confort térmico de las aulas y aumentar la protección del alumnado a través de una ventilación inteligente, a la vez que se consolida un proyecto tractor que impulse la transformación digital del colegio.
Esta propuesta utiliza fuentes de datos del Ayuntamiento de Zaragoza sobre niveles de CO2 en el entorno urbano de la ciudad y repositorios de datos internacionales para la medición de emisiones globales, que se comparan a través de técnicas estadísticas y modelos de machine learning.
Próximos pasos
Todas estas ideas han sido capaces de plasmar cómo utilizar de manera óptima la inteligencia de los datos para desarrollar soluciones reales en el sector de la educación. Ahora, los finalistas cuentan con 3 meses para desarrollar un prototipo. Los tres prototipos que obtengan la mejor valoración del jurado, según los criterios de evaluación establecidos, serán premiados con 4.000, 3.000 y 2.000 euros respectivamente.
¡Mucha suerte a todos los participantes!
