Blog

Al igual que en otras industrias, la transformación digital está ayudando a cambiar las bases de funcionamiento del sector agrícola y forestal. Combinar tecnologías como la geolocalización o la inteligencia artificial y emplear conjuntos de datos abiertos para desarrollar nuevas herramientas de precisión está transformando la agricultura en una actividad cada vez más tecnológica y analítica.

En esta línea, desde las administraciones también se está avanzando para mejorar la gestión y la toma de decisiones ante los retos a los que nos enfrentamos. Así, el Ministerio de Agricultura, Pesca y Alimentación y el Ministerio para la Transición Ecológica y el Reto Demográfico han diseñado dos herramientas digitales que utilizan datos abiertos: Fruktia (previsión de cosechas en frutales) y Arbaria (gestión de incendios), respectivamente.

Predecir las cosechas para gestionar mejor las crisis

Fruktia es una herramienta predictiva desarrollada por el Ministerio de Agricultura para prever situaciones de sobreoferta en el sector de fruta de hueso y cítricos antes que los sistemas tradicionales de conocimiento de previsiones o aforos. Tras las crisis de precios sufridas en 2017 en fruta de hueso y en 2019 en cítricos debido a un exceso de oferta sobrevenida, se vio que la toma de decisiones para gestionar estas crisis basándose en sistemas de predicción tradicionales llegaron tarde y que era necesario adelantarse para adoptar medidas por parte de la administración e incluso por el propio sector más efectivas y que evitaran la caída de precios.

Como respuesta a esta crítica situación, desde el Ministerio de Agricultura decidieron elaborar una herramienta que fuese capaz de predecir las cosechas en función de la meteorología y los datos de producción de años anteriores. Una herramienta de uso interno del Ministerio y cuyo análisis se vería en las mesas de trabajo con el sector, pero que en ningún caso sería pública, evitando así su posible influencia en los mercados de una manera no controlable.

Fruktia existe gracias a que desde dicho ministerio han conseguido aunar la información procedente de dos vías principales: los datos abiertos y el conocimiento de expertos sectoriales. Estas fuentes de datos son recogidas por una Inteligencia Artificial que mediante tecnología Machine Learning y Deep Learning analiza la información para realizar previsiones concretas.

Los conjuntos de datos abiertos utilizados provienen de:

Con los datos anteriores y los datos estadísticos de estimaciones de cosecha de campañas pasadas (Avances de Producción y Anuarios del Ministerio de Agricultura, Pesca y Alimentación) junto con información específica del sector, Fruktia realiza dos tipos de predicciones de cosecha: a nivel regional (modelo de provincias) y a nivel explotación agrícola (modelo de recintos).

El modelo de provincias sirve para elaborar predicciones a nivel provincial (como indica su nombre) y analizar los resultados de cosechas anteriores con el objetivo de:

  • Anticipar los excesos de producción.
  • Prever las crisis del sector mejorando la toma de decisiones para gestionarlas.
  • Estudiar la evolución de cada producto por provincias.

Dicho modelo, si bien ya está desarrollado, sigue mejorándose para lograr la mejor adaptación a la realidad independientemente de las condiciones meteorológicas que se den.

Por otra parte, el modelo de recintos (aún en desarrollo) tiene como finalidad:

  • Previsiones de producción con un mayor nivel de detalle y para más productos (por ejemplo, se podrá conocer previsiones de producciones de cultivos de fruta de hueso como paraguayo o platerina de los que actualmente por fuentes estadísticas aún no tenemos información).
  • Saber cómo afectan a las cosechas fenómenos meteorológicos concretos en distintas regiones.

El modelo de recintos aún se está diseñando, y cuando esté en pleno funcionamiento también contribuirá a:

  • Mejorar la planificación de la comercialización.
  • Anticipar los excesos de producción a un nivel más local o para una tipología de producto concreta.
  • Predecir crisis antes de que se produzcan para anticiparse a sus efectos y no ir a una situación de caída de precios.
  • Localizar zonas o recintos con problemas en campañas concretas.

En otras palabras, la finalidad última de Fruktia es lograr la simulación de distintos tipos de escenarios que sirvan para adelantarse a los problemas de cada cosecha mucho antes de que esta se produzca para adoptar las decisiones adecuadas desde las administraciones.

Arbaria: ciencia de datos para prevenir incendios forestales

Un año antes del nacimiento de Fruktia, en 2019, el Ministerio de Agricultura, Pesca y Alimentación diseñó una herramienta digital para la predicción de incendios forestales que, a su vez, es coordinada desde el punto de vista forestal por el Ministerio para la Transición Ecológica y el Reto Demográfico.

Bajo el nombre de Arbaria, esta iniciativa del Ejecutivo busca analizar y predecir el riesgo de ocurrencia de incendios en ámbitos temporales y territoriales concretos del territorio español. En particular, gracias al análisis de los datos utilizados, es capaz de analizar la influencia socioeconómica en la ocurrencia de incendios forestales a escala municipal y anticipar el riesgo de incendio en campaña de verano a nivel provincial, mejorando así el acceso a los recursos necesarios para atajarlo.

La herramienta utiliza el histórico de datos de fuentes de información abierta como la AEMET o el INE, y los registros de la Estadística General de Incendios Forestales (EGIF). Para ello, se utilizan técnicas de Inteligencia Artificial relacionadas con el Deep y el Machine Learning, así como la tecnología en la nube de Amazon Web Services.

Sin embargo, el nivel de precisión que ofrece una herramienta como Arbaria no se debe solamente a la tecnología con la que ha sido diseñada, sino a la calidad de los datos abiertos seleccionados.

Considerar la realidad demográfica de cada municipio como una variable más a tener en cuenta es importante a la hora de determinar el riesgo de incendio. Es decir, conocer el número de empresas asentadas en una localidad, la actividad económica desarrollada en la misma, los habitantes censados o la cantidad de explotaciones agrícolas o ganaderas presentes es relevante para poder anticiparse al riesgo y crear campañas preventivas orientadas a sectores específicos.

Además, el histórico de datos de incendios forestales aglutinado en la Estadística General de Incendios Forestales es uno de los más completos del mundo. Existe un registro general de incendios desde el año 1968 y otro especialmente exhaustivo desde la década de los 90 hasta la actualidad, que incluye datos como la localización y características de la superficie del incendio, medios utilizados en la extinción, tiempo de extinción, causas del incendio o daños y perjuicios en la zona, entre otros.

Iniciativas como Fruktia o Arbaria sirven para demostrar cuál es el potencial económico y social que puede extraerse de los conjuntos de datos abiertos. Ser capaces de predecir, por ejemplo, la cantidad de melocotones que darán los frutales de un municipio de Almería ayuda no solo a planificar la creación de empleo en una zona, sino también a garantizar que las ventas y el consumo en una zona se mantienen estables.

Igualmente, ser capaces de predecir el riesgo de incendios amplia las herramientas para poder realizar una planificación más adecuada de su prevención y extinción.

calendar icon
Evento

El próximo 21 de noviembre tendrá lugar el primer Encuentro Nacional de Datos Abiertos en Barcelona. Se trata de una iniciativa impulsada y coorganizada por la Diputación de Barcelona, el Gobierno de Aragón y la Diputación de Castellón, con el fin de identificar y elaborar propuestas concretas que impulsen la reutilización de los datos abiertos.

Este primer encuentro estará centrado en el papel de los datos abiertos a la hora de desarrollar políticas de cohesión territorial que contribuyan a superar el reto demográfico

Agenda

La jornada comenzará a la 9:00 de la mañana y se extenderá hasta las 18:00 de la tarde.

Tras la inauguración, que correrá a cargo de Marc Verdaguer, diputado del Área de Innovación, gobiernos locales y cohesión territorial de la Diputación de Barcelona, tendrá lugar una ponencia principal, donde Carles Ramió, vicerrector de Planificación y Evaluación Institucional en la Universidad Pompeu Fabra, expondrán el contexto de la materia.

A continuación, la jornada se estructurará en cuatro sesiones donde se debatirá sobre los siguientes temas:

  • 10:30 horas. Estado de la cuestión: luces y algunas sombras de abrir y reutilizar datos
  • 12:30 horas. ¿Qué necesita y espera la sociedad de los portales de datos abiertos de las AAPP?
  • 15:00 horas. Apuesta local para luchar contra el despoblamiento a través de los datos abiertos
  • 16:30 horas. ¿Qué pueden hacer las AAPP usando sus datos para luchar conjuntamente contra la despoblación?

En la jornada participarán expertos ligados a diversas iniciativas de datos abiertos, organizaciones públicas y asociaciones empresariales. En concreto, la Iniciativa Aporta participará en la primera sesión, donde se hablará de los retos y oportunidades del uso de los datos abiertos.

La importancia de abordar el reto demográfico

Durante la jornada se abordará cómo el envejecimiento de la población, el aislamiento geográfico que dificulta el acceso a centros sanitarios, administrativos y educativos o la pérdida de la actividad económica afectan a los municipios de menor población, tanto rurales como urbanos. Una situación con gran repercusión en la sostenibilidad y abastecimiento de todo el país, así como en preservación de la cultura y la diversidad.

calendar icon
Documentación

1. Introducción

Las visualizaciones son representaciones gráficas de datos que permiten comunicar de manera sencilla y efectiva la información ligada a los mismos. Las posibilidades de visualización son muy amplias, desde representaciones básicas, como puede ser un gráfico de líneas, barras o sectores, hasta visualizaciones configuradas sobre cuadros de mando o dashboards interactivos. Las visualizaciones juegan un papel fundamental en la extracción de conclusiones a partir de información visual, permitiendo además detectar patrones, tendencias, datos anómalos o proyectar predicciones, entre otras muchas funciones. 

Antes de lanzarnos a construir una visualización efectiva, debemos realizar un tratamiento previo de los datos, prestando especial atención a la obtención de los mismos y validando su contenido, asegurando que se encuentran en el formato adecuado y consistente para su procesamiento y no contienen errores. Un tratamiento previo de los datos es primordial para realizar cualquier tarea relacionada con el análisis de datos y la realización de visualizaciones efectivas.

En la sección “Visualizaciones paso a paso” estamos presentando periódicamente ejercicios prácticos de visualizaciones de datos abiertos que están disponibles en el catálogo datos.gob.es u otros catálogos similares. En ellos abordamos y describimos de manera sencilla las etapas necesarias para obtener los datos, realizar las transformaciones y análisis que resulten pertinentes para, finalmente, crear visualizaciones interactivas, de las que podemos extraer información en forma de conclusiones finales.

En este ejercicio práctico, hemos realizado un sencillo desarrollo de código que está convenientemente documentado apoyandonos en herramientas de uso gratuito. 

Accede al repositorio del laboratorio de datos en Github.

Ejecuta el código de pre-procesamiento de datos sobre Google Colab.

 

2. Objetivo

El objetivo principal de este post es aprender a realizar una visualización interactiva partiendo de datos abiertos. Para este ejercicio práctico hemos escogido conjuntos de datos que contienen información relevante sobre los embalses nacionales. A partir de estos datos realizaremos el análisis de su estado y de su evolución temporal en los últimos años.

3. Recursos

3.1. Conjuntos de datos

Para este caso práctico se han seleccionado conjuntos de datos publicados por el Ministerio para la Transición Ecológica y el Reto Demográfico, que dentro del boletín hidrológico recoge series temporales de datos sobre él volumen de agua embalsada de los últimos años para todos los embalses nacionales con una capacidad superior a 5hm3. Datos históricos del volumen de agua embalsada disponibles en: 

También se ha seleccionado un conjunto de datos geoespaciales. Durante su búsqueda, se han encontrado dos posibles archivos con datos de entrada, el que contiene las áreas geográficas correspondientes a los embalses de España y el que contiene las presas que incluye su geoposicionamiento como un punto geográfico. Aunque evidentemente no son lo mismo, embalses y presas guardan relación y para simplificar este ejercicio práctico optamos por utilizar el archivo que contiene la relación de presas de España. Inventario de presas disponible en: https://www.mapama.gob.es/ide/metadatos/index.html?srv=metadata.show&uuid=4f218701-1004-4b15-93b1-298551ae9446 , concretamente: 

Este conjunto de datos contiene geolocalizadas (Latitud, Longitud) las presas de toda España con independencia de su titularidad. Se entiende por presa, aquellas estructuras artificiales que, limitando en todo o en parte el contorno de un recinto enclavado en el terreno, esté destinada al almacenamiento de agua dentro del mismo. 

Para generar los puntos geográficos de interés se realiza un procesamiento mediante la herramienta QGIS, cuyos pasos son los siguientes: descargar el archivo ZIP, cargarlo en QGIS y guardarlo como CSV incluyendo la geometría de cada elemento como dos campos que especifican su posición como un punto geográfico (Latitud y Longitud). 

También se he realizado un filtrado para quedarnos con los datos correspondientes a las presas de los embalses que tengan una capacidad mayor a 5hm3

3.2. Herramientas

Para la realización del preprocesamiento de los datos se ha utilizado el lenguaje de programación Python desde el servicio cloud de Google Colab, que permite la ejecución de Notebooks de Jupyter.

Google Colab o también llamado Google Colaboratory, es un servicio gratuito en la nube de Google Research que permite programar, ejecutar y compartir código escrito en Python o R desde tu navegador, por lo que no requiere la instalación de ninguna herramienta o configuración.

Para la creación de la visualización interactiva se ha usado la herramienta Google Data Studio.

Google Data Studio es una herramienta online que permite realizar gráficos, mapas o tablas que pueden incrustarse en sitios web o exportarse como archivos. Esta herramienta es sencilla de usar y permite múltiples opciones de personalización.

Si quieres conocer más sobre herramientas que puedan ayudarte en el tratamiento y la visualización de datos, puedes recurrir al informe \"Herramientas de procesado y visualización de datos\".

4. Enriquecimiento de los datos

Con la finalidad de aportar mayor información relacionada a cada una de las presas en el dataset con datos geoespaciales, se realiza un proceso de enriquecimiento de datos explicado a continuación. 

Para ello vamos a utilizar una herramienta útil para este tipo de tarea, OpenRefine. Esta herramienta de código abierto permite realizar múltiples acciones de preprocesamiento de datos, aunque en esta ocasión la usaremos para llevar a cabo un enriquecimiento de nuestros datos mediante la incorporación de contexto enlazando automáticamente información que reside en el popular repositorio de conocimiento Wikidata

Una vez instalada la herramienta en nuestro ordenador, al ejecutarse se abrirá una aplicación web en el navegador, en caso de que eso no ocurriese, se accedería a dicha aplicación tecleando en la barra de búsqueda del navegador \"localhost:3333\"

Pasos a seguir: 

  • Paso 1: Carga del CSV en el sistema (Figura 1). 

Figura 

Figura 1 - Carga de un archivo CSV en OpenRefine 

  • Paso 2: Creación del proyecto a partir del CSV cargado (Figura 2). OpenRefine se gestiona mediante proyectos (cada CSV subido será un proyecto), que se guardan en el ordenador dónde se esté ejecutando OpenRefine para un posible uso posterior. En este paso debemos dar un nombre al proyecto y algunos otros datos, como el separador de columnas, aunque lo más habitual es que estos últimos ajustes se rellenen automáticamente. 

 

Figura 2 - Creación de un proyecto en OpenRefine 

  • Paso 3: Enlazado (o reconciliación, usando la nomenclatura de OpenRefine) con fuentes externas. OpenRefine nos permite enlazar recursos que tengamos en nuestro CSV con fuentes externas como Wikidata. Para ello se deben realizar las siguientes acciones (pasos 3.1 a 3.3):
  • Paso 3.1: Identificación de las columnas a enlazar. Habitualmente este paso suele estar basado en la experiencia del analista y su conocimiento de los datos que se representan en Wikidata. Como consejo, habitualmente se podrán reconciliar o enlazar aquellas columnas que contengan información de carácter más global o general como nombres de países, calles, distritos, etc., y no se podrán enlazar aquellas columnas como coordenadas geográficas, valores numéricos o taxonomías cerradas (tipos de calles, por ejemplo). En este ejemplo, hemos encontrado la columna NOMBRE que contiene el nombre de cada embalse que puede servir como identificador único de cada ítem y puede ser un buen candidato para enlazar. 
  • Paso 3.2: Comienzo de la reconciliación. Comenzamos la reconciliación como se indica en la figura 3 y seleccionamos la única fuente que estará disponible: Wikidata(en). Después de hacer clic en Start Reconciling, automáticamente comenzará a buscar la clase del vocabulario de Wikidata que más se adecue basado en los valores de nuestra columna. 

 

Figura 3 – Inicio del proceso de reconciliación de la columna NOMBRE en OpenRefine 

  • Paso 3.3: Selección de la clase de Wikidata. En este paso obtendremos los valores de la reconciliación. En este caso como valor más probable, seleccionamos el valor de la propiedad  “reservoir” cuya descripción se puede ver en https://www.wikidata.org/wiki/Q131681, que corresponde a la descripción de un “lago artificial para acumular agua”. Únicamente habrá que pulsar otra vez en Start Reconciling. 

OpenRefine nos ofrece la posibilidad de mejorar el proceso de reconciliación agregando algunas características que permitan orientar el enriquecimiento de la información con mayor precisión. Para ello ajustamos la propiedad P4568 cuya descripción se corresponde con el identificador de un embalse en España, en el SNCZI-Inventario de Presas y Embalses, como se observa en la figura 4. 

 

Figura 4 - Selección de la clase de Wikidata que mejor representa los valores de la columna NOMBRE 

  • Paso 4: Generar una nueva columna con los valores reconciliados o enlazados. Para ello debemos pulsar en la columna NOMBRE e ir a “Edit Column → Add column based in this column”, dónde se mostrará un texto en la que tendremos que indicar el nombre de la nueva columna (en este ejemplo podría ser WIKIDATA_EMBALSE). En la caja de expresión deberemos indicar: “http://www.wikidata.org/entity/”+cell.recon.match.id y los valores aparecen como se previsualiza en la Figura 6.  “http://www.wikidata.org/entity/” se trata de una cadena de texto fija para representar las entidades de Wikidata, mientras el valor reconciliado de cada uno de los valores lo obtenemos a través de la instrucción cell.recon.match.id, es decir, cell.recon.match.id(“ALMODOVAR”) = Q5369429. 

Mediante la operación anterior, se generará una nueva columna con dichos valores. Con el fin de comprobar que se ha realizado correctamente, haciendo clic en una de las celdas de la nueva columna, está debería conducir a una página web de Wikidata con información del valor reconciliado.  

El proceso lo repetimos para añadir otro tipo de información enriquecida como la referencia en Google u OpenStreetMap. 

Interfaz 

Figura 5 - Generación de las entidades de Wikidata gracias a la reconciliación a partir de una nueva columna 

  • Paso 5: Descargar el CSV enriquecido. Utilizamos la función Export → Custom tabular exporter situada en la parte superior derecha de la pantalla y seleccionamos las características como se indica en la Figura 6.  

Figura 

Figura 6 - Opciones de descarga del fichero CSV a través de OpenRefine 

Volver al inicio

 

5. Preprocesamiento de datos

Durante el preprocesamiento es necesario realizar un análisis exploratorio de los datos (EDA) con el fin de interpretar adecuadamente los datos de partida, detectar anomalías, datos ausentes o errores que pudieran afectar a la calidad de los procesos posteriores y resultados, además de realizar las tareas de transformación y preparación de las variables necesarias. Un tratamiento previo de los datos es esencial para garantizar que los análisis o visualizaciones creadas posteriormente a partir de ellos son confiables y consistentes. Si quieres conocer más sobre este proceso puedes recurrir a la Guía Práctica de Introducción al Análisis Exploratorio de Datos.

Los pasos que se siguen en esta fase de preprocesamiento son los siguientes: 

  1. Instalación y carga de librerías
  2. Carga de archivos de datos de origen
  3. Modificación y ajuste de las variables
  4. Detención y tratamiento de datos ausentes (NAs)
  5. Generación de nuevas variables
  6. Creación de tabla para visualización \"Evolución histórica de la reserva hídrica entre los años 2012 y 2022\"
  7. Creación de tabla para visualización \"Reserva hídrica (hm3) entre los años 2012 y 2022\"
  8. Creación de tabla para visualización \"Reserva hídrica (%) entre los años 2012 y 2022\"
  9. Creación de tabla para visualización \"Evolución mensual de la reserva hídrica (hm3) para distintas series temporales\"
  10. Guardado de las tablas con los datos preprocesados 

Podrás reproducir este análisis, ya que el código fuente está disponible en este repositorio de GitHub. La forma de proporcionar el código es a través de un documento realizado sobre un Jupyter Notebook que una vez cargado en el entorno de desarrollo podrás ejecutar o modificar de manera sencilla. Debido al carácter divulgativo de este post y con el fin de favorecer el aprendizaje de lectores no especializados, el código no pretende ser el más eficiente, sino facilitar su comprensión por lo que posiblemente se te ocurrirán muchas formas de optimizar el código propuesto para lograr fines similares. ¡Te animamos a que lo hagas! 

Puedes seguir los pasos y ejecutar el código fuente sobre este notebook en Google Colab.  

6. Visualización de datos 

Una vez hemos realizado un preprocesamiento de los datos, vamos con las visualizaciones. Para la realización de estas visualizaciones interactivas se ha usado la herramienta Google Data Studio. Al ser una herramienta online, no es necesario tener instalado un software para interactuar o generar cualquier visualización, pero sí es necesario que las tablas de datos que le proporcionemos estén estructuradas adecuadamente.  

Para abordar el proceso de diseño del conjunto de representaciones visuales de los datos, el primer paso es plantearnos las preguntas que queremos resolver. Proponemos las siguientes: 

  • ¿Cuál es la localización de los embalses dentro del territorio nacional? 
  • ¿Qué embalses son los de mayor y menor aporte de volumen de agua embalsada (reserva hídrica en hm3) al conjunto del país? 

  • ¿Qué embalses poseen el mayor y menor porcentaje de llenado (reserva hídrica en %)? 

  • ¿Cuál es la tendencia en la evolución de la reserva hídrica en los últimos años? 

¡Vamos a buscar las respuestas viendo los datos! 

6.1. Localización geográfica y principal información de cada embalse

Esta representación visual se ha realizado teniendo en cuenta las coordenadas geográficas de los embalses y distinta información asociada a cada uno de ellos. Para ello se ha generado durante el preprocesamiento de datos la tabla “geo.csv” 

Mediante un mapa de puntos geográficos se visualiza la localización de los embalses en el territorio nacional. 

Una vez obtenido el mapa, pinchando en cada uno de los embalses podemos acceder a información complementaria sobre dicho embalse en la tabla inferior. También, mediante las pestañas despegables, aparece la opción de filtrar el mapa por demarcación hidrográfica y por embalse.

Ver la visualización en pantalla completa

6.2. Reserva hídrica (hm3) entre los años 2012 y 2022

Esta representación visual se ha realizado teniendo en cuenta la reserva hídrica (hm3) por embalse entre los años los años 2012 (inclusive) y 2022. Para ello se ha generado durante el preprocesamiento de datos la tabla “volumen.csv” 

Mediante un gráfico de jerarquía rectangular se visualiza de forma intuitiva la importancia de cada embalse en cuanto a volumen embalsado dentro del conjunto nacional para el periodo temporal anteriormente indicado. 

Una vez obtenido el gráfico, mediante las pestañas despegables, aparece la opción de filtrar la visualización por demarcación hidrográfica y por embalse. 

Ver la visualización en pantalla completa

6.3. Reserva hídrica (%) entre los años 2012 y 2022

Esta representación visual se ha realizado teniendo en cuenta la reserva hídrica (%) por embalse entre los años 2012 (inclusive) y 2022. Para ello se ha generado durante el preprocesamiento de datos la tabla “porcentaje.csv” 

Mediante un gráfico de barras se visualiza de forma intuitiva el porcentaje de llenado de cada embalse para el periodo temporal anteriormente indicado. 

Una vez obtenido el gráfico, mediante las pestañas despegables, aparece la opción de filtrar la visualización por demarcación hidrográfica y por embalse. 

Ver la visualización en pantalla completa

6.4. Evolución histórica de la reserva hídrica entre los años 2012 y 2022

Esta representación visual se ha realizado teniendo en cuenta los datos históricos de la reserva hídrica (hm3 y %) para todas las mediciones semanales registradas entre los años 2012(inclusive) y 2022. Para ello se ha generado durante el preprocesamiento de datos la tabla “lineas.csv” 

Mediante gráficos de líneas y sus líneas de tendencia se visualiza la evolución temporal de la reserva hídrica (hm3 y %). 

Una vez obtenido el gráfico, mediante las pestañas desplegables, podemos modificar la serie temporal, filtrar por demarcación hidrográfica y por embalse.

Ver la visualización en pantalla completa

6.5. Evolución mensual de la reserva hídrica (hm3) para distintas series temporales

Esta representación visual se ha realizado teniendo en cuenta la reserva hídrica (hm3) de los distintos embalses desglosada por meses para distintas series temporales (cada uno de los años desde el 2012 hasta el 2022). Para ello se ha generado durante el preprocesamiento de datos la tabla “lineas_mensual.csv” 

Mediante un gráfico de líneas se visualízala la reserva hídrica mes a mes para cada una de las series temporales. 

Una vez obtenido el gráfico, mediante las pestañas desplegables, podemos filtrar por demarcación hidrográfica y por embalse. También tenemos la opción de elegir la serie o series temporales (cada uno de los años desde el 2012 hasta el 2022) que queremos visualizar mediante el icono que aparece en la parte superior derecha del gráfico. 

Ver la visualización en pantalla completa

7. Conclusiones

La visualización de datos es uno de los mecanismos más potentes para explotar y analizar el significado implícito de los datos, independientemente del tipo de dato y el grado de conocimiento tecnológico del usuario. Las visualizaciones nos permiten construir significado sobre los datos y la creación de narrativas basadas en la representación gráfica. En el conjunto de representaciones gráficas de datos que acabamos de implementar se puede observar lo siguiente: 

  • Se observa una tendencia significativa en la disminución del volumen de agua embalsada por el conjunto de embalses nacionales entre los años 2012 y 2022. 

  • El año 2017 es el que presenta valores más bajos de porcentaje de llenado total de los embalses, llegando a ser este inferior al 45% en ciertos momentos del año. 

  • El año 2013 es el que presenta valores más altos de porcentaje de llenado total de los embalses, llegando a ser este superior al 80% en ciertos momentos del año. 

Cabe destacar que en las visualizaciones tienes la opción de filtrar por demarcación hidrográfica y por embalse. Te animamos a lo que lo hagas para sacar conclusiones más específicas de las demarcaciones hidrográficas y embalses que estés interesado. 

Esperemos que esta visualización paso a paso te haya resultado útil para el aprendizaje de algunas técnicas muy habituales en el tratamiento y representación de datos abiertos. Volveremos para mostraros nuevas reutilizaciones. ¡Hasta pronto! 

calendar icon
Documentación

Este informe que publica el European Data Portal (EDP) tiene como objetivo ayudar a los usuarios de datos abiertos en el aprovechamiento del potencial de los datos generados por el programa Copernicus.

El proyecto Copernicus genera datos de alto valor obtenidos vía satélite, generando una gran cantidad de datos sobre la observación terrestre, en consonancia con el objetivo del portal Europeo de Datos de aumentar la accesibilidad y el valor de los datos abiertos.

El informe aborda las siguientes cuestiones, ¿Qué puedo hacer con los datos de Copernicus?, ¿Cómo puedo acceder a los datos? ,y ¿Qué herramientas necesito para utilizar los datos? utilizando la información que se encuentra en el Portal Europeo de Datos, catálogos especializados y examinando ejemplos prácticos de aplicaciones que usen datos de Copernicus.

Este informe se encuentra disponible en este enlace: "Copernicus data for the open data community"

calendar icon
Blog

El favorable régimen de acceso a la información medioambiental

La legislación sobre medio ambiente se ha caracterizado tradicionalmente por establecer un régimen jurídico más beneficioso que el que ha inspirado la normativa general sobre acceso a la información en poder del sector público. En efecto, la Convención de Aarhus, adoptada en 1998, supuso un importante hito al reconocer el derecho de acceso a la información medioambiental en condiciones jurídicas muy avanzadas, imponiendo relevantes obligaciones para las autoridades públicas. En concreto, la Convención parte de una premisa inexcusable: para que la sociedad pueda disfrutar del derecho a un medio ambiente saludable y cumplir el deber de respetarlo y protegerlo debe tener un acceso relevante a la información medioambiental. A tal efecto, de una parte, se reconocía el derecho a obtener información en poder de las autoridades públicas y, de otra, se estableció una obligación dirigida a estas últimas para que hicieran pública cierta información sin que existiera una solicitud previa.

En ejecución de dicho tratado internacional y, en concreto, de las obligaciones asumidas por la Unión Europea a través de la Directiva 2003/4/CE del Parlamento Europeo y del Consejo, de 28 de enero de 2003, relativa al acceso del público a la información medioambiental, se aprobó la Ley 27/2006, de 18 de julio, por la que se regulan los derechos de acceso a la información, de participación pública y de acceso a la justicia en materia de medio ambiente. A diferencia del régimen general que contempla la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno, la ley 27/2006 no contiene referencia alguna a los a los formatos abiertos y reutilizables. Sin embargo sí incluye los siguientes avances:

  • establece la obligación de proporcionar la información incluso cuando, sin haberla generado directamente en el ejercicio de sus funciones, se encuentre en poder de la entidad a la que se solicita;
  • exige que los motivos de denegación de la solicitud de acceso se interpreten de manera restrictiva, de manera que en caso de duda a la hora de interpretar las excepciones previstas legalmente se ha de favorecer el acceso a la información;
  • para los supuestos en que no se resuelva y notifique la solicitud en el plazo establecido se aplica la regla del silencio positivo y, por tanto, se entenderá otorgado el acceso.

La incidencia de la normativa sobre datos abiertos y reutilización de la información del sector público

Al igual que sucediera en la anterior regulación, la Directiva (UE) 1024/2019 excluye su aplicación en aquellos supuestos en los que la correspondiente regulación de los Estados miembros limite el acceso. No sería este, por tanto, el caso del medio ambiente ya que, al margen de los supuestos en los que no procede el acceso, con carácter general la disponibilidad de la información se encuentra especialmente asegurada. En consecuencia, salvo por lo que se refiere a las excepciones legales a la obligación de facilitar información ambiental, no existen restricciones específicas que supongan un obstáculo a la hora de facilitar su reutilización.

Por otro lado, entre las principales novedades de normativa europea destaca una medida que, en última instancia, obliga a que los Estados miembros adapten su regulación por lo que se refiere al acceso a la información medioambiental. En efecto, el capítulo V de la Directiva establece un régimen singular para los denominados conjuntos de datos de alto valor que, con carácter general, estarán disponibles gratuitamente, serán legibles por máquina, se suministrarán a través de API y, cuando proceda, se proporcionarán en forma de descarga masiva. Precisamente, este régimen jurídico tan favorable se contempla, entre otros, para el ámbito de la Observación de la Tierra y el Medio Ambiente, si bien los conjuntos de datos específicos a los que se aplicará están todavía pendiente de una decisión por parte de la Comisión Europea tras la elaboración de un extenso análisis de impacto cuyo resultado definitivo se encuentra aún pendiente de concretar.

Por otra parte, siguiendo el modelo regulatorio europeo, entre las novedades que el Real Decreto-ley 24/2021, de 2 de noviembre ha incorporado a la legislación española sobre reutilización de la información del sector público destaca una referida a los datos de alto valor. En concreto, el artículo 3.ter de la Ley 37/2007 contempla la posibilidad de que, además de los conjuntos de datos que establezca la Comisión Europea, se puedan añadir otros a nivel nacional por el Ministerio de Asuntos Económicos y Transformación Digital teniendo en cuenta la selección que realice la División Oficina del Dato, de manera que se podrían ampliar, en su caso, los referidos específicamente al medio ambiente.

El potencial de los datos de alto valor relativos al medio ambiente

Como señala la propia regulación europea, la reutilización de los conjuntos de datos de alto valor se plantea como una herramienta para facilitar, entre otros objetivos, la creación y dinamización de aplicaciones y servicios digitales de valor añadido que tengan el potencial de generar considerables beneficios para la sociedad, el medio ambiente y la economía. Así, en este ámbito los datos abiertos pueden tener un importante papel a la hora de afrontar desde la innovación tecnológica a desafíos de enorme relevancia como el cambio climático, la deforestación y, en general, los retos que plantea la conservación del medio ambiente.

Por otro lado, el desarrollo de aplicaciones y servicios digitales puede servir para dinamizar las zonas rurales e impulsar modelos turísticos que pongan en valor el conocimiento y la protección de los recursos naturales, sobre todo teniendo en cuenta el rico y variado patrimonio natural existente en España, para lo cual resulta imprescindible disponer de conjuntos de datos específicos, en particular por lo que se refiere a los espacios naturales.

En última instancia, desde la perspectiva y las exigencias del Gobierno Abierto, la accesibilidad de la información ambiental, según los estándares de los datos de alto valor conforme a las previsiones de la normativa sobre reutilización de la información del sector público, podría tener un refuerzo destacado al facilitar el control social de las decisiones de las entidades públicas y la participación ciudadana. Sin embargo, para ello resulta imprescindible superar el modelo en que se ha sustentado tradicionalmente el marco normativo sobre acceso a la información ambiental ya que, aun cuando en su momento supuso un avance destacado, lo cierto es que la regulación de 2006 no incorpora referencia alguna a las posibilidades de innovación tecnológica basadas en los datos abiertos.

En definitiva, parece llegado el momento de suscitar un debate acerca de una eventual actualización de la normativa sectorial sobre acceso a la información medioambiental con la finalidad de dar cumplimiento a las exigencias del régimen jurídico contemplado en la Directiva (UE) 1024/2019.


Contenido elaborado por Julián Valero, catedrático de la Universidad de Murcia y Coordinador del Grupo de Investigación “Innovación, Derecho y Tecnología” (iDerTec).

Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.

calendar icon
Aplicación

La aplicación Liight es el proyecto ganador de nuestro I Desafío Aporta. Se trata de una app que gamifica la sostenibilidad incentivando a las personas a ser más sostenibles en su día. A través de sistemas de smart city y mecánicas de gamificación, se bonifica el uso del transporte público, la bicicleta o el reciclaje.

Esta app funciona a través de un sistema de recompensa, los Liights, una moneda virtual que los usuarios pueden canjear obteniendo distintos descuentos y premios directos en productos y servicios. Liight verifica la realización de las acciones mediante algoritmos propios y cruzando los datos recogidos, a través de los sensores del smartphone y cruzándolos con bases de datos públicas y privadas, así como dispositivos IoT (RecyclIoT).

calendar icon
Noticia

La apertura de datos es fundamental en el campo de la ciencia. Los datos abiertos facilitan la colaboración científica y enriquecen las investigaciones dotándolas de una mayor profundidad. Gracias a este tipo de datos podemos conocer mejor nuestro entorno y llevar a cabo análisis más certeros para fundamentar las decisiones.

Además de los recursos incluidos en portales de datos generalistas, cada vez son más los bancos de datos abiertos que podemos encontrar centrados en ámbitos concretos de las ciencias naturales y el medio ambiente. En este artículo te acercamos 10 de ellos.

10 repositorios de datos públicos relacionados con las ciencias naturales y el medio ambiente   cuerpo: NASA Open Data Portal, Copernicus, Climate Data Online, AlphaFold Protein Structure Database, Free GIS DATA, GBIF (Global Biodiversity Information Facility), EDI Data Portal, PANGAEA, re3data, IRIS

NASA Open Data Portal

  • Publicador: NASA

El portal data.nasa.gov centraliza datos abiertos geoespaciales de la NASA, generados fruto de su rico historial de misiones planetarias, lunares y terrestres. Cuenta con casi 20.000 usuarios únicos mensuales y más de 40.000 conjuntos de datos. Un pequeño porcentaje de estos conjuntos de datos está alojado directamente en data.nasa.gov, pero en la mayoría de los casos se ofrecen metadatos y los enlaces a otros proyectos de la agencia espacial. 

data.nasa.gov incluye gran cantidad de temáticas, desde datos relacionados con pruebas de cohetes hasta mapas geológicos de Marte. Los datos se ofrecen en múltiples formatos, dependiendo de cada publicador.

El sitio se enmarca en el proyecto Open Innovation Sites, junto con api.nasa.gov, un espacio para el intercambio de información sobre las API de la NASA, y code.nasa.gov, donde se recopilan los proyectos de código abierto de la NASA.

Copernicus

  • Publicador: Copernicus

COPERNICUS es el programa de observación de la Tierra de la Unión Europea. Liderado por la Comisión Europea, con la colaboración de los estados miembros y diversas agencias y organizaciones europeas, recopila, almacena, combina y analiza datos obtenidos a través de la observación por satélite y por sistemas de sensores in situ terrestres, aéreos y marítimos.

Ofrece datos a través de 6 servicios: emergencias, seguridad, vigilancia marina, vigilancia terrestre, cambio climático y vigilancia atmosférica. Los dos puntos principales de acceso a los datos satelitales de Copernicus están gestionados por la ESA: la Plataforma de acceso abierto de Copernicus -que cuenta con una API- y el CSCDA (acceso a los datos del componente espacial de Copernicus). Otros puntos de acceso a los datos satelitales de Copernicus están gestionados por la Eumetsat.

Climate Data Online

  • Publicador: NOAA (National Centers for Environmental Information)

Climate Data Online (CDO) de la agencia del gobierno americana NOAA proporciona acceso gratuito a datos meteorológicos y climáticos históricos a nivel mundial. En concreto, se ofrecen 26.000 conjuntos de datos, que incluyen mediciones diarias, mensuales, estacionales y anuales de parámetros como la temperatura, las precipitaciones o el viento, entre otros. La mayoría de los datos se pueden descargar en formato CSV.

Para acceder a la información, los usuarios pueden utilizar, entre otras funcionalidades, una herramienta de búsqueda, una API o un visor de mapas donde se pueden mostrar una gran variedad de datos en el mismo entorno de visualización, lo que permite relacionar variables con ubicaciones específicas.

AlphaFold Protein Structure Database

  • Publicador: DeepMind y EMBL-EBI

AlphaFold es un sistema de inteligencia artificial desarrollado por la compañía DeepMind que predice la estructura 3D de una proteína a partir de su secuencia de aminoácidos. En colaboración con el Instituto Europeo de Bioinformática del EMBL (EMBL-EBI), DeepMind ha creado esta base de datos que facilita el acceso gratuito de la comunidad científica a dichas predicciones.

La primera versión cubre el proteoma humano y los proteomas de otros organismos clave, pero la idea es seguir ampliando la base de datos para que cubra una gran proporción de todas las proteínas catalogadas (más de 100 millones). Los datos pueden descargarse en formato mmCIF o PDB, ampliamente aceptados por los programas de visualización de estructuras 3D, como PyMOL y Chimera.

Free GIS DATA

  • Publicador: Robin Wilson, experto en el área GIS.

Free GIS Data recoge el esfuerzo de Robin Wilson, freelance experto en teledetección, GIS, ciencia de los datos y Python. En ella los usuarios pueden encontrar una lista clasificada de enlaces a más de 500 sitios web que ofrecen conjuntos de datos geográficos de libre acceso, todos ellos listos para ser cargados en un Sistema de Información Geográfica. Puedes encontrar datos sobre clima, hidrología, ecología, desastres naturales, recursos minerales, gas y petróleo, transportes y comunicaciones o usos de la tierra, entre otras muchas categorías.

Aquellos usuarios que lo deseen pueden contribuir con nuevos datasets, enviándolos por email a robin@rtwilson.com.

GBIF (Global Biodiversity Information Facility)

  • Publicador: GBIF

GBIF es una iniciativa intergubernamental formada por países y organizaciones internacionales, que colaboran en el avance del acceso libre y abierto a los datos sobre biodiversidad. A través de sus nodos, los países participantes proporcionan datos sobre registros de especies en base a normas comunes y herramientas de código abierto. En España, el nodo nacional es GBIF-ES, patrocinado por el Ministerio Español de Ciencia e Innovación y gestionado por el Consejo Superior de Investigaciones Científicas (CSIC).

Los datos que ofrece proceden de muchas fuentes, desde los especímenes que se encuentran en los museos y que fueron recogidos en los siglos XVIII y XIX hasta las fotos geoetiquetadas realizadas con teléfonos inteligentes y compartidas por naturalistas aficionados. Actualmente cuenta con más de 1.800 millones de registro y 63.000 datasets de gran utilidad para investigadores que estén realizando estudios ligados al ámbito de la biodiversidad y público en general. También puedes acceder a su API aquí.

EDI Data Portal

  • Publicador: Environmental Data Initiative (EDI)

La Environmental Data Initiative (EDI) promueve la conservación y reutilización de datos medioambientales, dando soporte a investigadores para que archiven y publiquen los datos de investigaciones financiadas con fondos públicos. Todo ello siguiendo los principios FAIR y utilizando el estándar Ecological Metadata Language (EML).

El portal de datos EDI contiene los paquetes de datos medioambientales y ecológicos aportados, a los que se puede acceder mediante un buscador o una API. Los usuarios deben ponerse en contacto con el proveedor de los datos antes de utilizarlos en cualquier investigación. Estos datos deben citarse adecuadamente cuando se utilicen en una publicación. Para ello se proporciona un identificador de objeto digital (DOI, en inglés).  

PANGAEA

  • Publicador: World Data Center PANGEA

El sistema de información PANGAEA funciona como una biblioteca de acceso abierto destinada a archivar, publicar y distribuir datos georreferenciados procedentes de investigaciones sobre el sistema terrestre.

Cualquier usuario puede dar de alta datos ligados a las ciencias naturales. PANGAEA cuenta con un equipo de editores que se encargan de comprobar la integridad y coherencia de los datos y metadatos. Actualmente incluye más de 400.000 conjuntos de datos pertenecientes a más de 650 proyectos. Los formatos en los que están disponibles son variados: puedes encontrar desde archivos de texto/ASCII o delimitados por tabulaciones, hasta objetos binarios (por ejemplo, datos sísmicos y modelos, entre otros) u otros formatos que siguen las normas ISO (como imágenes o películas).

re3data

  • Publicador: DataCite

Re3data es un registro mundial de repositorios de datos de investigación que abarca bases de datos de diferentes disciplinas académicas disponibles de forma gratuita. Incluye desde datos relacionados con las ciencias naturales, la medicina o la ingeniería, hasta aquellos ligados con áreas de humanidades.

Actualmente ofrece descripciones detalladas de más de 2.600 repositorios. Estas descripciones se basan en el esquema de metadatos de re3data y se puede acceder a ellas a través de la API de re3data. En este repositorio de Github puedes encontrar ejemplos para utilizar la API de re3data. Dichos ejemplos se implementan en R utilizando Jupyter Notebooks.

IRIS

  • Publicador: Incorporated Research Institutions for Seismology (IRIS)

IRIS es un consorcio de más de 100 universidades estadounidenses dedicado a la explotación de instalaciones científicas para la adquisición, gestión y distribución de datos sismológicos. A través de esta web cualquier ciudadano puede acceder a diversos recursos y datos relacionados con los terremotos que tienen lugar en todo el mundo.

Recoge datos de series temporales, incluyendo grabaciones de sensores de una variedad de mediciones. Entre los metadatos disponibles está la ubicación de la estación de la que se han obtenido los datos y su instrumentación. Además, permite el acceso a datos sísmicos históricos, incluidos los sismogramas escaneados y otra información procedente de fuentes pre-digitales.

Los datos están disponibles en formato SEED (el estándar internacional para el intercambio de datos sismológicos digitales), ASCII o SAC (Seismic Analysis Code).

 

¿Conoces más repositorios internacionales con datos relacionados con las ciencias naturales y el medio ambiente? Déjanos un comentario o mándanos un email a dinamizacion@datos.gob.es.

calendar icon
Evento

El alcázar de Jerez de la Frontera albergará, los días 23 y 24 de septiembre, el II Encuentro Regional de Municipios Inteligentes. Su objetivo es avanzar en el desarrollo inteligente de los municipios de Andalucía, en sintonía con los Objetivos de Desarrollo Sostenible de la ONU. El evento está organizado por la Diputación de Cádiz y la Federación Andaluza de Municipios y Provincias, con la colaboración de la Junta de Andalucía, el Ayuntamiento de Jerez, la Universidad de Cádiz y el Smart City Cluster.

Durante dos días tendrán lugar más de 20 ponencias y mesas redondas. La industria 4.0, la inteligencia artificial, el SmartAgriFood o la administración digital son algunos de los temas que se tratarán. El programa completo se puede ver aquí.

El evento también albergará un hackathon con el fin de impulsar el uso y la inteligencia de datos

Hack4ERMI2021

Bajo el lema “Objetivo Territorio Inteligente y Resiliente”, los participantes en el hackathon tendrán que poner en marcha su pensamiento creativo e innovador para buscar soluciones concretas y factibles a 4 desafíos:

  1. Transición ecológica, cambio climático y sostenibilidad ambiental
  2. Resiliencia y seguridad
  3. Economía del dato, competitividad y progreso
  4. Salud y bienestar

Todas las soluciones deberán tener en común el uso y aprovechamiento de conjuntos de datos abiertos, que podrán combinarse con otras fuentes de información pública o procedente de dispositivos IoT.

Para participar es necesario formar un equipo de dos a cinco personas. Los equipos deberán ser diversos, a nivel de género, conocimientos y experiencia.

La competición se desarrollará en varias fases:

  • Fase previa, del 23 de agosto al 10 de septiembre. Los equipos deberán presentar un máximo de tres ideas que den respuesta a los retos indicados anteriormente. Para ello tendrán que presentar un dossier explicativo de la idea y un vídeo a través del formulario habilitado para la inscripción. Un jurado valorará las propuestas y elegirá las cinco mejores, que pasarán a la siguiente fase. Aquellos participantes cuyas ideas no hayan sido elegidas, podrán incorporarse, si así lo desean, a uno de los equipos finalistas.
  • Workshop. 16 de septiembre. Los equipos seleccionados tendrán la oportunidad de participar en un workshop online para aprender a utilizar FiWoo, una plataforma Smart City basada en FIWARE.
  • Hack4ERMI202: Ideas, Tech & Rock ́n Roll, del 23 al 24 de septiembre. Los equipos dispondrán de una sala durante todo el II Encuentro Regional de Municipios Inteligentes, donde podrán finalizar la definición de las soluciones presentadas. El día 24 presentarán sus propuestas ante el público del congreso.

El jurado, integrado por representantes de las entidades organizadoras y colaboradoras del Encuentro, elegirán a los 3 ganadores. El primer clasificado recibirá 2.000 euros, el segundo 1.000 y el tercero 500.

Ante cualquier duda, se puede contactar con la organización a través del email hack4ermi2021@dipucadiz.es.

¿Quieres asistir II Encuentro Regional de Municipios Inteligentes?

La participación en el hackathon está abierta para todos los ciudadanos que lo deseen, pero el aforo del II Encuentro Regional de Municipios Inteligentes es pequeño, debido a la situación de pandemia.

La asistencia presencial es limitada y bajo registro en el siguiente enlace. No obstante, el encuentro podrá seguirse online de manera íntegra a través de YouTube. El enlace estará disponible en las próximas semanas, en la web del evento.

calendar icon
Aplicación

El "Perfil Ambiental de España" es una aplicación que muestra una publicación de carácter anual enmarcada dentro de la línea de trabajo impulsada por la Agencia Europea de Medio Ambiente. Iniciada con la edición correspondiente al año 2004, es el primer informe sobre el estado del medioambiente basado en indicadores de ámbito estatal realizado en nuestro país. 

Su finalidad se centra en presentar la situación ambiental de España con información actualizada, construyendo series temporales de indicadores, permitiendo observar la evolución desagregada de áreas y sectores de actividad, así como por comunidades autónomas.  

En esta aplicación se incluyen referencias a las fuentes generadoras de la información que permiten realizar el seguimiento de las medidas y programas de las políticas medioambientales. 

calendar icon
Noticia

96 ideas procedentes de 33 países. Esas han sido las propuestas presentadas al UE Datathon 2021, una competición organizada por la Oficina de Publicaciones y la Presidencia del Consejo de la Unión Europea para impulsar el uso de datos abiertos como base de nuevas ideas, productos y servicios innovadores.

Las propuestas se podían presentar a tres categorías distintas: “A European Green Deal”, centrada en el impulso de la sostenibilidad,  “An economy that works for people”, enfocada en la reducción de la pobreza y la desigualdad, y “A Europe fit for the digital age”,  que busca mejoras en competencias relacionadas con datos y la estrategia europea en la materia. 

Para cada una de estas categorías el jurado ha elegido 3 finalistas.

CleanSpot, la presencia española en el certamen

Las propuestas de equipos españoles al EUDatathon 2021 fueron 12. De ellas, una, CleanSpot, ha logrado un puesto en la final, dentro de la categoría “A European Green Deal”.

CleanSpot es una app que busca impulsar la concienciación e incentivación del reciclaje a través de la gamificación. La app permite localizar puntos de reciclaje y reutilización, como puntos limpios, contenedores especializados o servicios y centros de recogida. La novedad es que también permite calcular el CO2 que cada usuario evita emitir a la atmósfera al realizar una acción tan cotidiana como tirar un residuo al contenedor de reciclaje correspondiente o donarlo para su reutilización. Los usuarios pueden compartir sus resultados y mostrar así a la comunidad cuánto han reducido su huella de carbono, contribuyendo al cuidado del medioambiente.

Los usuarios con mejor puntuación en el ranking reciben premios y reconocimientos. Además, cada vez que el usuario acude a un punto de recogida o reciclaje a depositar sus residuos, acumula puntos, que pueden ser canjeables por descuentos en tasas municipales, cheques ahorro en comercios locales o pagos directos.

Además, la app permite guardar localidades o servicios favoritos, y da la opción de recibir notificaciones, por ejemplo, recordatorios sobre cuándo pasa el punto limpio móvil -para que este servicio esté disponible en un municipio concreto, es necesaria una integración previa -. También permite la generación de campañas de concienciación, con consejos sobre reciclaje o información sobre acciones específicas de cada zona.

Finalistas de 8 países distintos

Este año, destaca la presencia de finalistas de múltiples territorios. Solo Italia repite con tres equipos, uno compartido con Francia.

  • En la categoría de “A European Green Deal”, CleanSpot se verá las caras con FROG2G, de Montenegro, y The Carbons, de la India. FROG2G es una herramienta de visualización interactiva, creada para ofrecer un modelo viable para que Europa sea más verde, mientras que The Carbons permite comparar los gases de efecto invernadero que se emiten, por ejemplo, al tomar una taza de café o realizar un trayecto en coche.
  • En la categoría “An economy that works for people”, encontramos a CityScale, de Ucrania, una herramienta para visualizar, comparar y encontrar el mejor lugar para vivir; ITER IDEA, de Italia, un un portal que facilita la movilidad de las mujeres en busca de nuevas oportunidades en Europa; y PowerToYEUth, de Portugal, centrada en la localización de financiación pública para PYMEs y el impulso del empleo juvenil.
  • Por último, en la categoría “A Europe fit for the digital age”, los finalistas son a Democracy Game, de Grecia, una herramienta de debate virtual; TrackmyEU, de Italia y Francia, que permite explorar las políticas de la UE, seguir los temas de interés y hacer oír la voz de la ciudadanía en Bruselas; y VislmE-360, también de Italia, que ofrece una visión de 360ᵒ de las deficiencias visuales en la UE.

Próximos pasos

Los nueve equipos finalistas disponen de 5 meses para desarrollar sus propuestas, de junio a noviembre. Las propuestas serán evaluadas por un jurado de expertos, en base a criterios como los datos abiertos utilizados y la adecuación al objetivo (para más información visita la sección rules en la web oficial). El ganador obtendrá 18.000€, mientras que el segundo y tercero recibirán 10.000€ y 5.000€ respectivamente.

La ceremonia de entrega de premios será el 25 de noviembre de 2021, en el marco de los EU Open Data Days, un evento que este año cuenta con su primera edición. En este evento, dirigido a impulsar el uso los datos abiertos en Europa para generar valor, podremos ver las diversas oportunidades y modelos de negocio que ofrece la reutilización de información pública.

 

 
 
calendar icon