Blog

Para alcanzar sus objetivos de sostenibilidad medioambiental, Europa necesita información precisa, accesible y actualizada que permita tomar decisiones basadas en evidencias. El Espacio de Datos del Pacto Verde (Green Deal Data Space o GDDS) facilitará esta transformación al integrar diversas fuentes de datos en una infraestructura digital común, interoperable y abierta.

Desde Europa, se está trabajando en su desarrollo a través de diversos proyectos, que han permitido obtener recomendaciones y buenas prácticas para su implementación. ¡Descúbrelas en este artículo!

¿Qué es el Green Deal Data Space?

El Green Deal Data Space (GDDS) es una iniciativa de la Comisión Europea para crear un ecosistema digital que reúna datos de múltiples sectores. Su fin es apoyar y acelerar los objetivos del Pacto Verde: la hoja de ruta de la Unión Europea para lograr una economía sostenible, climáticamente neutra y justa. Los pilares del Pacto Verde incluyen:

  • Una transición energética que reduzca las emisiones y mejore la eficiencia.
  • El fomento de la economía circular, promoviendo el reciclaje, la reutilización y la reparación de productos para minimizar residuos.
  • El impulso de prácticas agrícolas más sostenibles.
  • La restauración de la naturaleza y la biodiversidad, protegiendo hábitats naturales y reduciendo la contaminación de aire, agua y suelo.
  • La garantía de la justicia social, a través de una transición que facilite que ningún país o comunidad quede atrás.

A través de esta estrategia integral, la UE aspira a convertirse en la primera economía del mundo competitiva y eficiente en el uso de los recursos, logrando emisiones netas de gases de efecto invernadero cero para 2050. El Espacio de Datos del Pacto Verde se posiciona como una herramienta clave para alcanzar estos objetivos. Integrados en la Estrategia Europea del Dato, los espacios de datos son entornos digitales que permite el intercambio fiable de datos, al tiempo que se mantiene la soberanía y se garantiza la confianza y la seguridad en virtud de un conjunto de normas acordadas mutuamente.

En este caso concreto, el GDDS integrará datos de gran valor sobre biodiversidad, contaminación cero, economía circular, cambio climático, servicios forestales, movilidad inteligente y cumplimiento medioambiental. Estos datos serán fáciles de localizar, interoperables, accesibles y reutilizables bajo los principios FAIR (Findability, Accessibility, Interoperability, Reusability).

El GDDS se implementará a través del proyecto SAGE (Espacio de datos para una Europa verde y sostenible) y se basará en los resultados de la iniciativa GREAT (Gobernanza de la innovación responsable).

Un informe con recomendaciones para el GDDS

Como vimos en un artículo anterior, cuatro proyectos pioneros están sentando las bases de este ecosistema: AD4GD, B-Cubed, FAIRiCUBE y USAGE.  Estos proyectos, financiados en el marco de la convocatoria HORIZON, han analizado y documentado durante varios años los requisitos necesarios para garantizar que el GDDS siga los principios FAIR. Fruto de ese trabajo, se ha elaborado el informe “Policy Brief: Unlocking The Full Potential Of The Green Deal Data Space”. Se trata de un conjunto de recomendaciones que buscan servir de guía para la implementación exitosa del Espacio de Datos del Pacto Verde

El informe destaca cinco grandes áreas en las que se concentran los desafíos de la construcción del GDDS: 

1. Armonización de datos 

Los datos ambientales son heterogéneos, ya que provienen de distintas fuentes: satélites, sensores, estaciones meteorológicas, registros de biodiversidad, empresas privadas, institutos de investigación, etc. Cada proveedor utiliza sus propios formatos, escalas y metodologías. Esto provoca incompatibilidades que dificultan la comparación y la combinación de datos. Para solucionarlo, es esencial:

  • Adoptar estándares y vocabularios internacionales ya existentes, como INSPIRE, que abracan múltiples ámbitos temáticos.
  • Evitar formatos propietarios, primando aquellos abiertos y bien documentados.
  • Invertir en herramientas que permitan transformar datos de un formato a otro de forma sencilla.

2. Interoperabilidad semántica

Garantizar la interoperabilidad semántica es crucial para que los datos puedan entenderse y reutilizarse en diferentes contextos y disciplinas, algo fundamental cuando se comparten datos entre comunidades tan diversas como las que participan en los objetivos del Pacto Verde. A ello hay que sumar que la Ley de Datos (Data Act) obliga a que los participantes en espacios de datos ofrezcan descripciones legibles por máquinas de los datasets, garantizando así su localización, acceso y reutilización. Además, exige que los vocabularios, taxonomías y listas de códigos empleados estén documentados de forma pública y coherente. Para lograrlo es necesario:

  • Usar datos enlazados (linked data) y metadatos que ofrezcan conceptos claros y compartidos, a través de vocabularios, ontologías y estándares como los desarrollados por el OGC o las normas ISO.
  • Usar los estándares que ya existen para organizar y describir los datos, y solo crear extensiones nuevas cuando sea realmente necesario.
  • Mejorar los vocabularios internacionales ya aceptados, dándoles más precisión y aprovechando que las comunidades científicas ya los utilizan ampliamente.

3. Metadatos y curación de datos

Los datos solo alcanzan su máximo valor si están acompañados de metadatos claros que expliquen su origen, calidad, restricciones de uso y condiciones de acceso. Sin embargo, la gestión deficiente de metadatos sigue siendo una barrera importante. En muchos casos, los metadatos son inexistentes, están incompletos o mal estructurados, y a menudo se pierden al traducirse entre estándares no interoperables. Para mejorar esta situación se debe:

  • Ampliar los estándares de metadatos existentes para incluir elementos críticos como observaciones, mediciones, trazabilidad de origen, etc.
  • Fomentar la interoperabilidad entre estándares de metadatos en uso, mediante herramientas de mapeo y transformación que respondan tanto a las necesidades de datos comerciales como abiertos.
  • Reconocer y financiar la creación y mantenimiento de metadatos en proyectos europeos, incorporando la obligación de generar un catálogo estandarizado desde el inicio en los planes de gestión de datos.

4. Intercambio de datos y provisión federada

El GDDS no busca solo centralizar toda la información en un solo repositorio, sino permitir que múltiples actores compartan datos de manera federada y segura. Por tanto, es necesario conseguir un equilibrio entre el acceso abierto y la protección de derechos y privacidad. Para ello se requiere:

  • Adoptar y promover tecnologías abiertas y fáciles de usar, que permitan la integración entre datos abiertos y protegidos, cumpliendo con el Reglamento General de Protección de Datos (RGPD).
  • Garantizar la integración de diversas API utilizadas por los proveedores de datos y las comunidades de usuarios, acompañadas de demostradores y directrices claras. No obstante, es necesario impulsar el uso de API estandarizadas para facilitar una implantación más fluida, como por ejemplo, las API de OGC (Open Geospatial Consortium) para activos geoespaciales.
  • Ofrecer herramientas de conversión y especificaciones claras para permitir la interoperabilidad entre API y formatos de datos.

En paralelo al desarrollo del Eclipse Dataspace Connectors  (una tecnología de código abierto para facilitar la creación de espacios de datos), se propone explorar alternativas como catálogos en blockchain o certificados digitales, siguiendo ejemplos como el sistema FACTS (Federated Agile Collaborative Trusted System).

5. Gobernanza inclusiva y sostenible

El éxito del GDDS dependerá de establecer un marco de gobernanza sólido que garantice transparencia, participación y sostenibilidad a largo plazo. No se trata solo de normas técnicas, sino también de reglas justas y representativas. Para avanzar en ello es clave:

  • Usar exclusivamente nubes europeas para asegurar la soberanía de los datos, reforzar la seguridad y cumplir con la normativa de la UE, algo que cobra especial importancia ante los desafíos globales actuales.
  • Integrar plataformas abiertas como Copernicus, el Portal Europeo de Datos e INSPIRE en el GDDS fortalece la interoperabilidad y facilita el acceso a datos públicos. En este sentido, es necesario diseñar estrategias eficaces para atraer proveedores de datos abiertos y evitar que el GDDS se convierta en un entorno comercial o restringido.
  • Obligar a citar los datos en publicaciones académicas financiadas con fondos públicos aumenta su visibilidad y apoyar iniciativas de estandarización fortalece la visibilidad de los datos y asegura su mantenimiento a largo plazo.
  • Ofrecer formación integral y promover el uso cruzado de herramientas de armonización evita la creación de nuevos silos de datos y mejora la colaboración entre dominios.

La siguiente imagen resume la relación entre estos bloques: 

Diagrama titulado “Relación entre bloques del espacio de datos (Green Deal Data Space o GDDS)”. Representa el flujo de datos desde los proveedores hasta los usuarios, pasando por componentes clave como gobernanza, herramientas, procesamiento, enriquecimiento semántico, armonización, catálogo de metadatos e intercambio de datos. Los datos están en el centro del esquema, conectados por flechas que indican interacción y transformación. Todo el sistema está orientado a facilitar el uso eficiente de datos para iniciativas sostenibles. Fuente: informe “Policy Brief: Unlocking The Full Potential Of The Green Deal Data Space” (2023). Branding: datos.gob.es.

Conclusión

Todas estas recomendaciones inciden en una idea central: construir un Espacio de Datos del Pacto Verde que cumpla con los principios FAIR no solo es una cuestión técnica, sino también estratégica y ética. Requiere colaboración entre sectores, compromiso político, inversión en capacidades y una gobernanza inclusiva que garantice la equidad y la sostenibilidad. Si Europa logra consolidar este ecosistema digital, estará mejor preparada para afrontar los desafíos medioambientales con decisiones informadas, transparentes y orientadas al bien común.

calendar icon
Blog

Las imágenes sintéticas son representaciones visuales generadas de forma artificial mediante algoritmos y técnicas computacionales, en lugar de capturarse directamente de la realidad con cámaras o sensores. Se producen a partir de distintos métodos, entre los que destacan las redes generativas antagónicas (Generative Adversarial Networks, GAN), los modelos de difusión, y las técnicas de renderizado 3D. Todas ellas permiten crear imágenes de apariencia realista que en muchos casos resultan indistinguibles de una fotografía auténtica.

Cuando se traslada este concepto al campo de la observación de la Tierra, hablamos de imágenes satelitales sintéticas. Estas no se obtienen a partir de un sensor espacial que capta radiación electromagnética real, sino que se generan digitalmente para simular lo que vería un satélite desde la órbita. En otras palabras, en vez de reflejar directamente el estado físico del terreno o la atmósfera en un momento concreto, son construcciones computacionales capaces de imitar el aspecto de una imagen satelital real.

El desarrollo de este tipo de imágenes responde a necesidades prácticas. Los sistemas de inteligencia artificial que procesan datos de teledetección requieren conjuntos muy amplios y variados de imágenes. Las imágenes sintéticas permiten, por ejemplo, recrear zonas de la Tierra poco observadas, simular desastres naturales -como incendios forestales, inundaciones o sequías- o generar condiciones específicas que son difíciles o costosas de capturar en la práctica. De este modo, constituyen un recurso valioso para entrenar algoritmos de detección y predicción en agricultura, gestión de emergencias, urbanismo o monitorización ambiental.

ejemplo de imagen satelital sintética
Figura 1. Ejemplo de generación de una imagen satelital sintética.

Su valor no se limita al entrenamiento de modelos. Allí donde no existen imágenes de alta resolución —por limitaciones técnicas, restricciones de acceso o motivos económicos—, la síntesis permite rellenar huecos de información y facilitar estudios preliminares. Por ejemplo, los investigadores pueden trabajar con imágenes sintéticas aproximadas para diseñar modelos de riesgo o simulaciones antes de disponer de datos reales.

Sin embargo, las imágenes satelitales sintéticas también plantean riesgos importantes. La posibilidad de generar escenas muy realistas abre la puerta a la manipulación y a la desinformación. En un contexto geopolítico, una imagen que muestre tropas inexistentes o infraestructuras destruidas podría influir en decisiones estratégicas o en la opinión pública internacional. En el terreno ambiental, se podrían difundir imágenes manipuladas para exagerar o minimizar impactos de fenómenos como la deforestación o el deshielo, con efectos directos en políticas y mercados.

Por ello, conviene diferenciar dos usos muy distintos. El primero es el uso como apoyo, cuando las imágenes sintéticas complementan a las reales para entrenar modelos o realizar simulaciones. El segundo es el uso como falsificación, cuando se presentan deliberadamente como imágenes auténticas con el fin de engañar. Mientras el primer uso impulsa la innovación, el segundo amenaza la confianza en los datos satelitales y plantea un reto urgente de autenticidad y gobernanza.

Riesgos de las imágenes satelitales aplicada a la observación de la Tierra

Las imágenes satelitales sintéticas plantean riesgos significativos cuando se utilizan en vez de imágenes captadas por sensores reales. A continuación, se detallan ejemplos que lo demuestran.

Un nuevo frente de desinformación: deepfake geography

El término deepfake geography ya se ha consolidado en la literatura académica y divulgativa para describir imágenes satelitales ficticias, manipuladas con IA, que parecen auténticas, pero no reflejan ninguna realidad existente. Una investigación de la Universidad de Washington, liderada por Bo Zhao, utilizó algoritmos como CycleGAN para modificar imágenes de ciudades reales -por ejemplo, alterando la apariencia de Seattle con edificios inexistentes o transformando Beijing en zonas verdes- lo que pone en evidencia el potencial para generar paisajes falsos convincentes.

Un artículo de la plataforma OnGeo Intelligence (OGC) subraya que estas imágenes no son puramente teóricas, sino amenazas reales que afectan a la seguridad nacional, el periodismo y el trabajo humanitario. Por su parte, el OGC advierte que ya se han observado imágenes satelitales fabricadas, modelos urbanos generados por IA y redes de carreteras sintéticas, y que representan desafíos reales a la confianza pública y operativa.

Implicaciones estratégicas y políticas

Las imágenes satelitales son consideradas "ojos imparciales" sobre el planeta, usadas por gobiernos, medios y organizaciones. Cuando estas imágenes se falsifican, sus consecuencias pueden ser graves:

  • Seguridad nacional y defensa: si se presentan infraestructuras falsas o se ocultan otras reales, se pueden desviar análisis estratégicos o inducir decisiones militares equivocadas.
  • Desinformación en conflictos o crisis humanitarias: una imagen alterada que muestre incendios, inundaciones o movimientos de tropas falsos puede alterar la respuesta internacional, los flujos de ayuda o la percepción de los ciudadanos, especialmente si se difunde por redes sociales o medios sin verificación.
  • Manipulación de imágenes realistas de lugares: no solo las imágenes generales están en juego. Nguyen y colaboradores (2024) demostraron que es posible generar imágenes satelitales sintéticas altamente realistas de instalaciones muy específicas como plantas nucleares.

Crisis de confianza y erosión de la verdad

Durante décadas, las imágenes satelitales han sido percibidas como una de las fuentes más objetivas y fiables de información sobre nuestro planeta. Eran la prueba gráfica que permitía confirmar fenómenos ambientales, seguir conflictos armados o evaluar el impacto de desastres naturales. En muchos casos, estas imágenes se utilizaban como “evidencia imparcial”, difíciles de manipular y fáciles de validar. Sin embargo, la irrupción de las imágenes sintéticas generadas por inteligencia artificial ha empezado a poner en cuestión esa confianza casi inquebrantable.

Hoy en día, cuando una imagen satelital puede ser falsificada con gran realismo, surge un riesgo profundo: la erosión de la verdad y la aparición de una crisis de confianza en los datos espaciales.

La quiebra de la confianza pública

Cuando los ciudadanos ya no pueden distinguir entre una imagen real y una fabricada, se resquebraja la confianza en las fuentes de información. La consecuencia es doble:

  • Desconfianza hacia las instituciones: si circulan imágenes falsas de un incendio, una catástrofe o un despliegue militar y luego resultan ser sintéticas, la ciudadanía puede empezar a dudar también de las imágenes auténticas publicadas por agencias espaciales o medios de comunicación. Este efecto “que viene el lobo” genera escepticismo incluso frente a pruebas legítimas.
  • Efecto en el periodismo: los medios tradicionales, que han usado históricamente las imágenes satelitales como fuente visual incuestionable, corren el riesgo de perder credibilidad si publican imágenes adulteradas sin verificación. Al mismo tiempo, la abundancia de imágenes falsas en redes sociales erosiona la capacidad de distinguir qué es real y qué no.
  • Confusión deliberada: en contextos de desinformación, la mera sospecha de que una imagen pueda ser falsa ya puede bastar para generar duda y sembrar confusión, aunque la imagen original sea completamente auténtica.

A continuación, se resumen los posibles casos de manipulación y riesgo en imágenes satelitales:

Ámbito Tipo de manipulación Riesgo principal Ejemplo documentado
Conflictos armados Inserción o eliminación de infraestructuras militares. Desinformación estratégica; decisiones militares erróneas; pérdida de credibilidad en observación internacional. Alteraciones demostradas en estudios de deepfake geography donde se añadían carreteras, puentes o edificios ficticios en imágenes satelitales.
Cambio climático y medio ambiente Alteración de glaciares, deforestación o emisiones. Manipulación de políticas ambientales; retraso en medidas contra el cambio climático; negacionismo. Estudios han mostrado la capacidad de generar paisajes modificados (bosques en zonas urbanas, cambios en el hielo) mediante GAN.
Gestión de emergencias Creación de desastres inexistentes (incendios, inundaciones). Mal uso de recursos en emergencias; caos en evacuaciones; pérdida de confianza en agencias. Investigaciones han demostrado la facilidad de insertar humo, fuego o agua en imágenes satelitales.
Mercados y seguros Falsificación de daños en infraestructuras o cultivos. Impacto financiero; fraude masivo; litigios legales complejos. Uso potencial de imágenes falsas para exagerar daños tras desastres y reclamar indemnizaciones o seguros.
Derechos humanos y justicia internacional Alteración de pruebas visuales sobre crímenes de guerra. Deslegitimación de tribunales internacionales; manipulación de la opinión pública. Riesgo identificado en informes de inteligencia: imágenes adulteradas podrían usarse para acusar o exonerar a actores en conflictos.
Geopolítica y diplomacia Creación de ciudades ficticias o cambios fronterizos. Tensiones diplomáticas; cuestionamiento de tratados; propaganda estatal. Ejemplos de deepfake maps que transforman rasgos geográficos de ciudades como Seattle o Tacoma.

Figura 2. Tabla con los posibles casos de manipulación y riesgo en imágenes satelitales

Impacto en la toma de decisiones y políticas públicas

Las consecuencias de basarse en imágenes adulteradas van mucho más allá del terreno mediático:

  • Urbanismo y planificación: decisiones sobre dónde construir infraestructuras o cómo planificar zonas urbanas podrían tomarse sobre imágenes manipuladas, generando errores costosos y de difícil reversión.
  • Gestión de emergencias: si una inundación o un incendio se representan en imágenes falsas, los equipos de emergencia pueden destinar recursos a lugares equivocados, mientras descuidan zonas realmente afectadas.
  • Cambio climático y medio ambiente: imágenes adulteradas de glaciares, deforestación o emisiones contaminantes podrían manipular debates políticos y retrasar la implementación de medidas urgentes.
  • Mercados y seguros: aseguradoras y empresas financieras que confían en imágenes satelitales para evaluar daños podrían ser engañadas, con consecuencias económicas significativas.

En todos estos casos, lo que está en juego no es solo la calidad de la información, sino la eficacia y legitimidad de las políticas públicas basadas en esos datos.

El juego del gato y el ratón tecnológico

La dinámica de generación y detección de falsificaciones ya se conoce en otros ámbitos, como los deepfakes de vídeo o audio: cada vez que surge un método de generación más realista, se desarrolla un algoritmo de detección más avanzado, y viceversa. En el ámbito de las imágenes satelitales, esta carrera tecnológica tiene particularidades:

  • Generadores cada vez más sofisticados: los modelos de difusión actuales pueden crear escenas de gran realismo, integrando texturas de suelo, sombras y geometrías urbanas que engañan incluso a expertos humanos.
  • Limitaciones de la detección: aunque se desarrollan algoritmos para identificar falsificaciones (analizando patrones de píxeles, inconsistencias en sombras o metadatos), estos métodos no siempre son fiables cuando se enfrentan a generadores de última generación.
  • Coste de la verificación: verificar de forma independiente una imagen satelital requiere acceso a fuentes alternativas o sensores distintos, algo que no siempre está al alcance de periodistas, ONG o ciudadanos.
  • Armas de doble filo: las mismas técnicas usadas para detectar falsificaciones pueden ser aprovechadas por quienes las generan, perfeccionando aún más las imágenes sintéticas y haciendo más difícil diferenciarlas.

De la prueba visual a la prueba cuestionada

El impacto más profundo es cultural y epistemológico: lo que antes se asumía como una prueba objetiva ahora se convierte en un elemento sujeto a duda. Si las imágenes satelitales dejan de ser percibidas como evidencia fiable, se debilitan narrativas fundamentales en torno a la verdad científica, la justicia internacional y la rendición de cuentas política.

  • En conflictos armados, una imagen de satélite que muestre posibles crímenes de guerra puede ser descartada bajo la acusación de ser un deepfake.
  • En tribunales internacionales, pruebas basadas en observación satelital podrían perder peso frente a la sospecha de manipulación.
  • En el debate público, el relativismo de “todo puede ser falso” puede usarse como arma retórica para deslegitimar incluso la evidencia más sólida.

Estrategias para garantizar autenticidad

La crisis de confianza en las imágenes satelitales no es un problema aislado del sector geoespacial, sino que forma parte de un fenómeno más amplio: la desinformación digital en la era de la inteligencia artificial. Así como los deepfakes de vídeo han puesto en cuestión la validez de pruebas audiovisuales, la proliferación de imágenes satelitales sintéticas amenaza con debilitar la última frontera de datos percibidos como objetivos: la mirada imparcial desde el espacio.

Garantizar la autenticidad de estas imágenes exige una combinación de soluciones técnicas y mecanismos de gobernanza, capaces de reforzar la trazabilidad, la transparencia y la responsabilidad en toda la cadena de valor de los datos espaciales. A continuación, se describen las principales estrategias en desarrollo.

Metadatos robustos: registrar el origen y la cadena de custodia

Los metadatos constituyen la primera línea de defensa frente a la manipulación. En imágenes satelitales, deben incluir información detallada sobre:

  • El sensor utilizado (tipo, resolución, órbita).
  • El momento exacto de la adquisición (fecha y hora, con precisión temporal).
  • La localización geográfica precisa (sistemas de referencia oficiales).
  • La cadena de procesado aplicada (correcciones atmosféricas, calibraciones, reproyecciones).

Registrar estos metadatos en repositorios seguros permite reconstruir la cadena de custodia, es decir, el historial de quién, cómo y cuándo ha manipulado una imagen. Sin esta trazabilidad, resulta imposible distinguir entre imágenes auténticas y falsificadas.

EJEMPLO: el programa Copernicus de la Unión Europea ya implementa metadatos estandarizados y abiertos para todas sus imágenes Sentinel, lo que facilita auditorías posteriores y confianza en el origen.

Firmas digitales y blockchain: garantizar la integridad

Las firmas digitales permiten verificar que una imagen no ha sido alterada desde su captura. Funcionan como un sello criptográfico que se aplica en el momento de adquisición y se valida en cada uso posterior.

La tecnología blockchain ofrece un nivel adicional de garantía: almacenar los registros de adquisición y modificación en una cadena inmutable de bloques. De esta manera, cualquier cambio en la imagen o en sus metadatos quedaría registrado y sería fácilmente detectable.

EJEMPLO: el proyecto ESA – Trusted Data Framework explora el uso de blockchain para proteger la integridad de datos de observación de la Tierra y reforzar la confianza en aplicaciones críticas como cambio climático y seguridad alimentaria.

Marcas de agua invisible: señales ocultas en la imagen

El marcado de agua digital consiste en incrustar señales imperceptibles en la propia imagen satelital, de modo que cualquier alteración posterior se pueda detectar automáticamente.

  • Puede hacerse a nivel de píxel, modificando ligeramente patrones de color o luminancia.
  • Se combina con técnicas criptográficas para reforzar su validez.
  • Permite validar imágenes incluso si han sido recortadas, comprimidas o reprocesadas.

EJEMPLO: en el sector audiovisual, las marcas de agua se usa desde hace años en la protección de contenidos digitales. Su adaptación a imágenes satelitales está en fase experimental, pero podría convertirse en una herramienta estándar de verificación.

Estándares abiertos (OGC, ISO): confianza mediante interoperabilidad

La estandarización es clave para garantizar que las soluciones técnicas se apliquen de forma coordinada y global.

  • OGC (Open Geospatial Consortium) trabaja en estándares para la gestión de metadatos, la trazabilidad de datos geoespaciales y la interoperabilidad entre sistemas. Su trabajo en API geoespaciales y metadatos FAIR (Findable, Accessible, Interoperable, Reusable) es esencial para establecer prácticas comunes de confianza.
  • ISO desarrolla normas sobre gestión de la información y autenticidad de registros digitales que también pueden aplicarse a imágenes satelitales.

EJEMPLO: el OGC Testbed-19 incluyó experimentos específicos sobre autenticidad de datos geoespaciales, probando enfoques como firmas digitales y certificados de procedencia.

Verificación cruzada: combinar múltiples fuentes

Un principio básico para detectar falsificaciones es contrastar fuentes. En el caso de imágenes satelitales, esto implica:

  • Comparar imágenes de diferentes satélites (ej. Sentinel-2 vs. Landsat-9).
  • Usar distintos tipos de sensores (ópticos, radar SAR, hiperespectrales).
  • Analizar series temporales para verificar la consistencia en el tiempo.

EJEMPLO: la verificación de daños en Ucrania tras el inicio de la invasión rusa en 2022 se realizó mediante la comparación de imágenes de varios proveedores (Maxar, Planet, Sentinel), asegurando que los hallazgos no se basaban en una sola fuente.

IA contra IA: detección automática de falsificaciones

La misma inteligencia artificial que permite crear imágenes sintéticas se puede utilizar para detectarlas. Las técnicas incluyen:

  • Análisis forense de píxeles: identificar patrones generados por GAN o modelos de difusión.
  • Redes neuronales entrenadas para distinguir entre imágenes reales y sintéticas en función de texturas o distribuciones espectrales.
  • Modelos de inconsistencias geométricas: detectar sombras imposibles, incoherencias topográficas o patrones repetitivos.

EJEMPLO: investigadores de la Universidad de Washington y otros grupos han demostrado que algoritmos específicos pueden detectar falsificaciones satelitales con una precisión superior al 90% en condiciones controladas.

Experiencias actuales: iniciativas globales

Varios proyectos internacionales ya trabajan en mecanismos para reforzar la autenticidad:

  • Coalition for Content Provenance and Authenticity (C2PA): una alianza entre Adobe, Microsoft, BBC, Intel y otras organizaciones para desarrollar un estándar abierto de procedencia y autenticidad de contenidos digitales, incluyendo imágenes. Su modelo se puede aplicar directamente al sector satelital.
  • Trabajo del OGC: la organización impulsa el debate sobre confianza en datos geoespaciales y ha destacado la importancia de garantizar la trazabilidad de imágenes satelitales sintéticas y reales (OGC Blog).
  • NGA (National Geospatial-Intelligence Agency) en EE. UU. ha reconocido públicamente la amenaza de imágenes sintéticas en defensa y está impulsando colaboraciones con academia e industria para desarrollar sistemas de detección.

Hacia un ecosistema de confianza

Las estrategias descritas no deben entenderse como alternativas, sino como capas complementarias en un ecosistema de confianza:

Id

Capas

¿Qué aportan?

1 Metadatos robustos
(origen, sensor, cadena de custodia)
Garantizan trazabilidad
2 Firmas digitales y blockchain
(integridad de datos)
Aseguran integridad
3 Marcas de agua invisible
(señales ocultas)
Añade un nivel oculto de protección
4 Verificación cruzada
(múltiples satélites y sensores)
Valida con independencia
5 IA contra IA
(detector de falsificaciones)
Responde a amenazas emergentes
6 Gobernanza internacional
(responsabilidad, marcos legales)
Articula reglas claras de responsabilidad

Figura 3. Capas para garantizar la confianza en las imágenes sintéticas satelitales

El éxito dependerá de que estos mecanismos se integren de manera conjunta, bajo marcos abiertos y colaborativos, y con la implicación activa de agencias espaciales, gobiernos, sector privado y comunidad científica.

Conclusiones

Las imágenes sintéticas, lejos de ser únicamente una amenaza, representan una herramienta poderosa que, bien utilizada, puede aportar un valor significativo en ámbitos como la simulación, el entrenamiento de algoritmos o la innovación en servicios digitales. El problema surge cuando estas imágenes se presentan como reales sin la debida transparencia, alimentando la desinformación o manipulando la percepción pública.

El reto, por tanto, es doble: aprovechar las oportunidades que ofrece la síntesis de datos visuales para avanzar en ciencia, tecnología y gestión, y minimizar los riesgos asociados al mal uso de estas capacidades, especialmente en forma de deepfakes o falsificaciones deliberadas.

En el caso particular de las imágenes satelitales, la confianza adquiere una dimensión estratégica. De ellas dependen decisiones críticas en seguridad nacional, respuesta a desastres, políticas ambientales y justicia internacional. Si la autenticidad de estas imágenes se pone en duda, se compromete no solo la fiabilidad de los datos, sino también la legitimidad de las decisiones basadas en ellos.

El futuro de la observación de la Tierra estará condicionado por nuestra capacidad de garantizar la autenticidad, transparencia y trazabilidad en toda la cadena de valor: desde la adquisición de los datos hasta su difusión y uso final. Las soluciones técnicas (metadatos robustos, firmas digitales, blockchain, marcas de agua, verificación cruzada e IA para detección de falsificaciones), combinadas con marcos de gobernanza y cooperación internacional, serán la clave para construir un ecosistema de confianza.

En definitiva, debemos asumir un principio rector sencillo pero contundente:

“Si no podemos confiar en lo que vemos desde el espacio, ponemos en riesgo nuestras decisiones en la Tierra.”
 


Contenido elaborado por Mayte Toscano, Senior Consultant en Tecnologías ligadas a la economía del dato. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.

calendar icon
Aplicación

Sicma, sistema de información climática y medioambiental, es una plataforma que muestra los escenarios climáticos y diversas variables generadas tras ellos. Esta aplicación está desarrollada completamente con software libre y permite consultar las condiciones climáticas actuales, pasadas y futuras, con una resolución espacial variable según las necesidades de cada caso (100 por 100 metros en el caso de las Islas Canarias, y de 200 por 200 metros en el de Andalucía). Así se consigue obtener información local del punto de intervención.

La información se genera para los escenarios, modelos, horizontes y periodos anuales que se consideren necesarios en cada caso y con la resolución y las interpolaciones más adecuadas en cada territorio.

Sicma ofrece información de variables calculadas a partir de series diarias. Para cuantificar las incertidumbres, ofrece proyecciones generadas a partir de diez modelos climáticos del sexto informe del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), cada uno bajo cuatro escenarios de emisiones futuras, las denominadas trayectorias socioeconómicas compartidas (SSP por sus siglas en inglés). Por tanto, se generan 40 proyecciones en total. Estas proyecciones climáticas, detalladas hasta el año 2100, son una herramienta muy útil para la planificación y gestión del agua, la agricultura y la conservación del medio natural.

El usuario puede acceder fácilmente a la información de los escenarios climáticos, proporcionando datos representativos en distintos ámbitos territoriales a través de un visor. Algunas de las variables que incluye este visor son: temperatura máxima, temperatura media, temperatura mínima, precipitación, evapotranspiración potencial, balance hídrico, días de calor (>40ºC) o noches tropicales (>22ºC).

Además de la visualización, también es posible la descarga en formatos alfanuméricos en hojas de cálculo, gráficos o mapas de valores.

Actualmente, existen dos entornos de sicma en abierto:

calendar icon
Blog

La inteligencia artificial (IA) se ha convertido en una tecnología clave en múltiples sectores, desde la salud y la educación hasta la industria y la gestión ambiental, sin olvidarnos de la cantidad de ciudadanos que crean textos, imágenes o vídeos con esta tecnología solo para su disfrute personal. Se estima que en España más de la mitad de la población adulta ha utilizado alguna vez alguna herramienta IA.

Sin embargo, este auge plantea desafíos en términos de sostenibilidad, tanto en consumo hídrico y energético como en impacto social y ético. Por ello, es necesario buscar soluciones que ayuden a mitigar los efectos negativos, promoviendo modelos eficientes, responsables y accesibles para todos. En este artículo vamos a abordar este reto, así como los posibles esfuerzos a llevar a cabo para darle solución.

¿Cuál es el impacto ambiental de la IA?

Ante un panorama donde la inteligencia artificial está de moda, cada vez son más los usuarios que se preguntan cuál es el precio que debemos pagar por poder crear memes en cuestión de segundos.

Para calcular bien el impacto total de la inteligencia artificial, es necesario considerar los ciclos del hardware y el software en su conjunto, como bien indica el Programa de las Naciones Unidas para el Medio Ambiente (PNUMA). Es decir, es necesario considerar desde la extracción de materias primas, la producción, el transporte y la construcción del centro de datos, la gestión, el mantenimiento y la eliminación de residuos electrónicos, hasta la recopilación y preparación de datos, la creación de modelos, el entrenamiento, la validación, la implementación, la inferencia, el mantenimiento y la retirada. Todo ello genera efectos directos, indirectos y de orden superior:

  • Los impactos directos incluyen el consumo de energía, agua y recursos minerales, así como la producción de emisiones y residuos electrónicos, lo cual genera una huella de carbono considerable.
  • Los efectos indirectos se derivan del uso de la IA, por ejemplo, los generados por el aumento en el uso de vehículos autónomos.
  • Además, el uso generalizado de la inteligencia artificial también conlleva una dimensión ética, ya que puede exacerbar las desigualdades existentes, afectando especialmente a las minorías y las personas con bajos ingresos. En ocasiones, los datos de entrenamiento utilizados presentan sesgos o son de una baja calidad (por ejemplo, infrarrepresentando a determinados grupos poblacionales). Esta situación puede dar lugar a respuestas y decisiones que favorecen a grupos mayoritarios.

Algunas de las cifras que recopila el documento de la ONU y que pueden ayudarnos a hacernos una idea del impacto generado por la IA son:

Soluciones para conseguir una IA sostenible

Ante esta situación, la propia ONU propone diversos aspectos a los que es necesario prestar atención, por ejemplo:

  • Búsqueda de métodos y parámetros normalizados para medir el impacto medioambiental de la IA, centrándose en los efectos directos, más fáciles de medir gracias a los datos de consumo de energía, agua y recursos. Al conocer esta información, resultará más sencillo tomar medidas que supongan un beneficio sustancial.
  • Facilitar la concienciación de la sociedad, a través de mecanismos que obliguen a las empresas a hacer pública esta información de manera transparente y accesible. Esto podría acabar promoviendo cambios de comportamiento hacia un uso más sostenible de la IA.
  • Dar prioridad a la investigación sobre la optimización de los algoritmos, en pro de la eficiencia energética. Por ejemplo, se puede minimizar la energía necesaria mediante la reducción de la complejidad computacional y el uso de datos. También se puede impulsar la computación descentralizada, ya que, al distribuir los procesos en redes menos exigentes, se evita sobrecargar los grandes servidores.
  • Favorecer el uso de energías renovables en los centros de datos, como la solar o la eólica. Además, es necesario impulsar que las empresas lleven a cabo prácticas de compensación de emisiones de carbono.

Además de su impacto ambiental, y como veíamos anteriormente, la IA también debe ser sostenible desde una perspectiva social y ética. Para ello es necesario:

  • Evitar sesgos algorítmicos: garantizar que los datos utilizados representen la diversidad de la población, evitando discriminaciones involuntarias.
  • Transparencia en los modelos: hacer que los algoritmos sean comprensibles y accesibles, promoviendo la confianza y la supervisión humana.
  • Accesibilidad y equidad: desarrollar sistemas de IA que sean inclusivos y beneficien a comunidades menos privilegiadas.

Si bien la inteligencia artificial plantea desafíos en términos de sostenibilidad, también puede ser una aliada clave en la construcción de un planeta más verde. Su capacidad para analizar grandes volúmenes de datos permite optimizar el uso de energía, mejorar la gestión de recursos naturales y desarrollar estrategias más eficientes en sectores como la agricultura, la movilidad y la industria. Desde la predicción del cambio climático hasta el diseño de modelos para reducir emisiones, la IA ofrece soluciones innovadoras que pueden acelerar la transición hacia un futuro más sostenible.

Programa Nacional de Algoritmos Verdes

En respuesta a esta realidad, España ha puesto en marcha el Programa Nacional de Algoritmos Verdes (PNAV). Esta una iniciativa que busca integrar la sostenibilidad en el diseño y aplicación de la IA, promoviendo modelos más eficientes y responsables con el medioambiente, a la vez que se impulsa su uso para dar respuesta a diferentes desafíos medioambientales.

El PNAV tiene como meta principal fomentar el desarrollo de algoritmos que minimicen el impacto ambiental desde su concepción. Este enfoque, conocido como "Verde por Diseño", implica que la sostenibilidad no sea un añadido posterior, sino un criterio fundamental en la creación de modelos de IA. Además, el programa busca potenciar la investigación en IA sostenible, mejorar la eficiencia energética de infraestructuras digitales y promover la integración de tecnologías como el blockchain verde en el tejido productivo.

Esta iniciativa se enmarca en el Plan de Recuperación, Transformación y Resiliencia, la Agenda España Digital 2026 y la Estrategia Nacional de Inteligencia Artificial. Entre los objetivos fijados se incluye la elaboración de una guía de buenas prácticas, un catálogo de algoritmos eficientes y otro de algoritmos para abordar problemas ambientales, la generación de una calculadora de impacto para autoevaluación, así como medidas de apoyo a la concienciación y formación de desarrolladores de IA.

Su página web funciona como un espacio de conocimiento sobre inteligencia artificial sostenible, donde se puede estar al tanto de las principales noticias, eventos, entrevistas, etc. relacionadas con este campo. Además, organizan competiciones, como hackathones, con el fin de impulsar soluciones que ayuden a resolver retos medioambientales.

El Futuro de la IA sostenible

El camino hacia una inteligencia artificial más responsable depende del esfuerzo conjunto de gobiernos, empresas y la comunidad científica. La inversión en investigación, el desarrollo de regulaciones adecuadas y la concienciación sobre IA ética serán clave para garantizar que esta tecnología impulse el progreso sin comprometer el planeta ni la sociedad.

La IA sostenible no solo es un desafío tecnológico, sino una oportunidad para transformar la innovación en un motor de bienestar global. De todos depende que podamos progresar como sociedad sin destruir el planeta.

calendar icon
Blog

El valor de los datos satelitales abiertos en Europa

Los satélites se han convertido en herramientas fundamentales para comprender el planeta y gestionar recursos de manera eficiente. La Unión Europea (UE) ha desarrollado una infraestructura espacial avanzada con el objetivo de proporcionar datos en tiempo real sobre el medio ambiente, la navegación y la meteorología.

Esta red de satélites está impulsada por cuatro programas clave:

  • Copernicus: observación de la Tierra, monitoreo ambiental y cambio climático.
  • Galileo: navegación por satélite de alta precisión, alternativa al GPS.
  • EGNOS: mejora de la precisión del posicionamiento, clave para la aviación y la navegación.
  • Meteosat: predicción meteorológica avanzada y monitoreo de la atmósfera.

A través de estos programas, Europa no solo asegura su independencia tecnológica, sino que también obtiene datos que se ponen a disposición de la ciudadanía con el fin de impulsar aplicaciones estratégicas en agricultura, seguridad, gestión de desastres y planificación urbana.

En este artículo exploraremos cada programa, sus satélites y su impacto en la sociedad, incluyendo el papel de España en cada uno de ellos

Copernicus: la red de observación de la Tierra en Europa

Copernicus es el programa de observación terrestre de la UE, gestionado por la Comisión Europea con el soporte técnico de la Agencia Espacial Europea (ESA) y la Organización Europea para la Explotación de Satélites Meteorológicos (EUMETSAT). Su objetivo es proporcionar datos gratuitos y abiertos sobre el planeta para monitorear el cambio climático, gestionar recursos naturales y responder a emergencias.

El programa se estructura en tres componentes principales:

  1. Componente espacial: consta de una serie de satélites denominados Sentinel, desarrollados específicamente para las necesidades de Copernicus. Estos satélites proporcionan datos de alta calidad para diversas aplicaciones, como monitoreo terrestre, marítimo y atmosférico.
  2. Componente in situ: incluye datos recopilados a través de estaciones terrestres, aéreas y marítimas. Estos datos son esenciales para calibrar y validar la información obtenida por los satélites, asegurando su precisión y fiabilidad.
  3. Servicios Operacionales: ofrece seis servicios temáticos que transforman los datos recopilados en información útil para los usuarios:
    • Monitoreo atmosférico
    • Monitoreo marino
    • Monitoreo terrestre
    • Cambio climático
    • Gestión de emergencias
    • Seguridad

Estos servicios proporcionan información en áreas como la calidad del aire, el estado de los océanos, el uso del suelo, las tendencias climáticas, la respuesta a desastres y la seguridad, apoyando la toma de decisiones informadas en Europa.

España ha tenido un rol clave en la fabricación de componentes para los satélites Sentinel. Empresas españolas han desarrollado estructuras y sensores críticos, y han contribuido en el desarrollo de software de procesamiento de datos. Además, España lidera proyectos como la Constelación Atlántica, que desarrollará pequeños satélites para la monitorización climática y oceánica.

Los satélites Sentinel

Satélite Características técnicas Resolución Cobertura (frecuencia de captura) Usos
Sentinel-1 Radar SAR en banda C, resolución hasta 5m Hasta 5m Cada 6 días Monitoreo terrestre y oceánico, desastres naturales
Sentinel-2 Cámara multiespectral (13 bandas), resolución hasta 10m  10m, 20m, 60m Cada 5 días Gestión agrícola, monitoreo forestal, calidad del agua
Sentinel-3 Radiómetro SLSTR, Espectrómetro OLCI, Altímetro SRAL 300m (OLCI), 500m (SLSTR) Cada 1-2 días Observación oceánica, climática y terrestre
Sentinel-5P Espectrómetro Tropomi, resolución 7x3.5 km². 7x3.5 km² Cobertura global diaria Monitoreo de calidad del aire, gases traza
Sentinel-6 Altímetro Poseidón-4, resolución vertical 1 cm 1cm Cada 10 días Medición de nivel del mar, cambio climático

Figura 1. Tabla satélites Sentinel. Fuente: elaboración propia

Galileo: el GPS europeo

Galileo es el sistema global de navegación por satélite desarrollado por la Unión Europea, gestionado por la Agencia Espacial Europea (ESA) y operado por la Agencia de la Unión Europea para el Programa Espacial (EUSPA). Su objetivo es proporcionar un servicio de posicionamiento mundial fiable y de alta precisión, independiente de otros sistemas como el GPS estadounidense, Beidou chino o el GLONASS ruso. Galileo está diseñado para uso civil y ofrece servicios gratuitos y de pago para diversos sectores, incluyendo transporte, telecomunicaciones, energía y finanzas.

España ha tenido una participación destacada en el programa Galileo. El Centro de Servicios GNSS Europeo (GSC), ubicado en Torrejón de Ardoz, Madrid, actúa como el punto de contacto principal para los usuarios del sistema Galileo. Además, la industria española ha contribuido al desarrollo y fabricación de componentes para los satélites y la infraestructura terrestre, fortaleciendo la posición de España en el sector aeroespacial europeo.

Satélite Características técnicas Resolución Cobertura (frecuencia de captura) Usos
Galileo FOC Órbita media terrestre (MEO), 24 operativos N/A Continua Posicionamiento preciso, navegación terrestre y marítima
Galileo IOV Primeros satélites de prueba del sistema Galileo  N/A Continua Pruebas iniciales de Galileo antes de FOC

Figura 2. Tabla satélites Galileo. Fuente: elaboración propia

EGNOS: mejorando la precisión del GPS y Galileo

El European Geostationary Navigation Overlay Service (EGNOS) es el sistema europeo de aumentación basado en satélite (Satellite Based Augmentation System o SBAS) diseñado para mejorar la precisión y fiabilidad de los sistemas globales de navegación por satélite (Global Navigation Satellite System, GNSS), como el GPS y, en el futuro, Galileo. EGNOS proporciona correcciones y datos de integridad que permiten a los usuarios en Europa determinar su posición con una precisión de hasta 1.5 metros, haciéndolo apto para aplicaciones críticas en seguridad, como la aviación y la navegación marítima.

España ha tenido una participación destacada en el desarrollo y operación de EGNOS. A través de ENAIRE, España alberga cinco Estaciones de Referencia RIMS ubicadas en Santiago, Palma, Málaga, Gran Canaria y La Palma. Además, el Centro de Control de Tráfico Aéreo de Madrid, situado en Torrejón de Ardoz, alberga uno de los Centros de Control de Misión (MCC) de EGNOS, operado por ENAIRE. La industria espacial española ha contribuido significativamente al desarrollo del sistema, con empresas españolas participando en estudios para la próxima generación de EGNOS.

Satélite Características técnicas Resolución Cobertura (frecuencia de captura) Usos
EGNOS Geo Satélites geoestacionarios de corrección GNSS N/A Corrección GNSS en tiempo real Corrección de señales GNSS para aviación y transporte

Figura 3. Tabla satélite EGNOS. Fuente: elaboración propia

Meteosat: predicción meteorilógica de alta precisión

El programa Meteosat consiste en una serie de satélites meteorológicos geoestacionarios desarrollados inicialmente por la Agencia Espacial Europea (ESA) y actualmente operados por la Organización Europea para la Explotación de Satélites Meteorológicos (EUMETSAT). Estos satélites están posicionados en órbita geoestacionaria sobre el ecuador terrestre, permitiendo una vigilancia continua de las condiciones meteorológicas en Europa, África y el océano Atlántico. Su principal función es proporcionar imágenes y datos que faciliten la predicción del tiempo y el monitoreo climático.

España ha sido un participante activo en el programa Meteosat desde sus inicios. A través de la Agencia Estatal de Meteorología (AEMET), España contribuye financieramente a EUMETSAT y participa en la toma de decisiones y operaciones del programa. Además, la industria espacial española ha desempeñado un papel clave en el desarrollo de los satélites Meteosat. Empresas españolas han sido responsables del diseño y suministro de componentes críticos para los satélites de tercera generación, incluyendo mecanismos de escaneado y calibración.

Satélite Características técnicas Resolución Cobertura (frecuencia de captura) Usos
Meteosat Primera Gen.  Satélites meteorológicos iniciales, baja resolución Baja resolución Cada 30min Predicción meteorológica básica, imágenes cada 30 min
Meteosat Segunda Gen. Mayor resolución espectral y temporal, datos cada 15 min  Alta resolución Cada 15min Mejor precisión, detección temprana de fenómenos meteorológicos
Meteosat Tercera Gen. Alta precisión en imágenes meteorológicas, detección de rayos Alta resolución Alta frecuencia Alta precisión en imágenes meteorológicas, detección de rayos

Figura 4. Tabla Metosat. Fuente: elaboración propia

Acceso a los datos de cada programa

Cada programa tiene diferentes condiciones y plataformas de distribución en cuanto al acceso a los datos:

  • Copernicus: proporciona datos abiertos y gratuitos a través de diversas plataformas. Los usuarios pueden acceder a imágenes y productos satelitales a través del Copernicus Data Space Ecosystem, que ofrece herramientas de búsqueda, descarga y procesamiento. También se pueden obtener datos a través de API para integración en sistemas automatizados.
  • Galileo: su servicio abierto (Open Service - OS) permite el uso libre de las señales de navegación para cualquier usuario con un receptor compatible, sin coste. Sin embargo, no se proporciona acceso directo a datos satelitales brutos. Para información sobre servicios y documentación, el acceso se realiza a través del Centro Europeo de Servicios GNSS (GSC):
  • EGNOS: este sistema mejora la precisión de la navegación con señales de corrección GNSS. Los datos sobre la disponibilidad del servicio y su estado se pueden consultar en la plataforma EGNOS User Support.
  • Meteosat: los datos de los satélites Meteosat están disponibles a través de la plataforma de EUMETSAT. Existen distintos niveles de acceso, incluyendo algunos datos gratuitos y otros sujetos a registro o pago. Para obtener imágenes y productos meteorológicos se puede acceder al Centro de Datos de EUMETSAT.

En términos de acceso abierto, Copernicus es el único programa que ofrece datos abiertamente y sin restricciones. En cambio, Galileo y EGNOS proporcionan servicios gratuitos, pero no acceso a datos satelitales crudos, mientras que Meteosat requiere registro y en algunos casos pago por acceso a datos específicos.

Conclusiones

Los programas Copernicus, Galileo, EGNOS y Meteosat no solo refuerzan la soberanía espacial de Europa, sino que también garantizan el acceso a datos estratégicos esenciales para la gestión del planeta. A través de ellos, Europa puede monitorizar el cambio climático, optimizar la navegación global, mejorar la precisión de sus sistemas de posicionamiento y fortalecer su capacidad de predicción meteorológica, asegurando respuestas más eficaces ante crisis ambientales y emergencias.

España juega un papel fundamental en esta infraestructura espacial, no solo con su industria aeroespacial, sino también con sus centros de control y estaciones de referencia, consolidándose como un actor clave en el desarrollo y operación de estos sistemas.

Las imágenes y datos satelitales han pasado de ser herramientas científicas a convertirse en recursos esenciales para la seguridad, la gestión ambiental y el crecimiento sostenible. En un mundo cada vez más dependiente de la información en tiempo real, el acceso a estos datos es crítico para la resiliencia climática, la planificación territorial, la agricultura sostenible y la protección de los ecosistemas.

El futuro de la observación de la Tierra y la navegación por satélite está en constante evolución, y Europa, con sus programas espaciales avanzados, se posiciona como un referente en la exploración, el análisis y la gestión del planeta desde el espacio.

El acceso a estos datos permite a investigadores, empresas y gobiernos tomar decisiones más informadas y eficaces. Con estos sistemas, Europa y España garantizan su independencia tecnológica y fortalecen su liderazgo en el ámbito espacial.

¿Listo para explorar más? Accede a los enlaces de cada programa y descubre cómo estos datos pueden transformar nuestro mundo.

Copernicus https://dataspace.copernicus.eu/ Centro descarga
Meteosat https://user.eumetsat.int/data-access/data-centre/  Centro descarga
Galileo  https://www.gsc-europa.eu/galileo/services/galileo-high-accuracy-servic…/  Centro descarga, previo registro
EGNOS https://egnos-user-support.essp-sas.eu/ Proyecto

Figura 5. Recursos. Fuente: elaboración propia

 


Contenido elaborado por Mayte Toscano, Senior Consultant en Tecnologías ligadas a la economía del dato. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.

calendar icon
Evento

Marzo se acerca y con ello una nueva edición del Open Data Day. Se trata de una celebración anual a nivel mundial que se organiza desde hace 12 años, impulsada por la fundación Open Knowledge a través de la Open Knowledge Network. Su objetivo es promover el uso de los datos abiertos en todos los países y culturas.

El tema central de este año es “Datos abiertos para abordar la policrisis”. El término policrisis hace referencia a una situación en la que existen diferentes riesgos en el mismo periodo temporal. Con esta temática se quiere poner el foco en los datos abiertos como herramienta para abordar, a través de su reutilización, desafíos globales como la pobreza y las múltiples desigualdades, la violencia y los conflictos, y los riegos climáticos y las catástrofes naturales.

Si hace varios años las actividades se limitaban a un único día, desde 2023 tenemos una semana para poder disfrutar de diversas conferencias, seminarios, talleres, etc. centradas en esta temática. En concreto, en 2025, las actividades relacionadas con el Open Data Day tendrán lugar del 1 al 7 de marzo.

A través de su página web puedes ver las diversas actividades que se realizarán a lo largo de la semana en todo el planeta. En este artículo repasamos algunas de las que puedes seguir desde España, bien porque se realizan en el territorio nacional o porque se pueden seguir online.

Open Data Day 2025: mujeres liderando datos abiertos para la igualdad

Iniciativa Barcelona Open Data organiza una sesión la tarde del 6 de marzo centrada en cómo los datos abiertos pueden ayudar a abordar los retos relacionados con la igualdad. La cita reunirá a mujeres expertas en tecnologías de datos y open data, para compartir conocimiento, experiencias y buenas prácticas tanto en la publicación como en la reutilización de datos abiertos en este campo.

El evento comenzará a las 17:30 con la bienvenida e introducción. A continuación, tendrán lugar dos mesas redondas y una entrevista:

  • Mesa redonda 1. Instituciones publicadoras. Estrategia de datos con perspectiva de género para abordar la agenda feminista.
  • Diálogo. Data lab. Construyendo la práctica feminista Tech Data.
  • Mesa redonda 2. Reutilizadores/as. Proyectos basados en el uso de datos abiertos para abordar la agenda feminista.

La jornada terminará a las 19:40 con un cóctel y la oportunidad para los asistentes de conversar sobre los temas tratados y ampliar la red de contactos a través del networking.

¿Cómo lo puedes seguir? Se trata de un evento presencial, que se celebrará en Ca l’Alier, en la calle de Pere IV, 362 (Barcelona).

Inscripción al evento

Las publicaciones científico-académicas de acceso abierto como herramientas para enfrentar la policrisis del siglo XXI: el rol clave de los editores

Organizada por un particular, el profesor Damián Molgaray, esta conferencia analiza el rol clave de los/as editores/as en las publicaciones científico-académicas de acceso abierto. La idea es que los participantes reflexionen sobre cómo el conocimiento abierto se posiciona como una herramienta fundamental para enfrentar los desafíos de la policrisis del siglo XXI, con el foco puesto en América Latina.

La cita será el 4 de marzo a las 11:00 de Argentina (15:00 en España peninsular).

¿Cómo lo puedes seguir? Se trata de un evento online a través de Google Meet.

Inscripción al evento

WhoFundsThem

La organización mySociety mostrará los resultados de su último proyecto. Durante los últimos meses, un equipo de voluntarios ha recopilado datos de los intereses financieros de los 650 diputados de la Cámara de los Comunes del Reino Unido, a través de fuentes como el Registro de Intereses oficial, el Registro Mercantil, las participaciones de los diputados a los debates, etc. Eso datos, comprobados y verificados con los propios diputados mediante un sistema de “derecho de réplica”, se han transformado a un formato de fácil acceso, para que cualquier persona pueda entenderlos fácilmente, y se publicarán en el sitio web de seguimiento parlamentario TheyWorkForYou.

En este evento se presentará el proyecto y se analizarán las conclusiones. Se celebra en martes 4 a las 14:00 hora de Londres (15:00 en España peninsular).

¿Cómo lo puedes seguir? La sesión se puede seguir online, pero es necesario registrarse. El evento será en inglés.

Inscripción al evento

Science on the 7th: A conversation on Open Data & Air Quality

El viernes 7 a las 9:00 EST – (15:00 en España peninsular) se podrá seguir online una conferencia sobre datos abiertos y calidad del aire. La sesión reunirá a diversos expertos para debatir los temas de actualidad en materia de calidad del aire y salud mundial, y se examinará la contaminación atmosférica procedente de fuentes clave, como las partículas, el ozono y la contaminación relacionada con el tráfico.

Esta iniciativa está organizada por Health Effects Institute, una corporación sin ánimo de lucro que proporciona datos científicos sobre los efectos de la contaminación atmosférica en la salud.

¿Cómo lo puedes seguir? La conferencia, que será en inglés, se puede ver a través de YouTube. No es necesario inscribirse.

Inscripción al evento

Abierto el plazo para recibir nuevas propuestas de eventos

Los eventos anteriores son solo algunos ejemplos de las actividades que forman parte de esta celebración mundial, pero, como se mencionó anteriormente, puedes ver todas las acciones en la página web de la iniciativa.

Además, todavía está abierto el plazo para inscribir nuevos eventos. Si tienes una propuesta, puedes registrarla a través de este enlace.

Desde datos.gob.es te invitamos a unirte a esta semana de celebración, que sirve para reivindicar el poder de los datos abiertos para generar cambios positivos en nuestra sociedad. ¡No te lo pierdas!

calendar icon
Blog

El Pacto Verde Europeo (Green Deal) es la estrategia de crecimiento sostenible de la Unión Europea (UE), diseñada para impulsar una transición ecológica que transforme a Europa en una sociedad justa y próspera, con una economía moderna y competitiva. Dentro de esta estrategia, destacan iniciativas como Objetivo 55 (Fit for 55), que busca reducir las emisiones de la UE en al menos un 55% para 2030, y el Reglamento sobre la Restauración de la Naturaleza (Nature Restoration Regulation), que establece objetivos vinculantes para recuperar ecosistemas, hábitats y especies.

Por otro lado, la Estrategia Europea de Datos (European Data Strategy) posiciona a la UE como líder en economías basadas en datos, promoviendo valores fundamentales como la privacidad y la sostenibilidad. Esta estrategia contempla la creación de espacios de datos sectoriales para fomentar la disponibilidad y compartición de datos, promoviendo su reutilización en beneficio de la sociedad y diversos sectores, entre los que se encuentra el medio ambiente.

En este artículo, se analiza cómo los espacios de datos medioambientales, impulsados por la Estrategia Europea de Datos, desempeñan un papel fundamental en el logro de los objetivos del Pacto Verde Europeo, fomentando el uso innovador y colaborativo de datos.

Espacio de datos del Pacto Verde desde la Estrategia Europea de Datos

En este contexto, la UE impulsa el espacio de datos del Pacto Verde (Green Deal Data Space), diseñado con el fin de apoyar los objetivos del Pacto Verde mediante el uso de datos. Este espacio de datos permitirá compartir datos y utilizar todo su potencial para afrontar desafíos ambientales clave en varios ámbitos: la preservación de la biodiversidad, la gestión sostenible del agua, la lucha contra el cambio climático y el uso eficiente de los recursos naturales, entre otros.

En este sentido, la Estrategia Europea de Datos destaca dos iniciativas:

  • Por un lado, la iniciativa GreenData4all que lleva a cabo una actualización de la directiva INSPIRE para permitir un mayor intercambio de datos geoespaciales medioambientales entre los sectores público y privado, y su reutilización efectiva, incluyendo el acceso abierto a la ciudadanía en general.
  • Por otro lado, el proyecto Destination Earth que propone la creación de un gemelo digital de la Tierra, mediante el uso, entre otros, de datos satelitales, lo que permitirá simular escenarios relacionados con el cambio climático, la gestión de recursos naturales y la prevención de desastres naturales.

Acciones preparatorias para el desarrollo del espacio de datos del Pacto Verde

Dentro de su estrategia de financiación de acciones preparatorias para el desarrollo de espacios de datos, la UE financia el proyecto GREAT (The Green Deal Data Space Foundation and its Community of Practice). Este proyecto se centra en sentar las bases para el desarrollo del espacio de datos del Pacto Verde mediante tres casos de uso estratégicos: mitigación y adaptación al cambio climático, polución cero y biodiversidad. Un aspecto clave de GREAT es la identificación y definición de un conjunto prioritario de datos medioambientales de alto valor (conjunto mínimo pero ampliable). Este enfoque conecta directamente este proyecto con el concepto de datos de alto valor definido en la Directiva Europea sobre datos abiertos (es decir, aquellos cuya reutilización genera no solo un impacto económico positivo, sino también beneficios sociales y medioambientales). Dentro de los datos de alto valor definidos en el Reglamento de Ejecución destacan los datos relacionados con la observación de la Tierra y el medio ambiente, que incluyen aquellos obtenidos por satélites, sensores terrestres y datos in situ. Estos conjuntos abarcan temas como calidad del aire, clima, emisiones, biodiversidad, ruido, residuos y agua, todos ellos relacionados con el Pacto Verde Europeo.

Aspectos diferenciadores del espacio de datos del Pacto Verde

Llegados a este punto, se pueden destacar tres aspectos diferenciadores del espacio de datos del Pacto Verde.

  • En primer lugar, su naturaleza claramente multisectorial exige la consideración de datos procedentes de una amplia variedad de ámbitos, cada uno con sus propios marcos normativos y modelos específicos.
  • En segundo lugar, su desarrollo está profundamente vinculado al territorio, lo que implica la necesidad de adoptar un enfoque ascendente (bottom-up) que parta de escenarios concretos y locales.
  • Por último, incluye datos de alto valor, lo que resalta la importancia de una implicación activa por parte de las administraciones públicas, además de la colaboración del sector privado y el tercer sector para garantizar su éxito y sostenibilidad.

Por ello, el potencial de los datos medioambientales aumentará significativamente a través de espacios de datos europeos multisectoriales, territorializados y con una gran implicación del sector público.

Desarrollo de espacios de datos medioambientales en el programa HORIZON

Con el fin de desarrollar espacios de datos medioambientales teniendo en cuenta las consideraciones anteriores, tanto de la Estrategia Europea del Dato como de las acciones preparatorias dentro del programa Horizonte Europa (HORIZON), la UE financia cuatro proyectos:

  • Urban Data Spaces for Green dEal (USAGE). Este proyecto desarrolla soluciones para garantizar que los datos ambientales a nivel local sean útiles para mitigar los efectos del cambio climático. Esto incluye el desarrollo de mecanismos para hacer que las ciudades generen datos que cumplan los principios FAIR (Findable, Accessible, Interoperable, Reusable) permitiendo su uso para tomar decisiones informadas en el ámbito medioambiental.
  • All Data for Green Deal (AD4GD). Este proyecto tiene como objetivo proponer un conjunto de mecanismos para asegurar que los datos de biodiversidad, calidad del agua y calidad del aire cumplan los principios FAIR. Consideran datos de diversas fuentes (teledetección por satélite, redes de observación in situ, sensores conectados a través de IoT, ciencia ciudadana o datos socioeconómicos).
  • F.A.I.R. information cube (FAIRiCUBE). El propósito de este proyecto es crear una plataforma que permita la reutilización de datos de biodiversidad y climáticos a través del uso de técnicas de aprendizaje automático. El objetivo es permitir a instituciones públicas que actualmente no tienen fácil acceso a estos recursos que puedan mejorar sus políticas medioambientales y una toma de decisiones basadas en la evidencia (por ejemplo, para la adaptación de ciudades al cambio climático).
  • Biodiversity Building Blocks for Policy (B-Cubed). Este proyecto pretende transformar la monitorización de la biodiversidad en un proceso ágil y que genere datos más interoperables. Se consideran datos sobre biodiversidad procedentes de distintas fuentes, como ciencia ciudadana, museos, herbarios o investigaciones; así como su consumo a través de modelos de inteligencia de negocio, como cubos OLAP, para una toma de decisiones informada en la generación de políticas públicas adecuadas para contrarrestar la crisis mundial de la biodiversidad.

Espacios de datos medioambientales y datos de investigación

Finalmente, una fuente de datos que puede desempeñar un papel crucial en el logro de los objetivos del Pacto Verde Europeo son los datos científicos que emanan de resultados de investigación. En este contexto, la iniciativa European Open Science Cloud (EOSC) de la Unión Europea se presenta como una herramienta esencial. EOSC es una infraestructura digital abierta y federada diseñada para proporcionar a la comunidad científica europea acceso a datos y servicios científicos de alta calidad, es decir, un verdadero espacio de datos de investigación. Esta iniciativa busca facilitar la interoperabilidad y el intercambio de datos en todos los campos de la investigación promoviendo la adopción de principios FAIR, por lo que su federación con el espacio de datos del Pacto Verde resulta fundamental.

Conclusiones

Los datos medioambientales son clave para cumplir los objetivos del Pacto Verde Europeo. Para fomentar la disponibilidad y compartición de estos datos, promoviendo su reutilización, la UE está desarrollando una serie de proyectos de espacios de datos medioambientales. Una vez puestos en marcha, estos espacios de datos facilitarán una gestión más eficiente y sostenible de los recursos naturales, mediante una colaboración activa entre todos los actores involucrados (tanto públicos como privados), que impulse la transición ecológica en Europa.


Jose Norberto Mazón, Catedrático de Lenguajes y Sistemas Informáticos de la Universidad de Alicante​.  Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.

calendar icon
Blog

La captura de datos geoespaciales es esencial para entender nuestro entorno, tomar decisiones informadas y diseñar políticas efectivas en áreas como la planificación urbana, la gestión de recursos naturales o la respuesta ante emergencias. En el pasado, este proceso era principalmente manual y laborioso, basado en mediciones terrestres realizadas con herramientas como estaciones totales y niveles. Aunque estas técnicas tradicionales han evolucionado significativamente y siguen siendo ampliamente utilizadas, se han complementado con métodos automatizados y versátiles que permiten recopilar datos de manera más eficiente y detallada.

La novedad en el contexto actual no solo radica en los avances tecnológicos, que han mejorado la precisión y eficiencia en la recopilación de datos geoespaciales, sino también porque coincide con un cambio generalizado de mentalidad hacia la transparencia y la accesibilidad. Este enfoque ha impulsado la publicación de los datos obtenidos como recursos abiertos, facilitando su reutilización en aplicaciones como la planificación urbana, la gestión energética y la evaluación ambiental. La combinación de tecnología avanzada y una mayor conciencia sobre la importancia de compartir información marca un cambio significativo respecto a las técnicas tradicionales.

En este artículo, exploraremos algunos de los nuevos métodos de captura de datos, desde vuelos fotogramétricos con helicópteros y drones, hasta sistemas terrestres como el mobile mapping, que emplean sensores avanzados para generar modelos tridimensionales y mapas altamente precisos. Además, aprenderemos cómo estas tecnologías han potenciado la generación de datos abiertos, democratizando el acceso a información geoespacial clave para la innovación, la sostenibilidad y la colaboración pública-privada.

Fotogrametría áerea: helicópteros con sensores avanzados

En el pasado, la captura de datos geoespaciales desde el aire implicaba procesos largos y complejos. Las cámaras analógicas montadas en aviones generaban fotografías aéreas que debían procesarse manualmente para crear mapas bidimensionales. Aunque este enfoque fue innovador en su momento, también presentaba limitaciones, como una resolución más baja, tiempos prolongados de procesamiento y una mayor dependencia de las condiciones meteorológicas y de la luz diurna. Sin embargo, los avances tecnológicos han reducido estas restricciones, permitiendo incluso operaciones nocturnas o en condiciones climáticas adversas.

Hoy en día, la fotogrametría aérea ha dado un salto cualitativo gracias al uso de helicópteros equipados con sensores de última generación. Las cámaras digitales de alta resolución permiten capturar imágenes en múltiples ángulos, incluidas vistas oblicuas que ofrecen una perspectiva más completa del terreno. Además, la incorporación de sensores térmicos y tecnologías LiDAR (Light Detection and Ranging) añade una capa de detalle y precisión sin precedentes. Estos sistemas generan nubes de puntos y modelos tridimensionales que pueden integrarse directamente en software de análisis geoespacial, eliminando gran parte del procesamiento manual.

Aspecto Ventajas Inconvenientes
Cobertura y flexibilidad Permite cubrir grandes áreas y acceder a terrenos complejos. Puede estar limitado a su uso en zonas con restricciones de espacio aéreo. Inaccesible a zonas subterráneas o de difícil acceso como túneles.
Tipos de datos Captura datos visuales, térmicos y topográficos en un solo vuelo.  -
Precisión Genera nubes de puntos y modelos 3D con alta precisión. -
Eficiencia en grandes proyectos de datos Permite cubrir áreas extensas donde los drones no tienen suficiente autonomía. Coste operativo elevado comparado con otras tecnologías.
Impacto medioambiental y ruido - Genera ruido y mayor impacto ambiental, limitando su uso en áreas sensibles.
Condiciones climáticas  - Depende del clima; condiciones adversas como viento y lluvia afectarán su operación.
Coste - Alto coste en comparación con drones o métodos terrestres.

Figura 1. Tabla con ventajas e inconvenientes de la fotogrametría aérea con helicópteros.

Mobile mapping: de mochilas a integración BIM

El mobile mapping es una técnica de captura de datos geoespaciales que emplea vehículos equipados con cámaras, escáneres LiDAR, GPS y otros sensores avanzados. Esta tecnología permite recopilar información detallada mientras el vehículo se desplaza, siendo ideal para cartografiar áreas urbanas, redes viales y entornos dinámicos.

En el pasado, los levantamientos topográficos requerían mediciones estacionarias, lo que implicaba interrupciones del tráfico y un tiempo considerable para cubrir extensas áreas. En contraste, el mobile mapping ha revolucionado este proceso, permitiendo capturar datos de manera rápida, eficiente y con menor impacto en el entorno. Además, existen versiones portátiles de esta tecnología, como mochilas con escáneres robóticos, que permiten acceder a áreas peatonales o de difícil acceso.

Figura 2. Imagen captada con técnicas de mobile mapping.

Aspecto Ventajas Inconvenientes
Rapidez Captura datos mientras el vehículo se desplaza, reduciendo tiempos de operación. Menor precisión en áreas con poca visibilidad para los sensores (por ejemplo, túneles).
Cobertura urbana Ideal para entornos urbanos y redes viales complejas. Es eficiente en áreas donde los vehículos pueden circular, pero su alcance es limitado como en terrenos rurales o inaccesibles.
Flexibilidad de implementación  Disponible en versiones portátiles (mochilas) para áreas peatonales o difíciles de alcanzar. Los equipos portátiles suelen tener menor alcance que los sistemas vehiculares.
Integración con SIG y BIM Facilita la generación de modelos digitales y su uso en planificación y análisis. Requiere software avanzado para procesar grandes volúmenes de datos.
Impacto en el entorno  No requiere interrupciones del tráfico ni acceso exclusivo a áreas de trabajo. Dependencia de condiciones ambientales óptimas, como luz adecuada y clima.
Accesibilidad Accesible a zonas subterráneas o de difícil acceso como túneles.  

Figura 3. Tabla con ventajas e inconvenientes del mobile mapping.

El mobile mapping se presenta como una solución versátil y eficiente para capturar datos geoespaciales en movimiento, convirtiéndose en una herramienta clave para la modernización de los sistemas de gestión urbana y territorial.

HAPS y globos: nuevas alturas para la captura de información

Los HAPS (High-Altitude Platform Stations) y globos aerostáticos representan una alternativa innovadora y eficiente en la captura de datos geoespaciales desde grandes alturas. Estas plataformas, ubicadas en la estratosfera o a altitudes controladas, combinan características de los drones y los satélites, ofreciendo una solución intermedia que destaca por su versatilidad y sostenibilidad:

  • Los HAPS, como los zepelines y aeronaves similares, operan en la estratosfera, a altitudes de entre 18 y 20 kilómetros, permitiendo una vista amplia y detallada del terreno.
  • Los globos aerostáticos, por su parte, son ideales para estudios locales o temporales, gracias a su facilidad de despliegue y operación en altitudes más bajas.

Ambas tecnologías pueden equiparse con cámaras de alta resolución, sensores LiDAR, instrumentos térmicos y otras tecnologías avanzadas para la captura de datos.

Aspecto Ventajas Inconvenientes
Cobertura Amplia área de captura, especialmente con HAPS en la estratosfera. Cobertura limitada en comparación con satélites en órbita.
Sostenibilidad Menor impacto ambiental y huella energética en comparación con helicópteros o aviones. Dependencia de condiciones meteorológicas para su despliegue y estabilidad.
Coste  Costos operativos más bajos que los satélites tradicionales Mayor inversión inicial que drones o equipos terrestres.
Versatilidad Ideal para proyectos temporales o de emergencia. Limitada autonomía en globos aerostáticos.
Duración de operación Los HAPS pueden operar por largos periodos (días o semanas). Los globos aerostáticos tienen un tiempo de operación más corto.

Figura 4. Tabla con ventajas e inconvenientes del HAPS y globos

Los HAPS y globos aerostáticos se presentan como herramientas clave para complementar tecnologías existentes como los drones y satélites, ofreciendo nuevas posibilidades en la recopilación de datos geoespaciales de manera sostenible, flexible y eficiente. A medida que estas tecnologías evolucionen, su adopción ampliará el acceso a datos cruciales para una gestión más inteligente del territorio y los recursos.

La tecnología satelital es una herramienta fundamental para la captura de datos geoespaciales a nivel global. España ha dado pasos significativos en este ámbito con el desarrollo y lanzamiento del satélite PAZ. Este satélite, diseñado inicialmente para fines de seguridad y defensa, ha demostrado un enorme potencial para aplicaciones civiles, como el monitoreo ambiental, la gestión de recursos naturales y la planificación urbana.

Tecnología satelital: el satélite PAZ y su futuro con PAZ-2

PAZ es un satélite de observación de la Tierra equipado con un radar de apertura sintética (SAR), que permite captar imágenes en alta resolución, independientemente de las condiciones meteorológicas o de luz.

El próximo lanzamiento de PAZ-2 (previsto para 2030) promete ampliar aún más las capacidades de observación de España. Este nuevo satélite, diseñado con mejoras tecnológicas, busca complementar las funciones de PAZ y aumentar la disponibilidad de datos para aplicaciones civiles y científicas. Entre las mejoras previstas, se incluyen:

  • Mayor resolución de imágenes.
  • Capacidad para monitorear áreas más extensas en menos tiempo.
  • Incremento en la frecuencia de capturas para análisis más dinámicos.
Aspecto Ventajas Desventajas
Cobertura global Capacidad de capturar datos de cualquier parte del planeta. Limitaciones en la resolución frente a tecnologías terrestres más detalladas.
Independiencia del clima Los sensores SAR permiten capturas incluso en condiciones meteorológicas adversas.. Dependencia de condiciones meteorológicas para su despliegue y estabilidad.
Frecuencia de datos PAZ-2 mejorará la frecuencia de capturas, ideal para el monitoreo continuo. Tiempo limitado en la vida útil del satélite.
Acceso a datos abiertos Fomenta la reutilización en proyectos civiles y científicos. Requiere infraestructura avanzada para procesar grandes volúmenes de datos.

Figura 5. Tabla con ventajas e inconvenientes de la tecnología satelital PAZ y PAZ-2

Con PAZ y el próximo PAZ-2, España fortalece su posición en el ámbito de la observación satelital, abriendo nuevas oportunidades para la gestión eficiente del territorio, el análisis ambiental y el desarrollo de soluciones innovadoras basadas en datos geoespaciales. Estos satélites no solo son un avance tecnológico, sino también una herramienta estratégica para promover la sostenibilidad y la cooperación internacional en el acceso a datos.

Conclusión: retos y oportunidades en la gestión del dato

La evolución de las técnicas de captura de datos geoespaciales ofrece una oportunidad única para mejorar la precisión, accesibilidad y calidad de los datos, y en el caso concreto de datos abiertos, resulta fundamental para fomentar la transparencia y la reutilización de información pública. Sin embargo, este avance no puede entenderse sin analizar el papel que juegan las herramientas tecnológicas en dicho proceso.

Las innovaciones como el LiDAR en helicópteros, el Mobile Mapping, SAM, HAPS y satélites como PAZ y PAZ-2 no solo optimizan la obtención de datos, sino que también tienen un impacto directo en la calidad y disponibilidad de los datos.

En definitiva, estás herramientas tecnológicas generan información de alta calidad que puede ser puesta a disposición de los ciudadanos como datos abiertos, una situación que se está viendo impulsada por el cambio de mentalidad hacia la transparencia y la accesibilidad. Este equilibrio convierte a los datos abiertos y a las herramientas tecnológicas en elementos complementarios, esenciales para maximizar el valor social, económico y ambiental de los datos geoespaciales.

Puedes ver un resumen de estas técnicas y sus aplicaciones en la siguiente infografía:

Descarga la infografía aquí


Contenido elaborado por Mayte Toscano, Senior Consultant en Tecnologías ligadas a la economía del dato. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.

calendar icon
Noticia

Impulsar la cultura del dato es un objetivo clave a nivel nacional que también comparten las administraciones autonómicas. Uno de los caminos para llevar a cabo este propósito es premiar aquellas soluciones que han sido desarrolladas con conjuntos de datos abiertos, una iniciativa que potencia su reutilización e impacto en la sociedad.

En esta misión, la Junta de Castilla y León y el Gobierno Vasco llevan años organizando concursos de datos abiertos, temática de la que hablamos en nuestro primer episodio del pódcast de datos.gob.es que puedes escuchar aquí.

En este post, repasamos cuáles han sido los proyectos premiados en las últimas ediciones de los concursos de datos abiertos de Euskadi y Castilla y León.

Premiados en el VIII Concurso de Datos Abiertos de Castilla y León

En la octava edición de esta competición anual, que suele abrir su plazo a finales de verano, se presentaron 35 candidaturas, de las cuales se han escogido 8 ganadores divididos en diferentes categorías.

Categoría Ideas: los participantes tenían que describir una idea para crear estudios, servicios, sitios web o aplicaciones para dispositivos móviles. Se repartían un primer premio de 1.500€ y un segundo premio de 500€.

  • Primer premio: Guardianes Verdes de Castilla y León presentado por Sergio José Ruiz Sainz. Se trata de una propuesta para desarrollar una aplicación móvil que oriente a los visitantes de los parques naturales de Castilla y León. Los usuarios pueden acceder a información (como mapas interactivos con puntos de interés) a la vez que pueden contribuir con datos útiles de su visita, que enriquecen la aplicación.
  • Segundo premio: ParkNature: sistema inteligente de gestión de aparcamientos en espacios naturales presentado por Víctor Manuel Gutiérrez Martín. Consiste en una idea para la crear una aplicación que optimice la experiencia de los visitantes de los espacios naturales de Castilla y León, mediante la integración en tiempo real de datos sobre aparcamientos y la conexión con eventos culturales y turísticos cercanos.

Categoría Productos y Servicios: premiaba estudios, servicios, sitios web o aplicaciones para dispositivos móviles, los cuales deben estar accesibles para toda la ciudadanía vía web mediante una URL. En esta categoría se repartieron un primer, segundo y tercer premio de 2.500€, 1.500€ y 500€, respectivamente, además de un premio específico de 1.500€ para estudiantes.

  • Primer premio: AquaCyL de Pablo Varela Vázquez. Es una aplicación que ofrece información sobre las zonas de baño en la comunidad autónoma.
  • Segundo premio: ConquistaCyL presentado por Markel Juaristi Mendarozketa y Maite del Corte Sanz. Es un juego interactivo pensado para hacer turismo en Castilla y León y aprender a través de un proceso gamificado.
  • Tercer premio: Todo el deporte de Castilla y León presentado por Laura Folgado Galache. Es una app que presenta toda la información de interés asociada a un deporte según la provincia.
  • Premio estudiantes: Otto Wunderlich en Segovia por Jorge Martín Arévalo. Es un repositorio fotográfico ordenado según tipo de monumentos y localización de las fotografías de Otto Wunderlich.

Categoría Recurso Didáctico: consistía en la creación de recursos didácticos abiertos nuevos e innovadores, que sirvieran de apoyo a la enseñanza en el aula. Estos recursos debían ser publicados con licencias Creative Commons. En esta categoría se otorgaba un único primer premio de 1.500€.

  • Primer premio: StartUp CyL: Creación de empresas a través de la Inteligencia Artificial y Datos Abiertos presentado por José María Pérez Ramos. Es un chatbot que utiliza la API de ChatGPT para asistir en la creación de una empresa utilizando datos abiertos.

Categoría Periodismo de Datos: premiaba piezas periodísticas publicadas o actualizadas (de forma relevante), tanto en soporte escrito como audiovisual, y ofrecía un premio de 1.500€.

Premiados de la 5ª edición del Concurso de Datos Abiertos de Open Data Euskadi

Como ya venía sucediendo en ediciones anteriores, el portal de datos abiertos de Euskadi abrió dos modalidades de premios: un concurso de ideas y otro de aplicaciones, cada uno de los cuales estaba dividido en varias categorías. En esta ocasión, se presentaron 41 candidaturas en el concurso de ideas y 30 para el de aplicaciones

Concurso de ideas: en esta modalidad se han repartido dos premios por categoría, el primero de 3.000€ y el segundo de 1.500€.

Categoría Sanitaria y Social

Categoría Medio ambiente y Sostenibilidad

  • Primer premio: Baratzapp de Leire Zubizarreta Barrenetxea. La idea consiste en el desarrollo de un software que facilita y asiste en la planificación de un huerto mediante algoritmos que buscan potenciar el conocimiento relacionado con la huerta de autoconsumo, a la vez que integra, entre otras, la información climatológica, medioambiental y parcelaria de una manera personalizada para el usuario.
  • Segundo premio: Euskal Advice de Javier Carpintero Ordoñez. El objetivo de esta propuesta es definir un recomendador turístico basado en inteligencia artificial.

Categoría General

  • Primer premio: Lanbila de Hodei Gonçalves Barkaiztegi. Es una propuesta de app que utiliza IA generativa y datos abiertos para emparejar curriculum vitae con ofertas de empleo de forma semántica. Proporciona recomendaciones personalizadas, alertas proactivas de empleo y formación, y permite decisiones informadas a través de indicadores laborales y territoriales.
  • Segundo premio: Desarrollo de un LLM para la consulta interactiva de Datos Abiertos del Gobierno Vasco de Ibai Alberdi Martín. La propuesta consiste en el desarrollo de un Modelo de Lenguaje a Gran Escala (LLM) similar a ChatGPT, entrenado específicamente con datos abiertos, enfocado en proporcionar una interfaz conversacional y gráfica que permita a los usuarios obtener respuestas precisas y visualizaciones dinámicas.

Concurso de aplicaciones: esta modalidad ha seleccionado un proyecto en la categoría de servicios web, premiado con 8.000€, y dos más en la Categoría General que han recibido un primer premio de 8.000€ y 5.000€ como segundo premio.

Categoría Servicios web

Categoría General

  • Primer premio: Garbiñe AI de Beatriz Arenal Redondo. Es un asistente inteligente que combina la inteligencia artificial (IA) con datos abiertos de Open Data Euskadi para promover la economía circular y mejorar los ratios de reciclaje en Euskadi.
  • Segundo premio: Vitoria-Gasteiz Businessmap de Zaira Gil Ozaeta. Es una herramienta de visualización interactiva basada en datos abiertos, diseñada para mejorar las decisiones estratégicas en el ámbito del emprendimiento y la actividad económica en Vitoria-Gasteiz.

Todas estas soluciones premiadas reutilizan conjuntos de datos abiertos del portal autonómico de Castilla y León o Euskadi, según el caso. Te animamos a que eches un vistazo a las propuestas que pueden inspirarte de cara a participar en la próxima edición de estos concursos. ¡Síguenos en redes sociales para no perderte las convocatorias de este año!

calendar icon
Sectores
calendar icon