Blog

La Agencia Española de Protección de Datos (AEPD), a través de su propia sección de Innovación y Tecnología desempeña una labor didáctica esencial al proporcionar un corpus documental que traduce las obligaciones legales del Reglamento General de Protección de Datos (RGPD) a realidades tecnológicas concretas. Su valor reside en su capacidad para ofrecer seguridad jurídica y pautas técnicas en áreas donde la normativa aún está encontrando su encaje práctico, como la inteligencia artificial o la biometría.

Se trata de guías de referencia, artículos y otros materiales didácticos orientados especialmente a pymes y personas emprendedoras. En este post presentamos algunas de las más recientes, ordenadas según sector y materia.

Las nuevas tendencias de la inteligencia artificial y su despliegue seguro

La evolución de la inteligencia artificial hacia sistemas cada vez más autónomos plantea nuevos retos en materia de protección de datos. Por ello, la Agencia Española de Protección de Datos ha desarrollado diversas guías y documentos orientados a facilitar un despliegue seguro y responsable de esta tecnología. En general, la IA es una de las áreas de mayor actividad documental de la AEPD debido a su impacto transversal. Los recursos de la Agencia cubren desde la gestión interna hasta las tecnologías de última generación.

Para complementar esta información, los usuarios también pueden visitar el blog de la AEPD, que sirve como un observatorio de tendencias donde se analizan los riesgos visibles e invisibles de las tecnologías de consumo. Algunas de las temáticas que se trata son:

  • Tratamiento de imagen y voz: se han publicado análisis sobre la transcripción de voz con IA y el uso de servicios que convierten fotografías a otros formatos (como animaciones). Estos artículos alertan sobre el tratamiento de datos biométricos y la propiedad de los datos en la nube.
  • Alfabetización algorítmica: recursos como "Abordando conceptos erróneos de la IA" buscan elevar el nivel de juicio crítico de los usuarios y responsables frente a la opacidad de los algoritmos.
  • Equilibrio de derechos: destaca el análisis sobre la protección del menor en el entorno digital y el diseño de contratos públicos que integren la privacidad desde el diseño.

Cartera europea de identidad digital

La evolución hacia una Europa interconectada exige estándares de identidad robustos y medidas de seguridad accesibles para todos los niveles empresariales.

La construcción de una identidad digital segura, interoperable y confiable es uno de los pilares de la transformación digital en Europa. La futura cartera europea de identidad digital es un proyecto que plantea permitir a la ciudadanía identificarse electrónicamente y compartir atributos personales de forma controlada en múltiples servicios, tanto públicos como privados.

Para analizar sus implicaciones desde el punto de vista de la privacidad, la Agencia Española de Protección de Datos ha publicado una serie de cuatro artículos monográficos a lo largo de 2025. En ellos, la Agencia desglosa la relación entre la nueva cartera de identidad digital y el RGPD.

Estos contenidos abordan cuestiones clave como:

  • La minimización de datos y el principio de proporcionalidad en el intercambio de información: explica cómo el Reglamento eIDAS2 impulsa la cartera europea de identidad digital. Este reglamento establece un marco para una identificación electrónica segura, interoperable y centrada en el usuario, alineada con el RGPD para garantizar el control y la protección de los datos personales en toda la UE.
  • Los riesgos asociados a la interoperabilidad entre sistemas: profundiza en cómo evitar que el uso de la Cartera Europea de Identidad Digital permita rastrear a los ciudadanos cuando presentan credenciales en distintos servicios públicos o privados, destacando la necesidad de soluciones criptográficas avanzadas.
  • La necesidad de garantizar el control del usuario sobre sus credenciales: examina las amenazas de identificación en las carteras de identidad digital bajo eIDAS2, destacando que, sin garantías sólidas como seudonimización y no vinculación, incluso la revelación selectiva de datos puede permitir la identificación y el perfilado indebido de los usuarios.
  • Las medidas de seguridad necesarias para evitar usos indebidos o brechas de datos: plantea las amenazas de inexactitud en las carteras de identidad digital bajo eIDAS2, destacando cómo datos desactualizados o mecanismos criptográficos vinculables pueden provocar decisiones erróneas y comprometer la privacidad. Para solucionarlo, subraya la necesidad de soluciones que garanticen tanto la fiabilidad como la negación plausible (que no exista ninguna prueba técnica que permita demostrar que una persona ha realizado una acción concreta con su cartera o credencial digital).

A través de esta serie, se ofrece una visión progresiva que ayuda a comprender tanto el potencial de la identidad digital europea como los desafíos que plantea su implementación desde una perspectiva de protección de datos.

Cifrado de protección de datos personales en las PYMES

Para muchas pequeñas y medianas empresas, garantizar la seguridad de los datos personales sigue siendo un desafío, especialmente por la falta de recursos técnicos o conocimiento especializado. En este contexto, el cifrado se presenta como una herramienta fundamental para proteger la confidencialidad e integridad de la información.

Con el objetivo de acercar este concepto a un público no experto, la Agencia Española de Protección de Datos ha publicado la Guía de cifrado para autónomos y pymes, acompañada de una infografía explicativa.

Estos recursos explican de manera clara y práctica:

  • Qué es el cifrado y por qué es importante en la protección de datos.
  • Qué tipos de cifrado existen y en qué casos se aplican.
  • Cómo implementar medidas de cifrado en situaciones habituales, como el envío de correos electrónicos o el almacenamiento de información.
  • Qué herramientas pueden utilizarse sin necesidad de conocimientos avanzados.

Investigación científica y marco legal europeo

Para los perfiles que requieren un análisis más profundo y académico, la Agencia ha impulsado la publicación de artículos científicos en diversos medios internacionales, que conectan la tecnología con la ética y el derecho. Algunos ejemplos son:

El valor didáctico de estos materiales reside en su capacidad para ofrecer una visión de 360 grados sobre el dato. Desde la investigación académica de vanguardia hasta las infografías de cifrado para una pequeña empresa, la AEPD proporciona los pilares para una innovación que no sacrifique la privacidad.

En conjunto, estos materiales que comparte la Agencia Española de Protección de datos ayudan a incorporar medidas de seguridad eficaces y a cumplir con los requisitos del Reglamento General de Protección de Datos de forma proporcionada y accesible. Todos ellos, y algunos otros, están recopilados y ordenados por temática en su apartado web, disponible aquí.

calendar icon
Entrevista

En los últimos años, la inteligencia artificial (IA) ha pasado de ser una promesa futurista a convertirse en una herramienta cotidiana: hoy convivimos con modelos de lenguaje, sistemas generativos y algoritmos capaces de aprender cada vez más tareas. Pero mientras su popularidad crece, también lo hace una pregunta esencial: ¿cómo garantizamos que estas tecnologías sean realmente fiables y dignas de confianza? Hoy vamos a explorar ese desafío con dos invitados expertos en la materia:

  • David Escudero, director del Centro de Inteligencia Artificial de la Universidad de Valladolid.
  • José Luis Marín, consultor senior en estrategia, innovación y digitalización. 

Escuchar el pódcast completo

Resumen / Transcripción de la entrevista

1. ¿Por qué es necesario conocer cómo funcionan las inteligencias artificiales y evaluar ese comportamiento? 

Jose Luis Marín: Es necesario por una razón muy sencilla: cuando un sistema influye en decisiones importantes, no es suficiente con que parezca que funciona bien en una demo llamativa, sino que tenemos que saber cuándo acierta, cuándo puede fallar y por qué. Ahora mismo ya estamos en una fase en la que la IA se comienza a aplicar en cuestiones tan delicadas como los diagnósticos médicos, la concesión de ayudas públicas o la propia atención al ciudadano en muchísimos escenarios. Por ejemplo, si nos preguntamos si nos fiaríamos de un sistema que opera como una caja negra y que decide si nos conceden una ayuda, si nos seleccionan para una entrevista o si aprobamos un examen sin poder explicarnos cómo se ha tomado esa decisión, seguramente la respuesta sería que no nos fiaríamos; y no porque la tecnología sea mejor o peor, sino sencillamente porque necesitamos entender qué hay detrás de estas decisiones que nos afectan.

David Escudero: Efectivamente, no es tanto entender cómo funcionan los algoritmos internamente, cómo funciona la lógica o la matemática que hay detrás de todos estos sistemas, pero sí entender o hacer ver a los usuarios que este tipo de sistemas tienen unos grados de fiabilidad que tienen sus límites, igual que las personas. Las personas también se pueden equivocar, pueden fallar en un momento determinado, pero hay que dar garantías para que los usuarios los usen con cierto nivel de seguridad. Ofrecer métricas del rendimiento de estos algoritmos y hacer ver que son fiables hasta cierto grado es fundamental.

2. Un concepto que surge cuando hablamos de estas cuestiones es el de  inteligencia artificial explicable ¿Cómo definiríais esta idea y por qué es tan relevante ahora?

David Escudero: IA explicable es un tecnicismo que surge por la necesidad de que el sistema, no solamente ofrezca decisiones, no solamente diga si determinado expediente tiene que ser clasificado de determinada forma o de otra, sino que dé las razones que le llevan al sistema a tomar esa decisión. Es abrir esa caja negra. Hablamos de caja negra porque el usuario no ve cómo funciona el algoritmo. Tampoco lo necesita, pero sí al menos darle unas claves de por qué el algoritmo ha tomado cierta decisión u otra, que es extremadamente importante. Imagínate un algoritmo que clasifica expedientes para derivar a una administración u otra. Si el usuario final se siente perjudicado, necesita tener una razón por la cual eso ha sido así, y la va a pedir; la puede pedir y la puede exigir. Y si desde un punto de vista tecnológico no somos capaces de darle esa solución, la inteligencia artificial tiene un problema. En ese sentido, existen técnicas que avanzan en aportar no solamente soluciones, sino en decir cuáles son las razones que llevan a un algoritmo para tomar determinadas decisiones.

Jose Luis Marín: Yo no puedo explicarlo mucho mejor de lo que lo ha explicado David. Realmente lo que buscamos con la inteligencia artificial explicable es entender el porqué de esas respuestas o de esas decisiones que toman los algoritmos de inteligencia artificial. Simplificándolo mucho, creo que en realidad no hablamos de otra cosa que no sea aplicar los mismos estándares que cuando esas decisiones las toman las personas, a las que además hacemos responsables de las decisiones. Necesitamos poder explicar por qué se ha tomado una decisión o qué reglas se han seguido, para poder confiar en esas decisiones.

3. ¿Cómo se está abordando esta necesidad de explicabilidad y evaluación rigurosa? ¿Qué metodologías o marcos están ganando más peso? ¿Y cuál es el papel de los datos abiertos en ellos?

Jose Luis Marín: Esta pregunta tiene muchas dimensiones. Diría que aquí están convergiendo varias capas. Por un lado, técnicas concretas de explicabilidad como LIME (Interpretable Model-agnostic Explanations) o SHAP (SHapley Additive exPlanations) u otras muchas. Yo suelo seguir, por ejemplo, el catálogo de herramientas y métricas de IA confiable del Observatorio de Políticas Públicas de Inteligencia Artificial de la OCDE, porque ahí se registran bastante bien los avances en el dominio. Pero, por otro lado, tenemos marcos más amplios de evaluación, que no miran solo cuestiones puramente técnicas, sino también cuestiones como los sesgos, la robustez, la estabilidad en el tiempo y el cumplimiento normativo. Ahí hay distintos frameworks como el de gestión del riesgo del NIST (National Institute of Standards and Technology), la evaluación de impacto de los algoritmos del Gobierno de Canadá o nuestro propio Reglamento de IA. Estamos en una fase en la que están surgiendo un montón de iniciativas públicas y privadas que nos irán ayudando a tener cada vez mejores herramientas.

David Escudero: Para la investigación es un campo bastante abierto todavía. Existen metodologías, efectivamente, pero los nuevos modelos basados en redes neuronales han abierto un desafío enorme. La inteligencia artificial que se venía desarrollando en los años anteriores al boom de la IA generativa, en buena medida, se basaba en sistemas expertos que acumulaban un montón de reglas de conocimiento sobre el dominio. En ese tipo de tecnología, la explicabilidad venía dada porque, como lo que se hacía era desencadenar una serie de reglas para tomar decisiones, siguiendo hacia atrás el orden en el que se habían aplicado las reglas, tenías una explicación; pero ahora con los sistemas neuronales, sobre todo con los modelos grandes, donde estamos hablando de miles y miles de millones de parámetros, ese tipo de aproximaciones han quedado imposibles, inabordables, y se aplican otro tipo de metodologías que están basadas principalmente en saber, cuándo entrenas un modelo de machine learning, cuáles son las propiedades o los atributos en el entrenamiento que te llevan a tomar unas u otras decisiones. Digamos, cuáles son los pesos de cada una de las propiedades que están utilizando. 

Por ejemplo, si estás utilizando un sistema de machine learning para decidir si mandas publicidad sobre un determinado automóvil a un montón de potenciales clientes, el sistema de machine learning se entrena en base a una experiencia. Al final, te queda un modelo neuronal donde es muy difícil entrar, pero lo puedes hacer analizando el peso de cada una de las variables de entrada que has utilizado para tomar esa decisión. Por ejemplo, la renta de la persona será uno de los atributos más importantes, pero ahí pueden aparecer otras cuestiones que te llevan a consideraciones muy importantes, como pueden ser los sesgos. Imagínate que te sale que una de las variables más importantes es el género de la persona. Ahí entras en una serie de consideraciones que son delicadas. En otros tipos de algoritmos, por ejemplo, que se basen en imágenes, un algoritmo de IA explicable te puede decir qué parte de la imagen ha sido más relevante. Por ejemplo, si estás utilizando un algoritmo para, a partir de la imagen de la cara de una persona - estoy hablando de un hipotético, de un futurible, que además sería un caso extremo-, decidir si esa persona es confiable o no. Entonces podrías mirar en qué rasgos de esa persona se está fijando más la inteligencia artificial, por ejemplo, en los ojos o en la expresión. Ese tipo de consideraciones es lo que haría la IA explicable actualmente: saber cuáles son las variables o cuáles son los datos de entrada del algoritmo que toman mayor valor a la hora de tomar decisiones. 

Esto me lleva a hablar de otra parte de tu pregunta sobre la importancia de los datos. La calidad de los datos de entrenamiento es absolutamente importante. Estos datos, estos algoritmos explicables, te pueden llevar incluso a derivar conclusiones que te indiquen que necesitas datos de más o menos calidad, porque te pueda estar dando algún resultado sorprendente, que puede indicar que algún dato de entrenamiento o entrada está derivando salidas y no debería. Entonces tienes que revisar tus propios datos de entrada. Tener datos de referencia de calidad como los que puedes encontrar en datos.gob.es. es absolutamente imprescindible para poder contrastar las informaciones que te va dando este tipo de sistemas.

José Luis Marín: Creo que los datos abiertos son clave en dos dimensiones. Primero porque permiten contrastar y replicar las evaluaciones con mayor independencia. Por ejemplo, cuando existen conjuntos de datos de validación que son públicos no solo evalúa quién construye el sistema, sino que también terceros podamos evaluar (las universidades, las administraciones o la propia sociedad civil). Esa apertura de los datos de evaluación es muy importante para que la IA sea verificable y mucho menos opaca. Pero además creo que los datos abiertos para el entrenamiento y la evaluación también aportan diversidad y contexto. En cualquier contexto minoritario en el que pensemos, seguramente los grandes sistemas no le han prestado la misma atención a estos aspectos, sobre todo los sistemas comerciales. Seguro que no han sido probados al mismo nivel en los contextos mayoritarios que en los minoritarios y de ahí que aparezcan muchos sesgos o malos funcionamientos. Entonces, los conjuntos de datos abiertos pueden contribuir en gran medida a cubrir esos gaps y corregir esos problemas. 

Creo que los datos abiertos en la inteligencia artificial explicable encajan muy bien, porque en el fondo comparten un objetivo muy parecido, relacionado con la transparencia.

4. Otro reto que nos encontramos es la rápida evolución en el ecosistema de la inteligencia artificial. Hemos empezado hablando de la popularidad de los chatbots y LLM, pero nos encontramos con que seguimos avanzando, ahora hacia la IA agéntica, sistemas capaces de actuar de forma más autónoma. ¿En qué consisten estos sistemas y qué desafíos específicos plantean desde el punto de vista ético?

David Escudero: La IA agéntica parece que es el gran tema del 2026. No es un término tan nuevo, pero si el año pasado hablábamos de agentes IA, ahora estamos hablando de IA agéntica como una nueva tecnología que coordina diferentes agentes para resolver tareas más complejas. Por simplificar, si un agente te sirve para realizar una actividad concreta, por ejemplo, para reservar un billete de avión, la IA agéntica lo que haría es: planificar el viaje, contrastar diferentes ofertas, reservar el avión, planificar el viaje de ida, la estancia, de nuevo la vuelta y, finalmente, evaluar toda la actividad. El sistema basado en IA agéntica lo que hace es ir coordinando diferentes agentes. Además, con un matiz. Cuando hablamos de la palabra agéntica -que no tenemos una traducción en español muy directa-, pensamos en un sistema que toma la iniciativa. Al final ya no eres tú solamente el que, como usuario, le pides cosas a la inteligencia artificial, sino que la IA ya es capaz de saber cómo puede resolver cosas. Te pedirá información cuando la necesite e intentará adaptarse para darte una solución final a ti como usuario, pero de forma más o menos autónoma, tomando decisiones en procesos intermedios.

Aquí la precisión y la explicabilidad son fundamentales porque se abre de nuevo un desafío muy importante. Si en un momento dado uno de estos agentes que utiliza la IA agéntica falla, se puede crear el efecto de suma de errores y al final acaba como el teléfono escacharrado. De un sistema a otro, de un agente a otro, se va pasando información y si esa información no es tan precisa como debería ser, al final la solución puede ser catastrófica. Entonces se introducen nuevos elementos que hacen, desde un punto de vista tecnológico, más apasionante si cabe el problema. Pero también hay que entender que es absolutamente necesario, porque al final tenemos que avanzar de sistemas que den una solución muy concreta para un caso muy particular a sistemas que combinen la salida de diferentes sistemas para ser un poco más ambiciosos en la respuesta que se da a posibles usuarios.

Jose Luis Marín: Efectivamente. En el momento en el que pasamos de un tipo de sistemas a los que, en principio, les otorgamos la “capacidad de pensar” en las acciones que habría que hacer y nos las cuentan, a  otros sistemas que es como si tuviesen manos para interactuar con el mundo digital - y empezamos a ver sistemas que incluso interactúan con el mundo físico y pueden ejecutar esas acciones, que no se quedan en decírtelas o recomendártelas-, se abren oportunidades muy interesantes. Pero también se multiplica la complejidad de la evaluación. El problema ya no es solo si la respuesta es correcta o incorrecta, sino que empieza a ser quién controla qué hace el sistema, qué margen de decisión tiene, quién lo supervisa y, sobre todo, quién responde si algo sale mal, porque no hablamos solo de recomendaciones, hablamos de acciones que a veces pueden no ser tan fácil deshacerlas. Esto hace que aparezcan riesgos nuevos o al menos más intensos: si se pierde esa trazabilidad en la ejecución de las acciones que no estaban previstas o que no tenían que haber ocurrido en un momento determinado; o puede haber usos indebidos de información, o muchos otros riesgos. Creo que la IA agéntica exige todavía más gobernanza y un diseño mucho más cuidadoso y alineado con los derechos de las personas.

5. Hablemos de aplicaciones reales, ¿Dónde veis más potencial y necesidad de evaluación y explicabilidad en el sector público?

Jose Luis Marín: Diría que la necesidad de evaluación y explicabilidad es mayor donde la IA pueda influir en las decisiones que afecten a las personas. Cuanto mayor sea el impacto en derechos o en oportunidades o, mismamente, en la confianza en las instituciones, mayor tiene que ser esa exigencia.  Si pensamos, por ejemplo, en ámbitos como la sanidad, los servicios sociales, el empleo, la educación… En todos ellos lógicamente es ineludible esa necesidad de evaluación en el sector público. 

En todos los casos, la IA puede ser muy útil para apoyar decisiones para conseguir eficiencias en múltiples escenarios. Pero necesitamos saber muy bien cómo se comporta y qué criterios se está utilizando. Esto no afecta solo a los sistemas más complejos. Creo que hay que fijarse en los sistemas que en principio nos puedan parecer más o menos sensibles a primera vista, como los asistentes virtuales que ya empezamos a ver en bastantes administraciones o los sistemas de traducción automática… Ahí no hay una decisión final que tome la IA, pero una mala recomendación o una respuesta errónea, también puede tener consecuencias para las personas. O sea, creo que no depende tanto de la complejidad tecnológica como del contexto de uso. En el sector público incluso un sistema aparentemente sencillo puede tener mucho impacto.

David Escudero: Os lanzo el trapo de hacer otro podcast sobre el concepto también muy de moda que es Human in the loop o Human on the loop. En el sector público tenemos un cuerpo de funcionarios públicos que conocen muy bien su trabajo y que pueden ayudar. Human in the loop sería el papel que puede tener el funcionario a la hora de generar datos que puedan ser útiles para entrenar sistemas, revisar que los datos con los que se pueden entrenar sistemas sean fiables, etc.; y Human on the loop sería la supervisión de las decisiones que pueda tomar una inteligencia artificial. Quien puede revisar, quien puede saber si esa decisión tomada por un sistema automático es buena o mala, es un funcionario público. 

En ese sentido, y relacionado también con la IA agéntica, nosotros tenemos un proyecto con la Fundación Española de Ciencia y Tecnología para asesorar a la Diputación de Valladolid en tareas de inteligencia artificial en la administración. Y vemos que muchas de las tareas que nos piden los propios funcionarios no tienen tanto que ver con la IA, sino con la interoperabilidad de los propios servicios que ya ofrecen y que son automáticos. A lo mejor en una administración tienen un servicio desarrollado por un sistema automático, junto a otro servicio que les ofrece un formulario con resultados, pero después les toca teclear a mano los datos que comunican ambos servicios. Ahí estaríamos también hablando de posibilidades para la IA agéntica de intercomunicar. El desafío es implicar en todo ese proceso el papel del funcionario como velador de que las funciones públicas se hacen con rigor.  

Jose Luis Marín: El concepto de Human in the loop es clave en muchos de los proyectos en los que trabajamos. Al final es la combinación no solo de tecnología, sino de las personas que conocen realmente los procesos y pueden supervisarlos y complementar esas acciones que puede realizar la IA agéntica En cualquier sistema simplemente de atención ya es necesaria esa supervisión en muchos casos, porque una mala recomendación puede tener también muchas consecuencias, no solo en la acción de un sistema complejo.

6. Para cerrar, me gustaría que cada uno compartiera una idea clave sobre lo que necesitamos para avanzar hacia una IA más confiable, evaluable y explicable.

David Escudero: Apuntaría, aprovechando que estamos en el podcast de datos.gob.es, la importancia de la gobernanza del dato: asegurarse de que las instituciones, tanto públicas como privadas se preocupen mucho por la calidad del dato, por tener unos datos bien compartidos que sean representativos, que estén bien documentados y, por supuesto, que sean accesibles. Los datos de las instituciones públicas son fundamentales para que los ciudadanos tengan esas garantías y para que empresas e instituciones puedan preparar algoritmos que puedan utilizar esa información para mejorar servicios o dar garantías a los ciudadanos. La gobernanza del dato es fundamental.

Jose Luis Marín: Si yo tuviese que resumir todo en una sola idea, diría que todavía estamos muy lejos de que la evaluación sea una práctica habitual. En los sistemas de IA tendremos que convertirla en algo obligatorio dentro de los procesos de desarrollo y despliegue. Evaluar no es probar una vez y darlo por resuelto, hay que comprobar de forma continua cómo y dónde pueden fallar, qué riesgos introducen y si siguen siendo adecuados cuándo ha cambiado el contexto en el que se pensó un determinado sistema.  Yo creo que aún estamos lejos de esto. 

Efectivamente, los datos abiertos son clave para contribuir a este proceso. Una IA va a ser más confiable cuanto más podamos observarla y mejorarla con criterios compartidos, no solo con los de la organización que los diseñan. Por eso los datos abiertos aportan transparencia, pueden ayudarnos a facilitar la verificación y a construir una base más sólida para que realmente los servicios vayan alineados con el interés general.

David Escudero Mancebo: En ese sentido también agradecer espacios como este que sin duda sirven para potenciar esa cultura del dato, de la calidad y de la evaluación tan necesaria en nuestra sociedad. Creo que se ha avanzado muchísimo, pero que, sin duda, todavía queda y abrir espacios para la divulgación es muy importante.

calendar icon
Noticia

En el epicentro de la innovación global que define Mobile World Congress (MWC), ha surgido un espacio donde el talento humano cobra verdadero protagonismo:  Talent Arena.

La edición de 2026, impulsada por Mobile World Capital Barcelona, reunió entre el 2 y 4 de marzo a profesionales, empresas tecnológicas, centros formativos y talento emergente con un objetivo común: aprender, conectar y explorar nuevas oportunidades en el ámbito digital. En esta cita, Red.es participó activamente con varias sesiones centradas en uno de los grandes retos actuales: cómo impulsar la transformación digital a través del talento, la formación y la innovación. Entre ellas, se encontraba el taller “Datos Abiertos en España. De la teoría a la práctica con datos.gob.es”, una sesión que puso el foco en el papel estratégico de los datos abiertos y su conexión con tecnologías emergentes como la inteligencia artificial.

En este post repasamos los contenidos de la ponencia que combinó:

  • Una mirada didáctica sobre la evolución, el estado actual y el futuro de los datos abiertos en España
  • Un taller práctico sobre la creación de un agente conversacional con MCP

¿Qué son los datos abiertos? Evolución e hitos

La sesión arrancó estableciendo un pilar fundamental: la importancia de los datos abiertos en el ecosistema actual. Más allá de su definición técnica -datos que pueden ser utilizados, reutilizados y compartidos libremente por cualquier persona, con cualquier fin- la charla subrayó que su verdadera potencia reside en el impacto transformador que generan.

Tal y como se abordó en el taller, estos datos provienen de múltiples fuentes (administraciones públicas, universidades, empresas e incluso la ciudadanía) y su apertura permite:

  • Impulsar la transparencia institucional, al facilitar el acceso a la información pública.
  • Fomentar la innovación, al permitir que desarrolladores y empresas creen nuevos servicios.
  • Generar valor económico y social, a partir de la reutilización de la información en múltiples sectores, como la salud, la educación o el medio ambiente.

Uno de los aspectos clave del taller fue contextualizar la evolución histórica de los datos abiertos. Aunque los primeros antecedentes se remontan a las décadas de los 50 y 60, el concepto moderno de “datos abiertos” comenzó a consolidarse en los años 90. Posteriormente, hitos como el Memorándum sobre Transparencia y Gobierno Abierto (2007-2009) o la creación de la Alianza para el Gobierno Abierto en 2011 marcaron un punto de inflexión a nivel internacional.

En España, este desarrollo se ha apoyado en un marco normativo sólido, como es la Ley 37/2007, que establece principios clave:

  • Apertura por defecto de los datos públicos, especialmente los de alto valor.
  • Creación de catálogos interoperables.
  • Impulso a la reutilización de la información.
  • Establecimiento de unidades responsables de la gestión de datos.

El papel de datos.gob.es: el portal nacional de datos abiertos

En el centro de este ecosistema se encuentra datos.gob.es, el portal nacional de datos abiertos, que actúa como punto de acceso unificado a la información pública disponible en España.

Durante el taller se explicó cómo esta plataforma ha evolucionado a lo largo del tiempo: desde unos cientos de datasets hasta llegar a albergar más de 100.000 en la actualidad. También ha ido incorporando nuevas funcionalidades y adaptándose a estándares internacionales como DCAT-AP y su adaptación nacional DCAT-AP-ES. Estos estándares permiten estructurar los metadatos de forma interoperable, facilitando la integración entre distintos catálogos.

Consulta aquí la Guía práctica de implementación de DCAT-AP-ES paso a paso

Además, se detalló el proceso de federación de datos en datos.gob.es, que garantiza que los datos procedentes de diferentes fuentes puedan integrarse de manera coherente y accesible.

A pesar de los avances, la presentación también abordó los retos pendientes:

  • Calidad y actualización de los datos.
  • Estandarización e interoperabilidad.
  • Seguridad y control de accesos, especialmente en entornos conectados mediante IA.
  • Capacitación de usuarios, tanto técnicos como no técnicos.

Fotografía tomada durante la presentación del Talent Arena en el Mobile World Congress. En la foto se puede ver la diapositiva de la presentación en la que se explica el concepto de los datos abiertos

Figura 1. Fotografía tomada durante la presentación del Talent Arena en el Mobile World Congress. En la foto se puede ver la diapositiva de la presentación en la que se explica el concepto de los datos abiertos. Fuente: elaboración propia - datos.gob.es.

De los datos a la inteligencia: el salto hacia la IA

Uno de los elementos más innovadores del taller fue su enfoque práctico, centrado en la aplicación de inteligencia artificial a los datos abiertos. Aquí es donde entró en juego el Model Context Protocol (MCP), un estándar abierto que permite conectar modelos de lenguaje (Large Language Model o LLM) con fuentes de datos externas en tiempo real.

El problema de partida al que el taller tenía que dar respuesta es cómo los modelos de IA, por sí solos, no tienen acceso actualizado a la información ni a sistemas externos. Esto limita su utilidad en contextos reales. Una solución puede ser desarrollar un MCP que actúa como un “puente” entre el modelo y las fuentes de datos, permitiendo:

  • Acceder a información actualizada.
  • Ejecutar acciones sobre sistemas externos.
  • Integrar múltiples fuentes de datos de forma segura.

En palabras sencillas, se trata de conectar el “cerebro” (el modelo de IA) con las “herramientas” (bases de datos, API, sistemas internos).

El ejercicio, que se desarrolló en directo en el Talent Arena comenzó con un ejemplo sencillo: crear una base de datos de preferencias de películas y desarrollar un MCP que permitiera consultarla mediante lenguaje natural.

A partir de ahí, se introdujeron conceptos clave:

  • Identificación de la intención del modelo.
  • Llamada a funciones específicas (function calling).
  • Generación de respuestas en lenguaje natural a partir de datos estructurados.

Este enfoque permite abstraer la complejidad técnica y acercar el uso de datos a perfiles no especializados.

El siguiente paso fue aplicar este mismo enfoque al catálogo de datos.gob.es. A través de su API, es posible. En primer lugar, permite buscar los datasets por título y filtrar por temáticas; después a través de la API se puede obtener información detalla de un conjunto de datos y acceder a estadísticas del catálogo.

El MCP desarrollado en el taller actuaba como intermediario entre el modelo de IA y esta API, permitiendo realizar consultas complejas mediante lenguaje natural. 

En este ejercicio se combinaba una base de datos local (SQLite) y el consumo de datos externos a través de una API, todo ello integrado mediante un servidor MCP que permitía exponer estas funcionalidades como herramientas accesibles. El objetivo era entender cómo estructurar datos, consultarlos y ponerlos a disposición de otros sistemas o modelos de IA de forma organizada.

El código completo está disponible como adjunto en este post en formato Python Notebook.

Este ejercicio es una muestra de las enormes oportunidades que tenemos ante nosotros. La combinación de datos abiertos e inteligencia artificial puede:

  • Democratizar el acceso a la información.
  • Acelerar la innovación.
  • Mejorar la toma de decisiones en el sector público y privado.

En resumen, el taller “Datos Abiertos en España. De la teoría a la práctica con datos.gob.es” puso de manifiesto una idea fundamental: los datos, por sí solos, no generan valor. Es su uso, su interpretación y su combinación con otras tecnologías lo que permite transformarlos en conocimiento y en soluciones reales.

La evolución de los datos abiertos en España demuestra que se ha avanzado mucho en los últimos años. Sin embargo, el verdadero potencial está aún por explotar, especialmente en su integración con tecnologías como la inteligencia artificial. Eventos como Talent Arena 2026 sirven precisamente para eso: conectar ideas, compartir conocimiento y explorar nuevas formas de hacer las cosas.

calendar icon
Evento

El 8 de mayo de 2026 tendrá lugar una nueva edición del Encuentro Nacional de Datos Abiertos (ENDA), esta vez en Pamplona organizado por el Gobierno de Navarra. Una cita clave para que quienes trabajan en innovación pública, reutilización de datos y emprendimiento digital intercambien conocimiento, experiencias y buenas prácticas.

Bajo el lema “Aprende y emprende”, la edición de este año pone el foco en el papel de los datos en la educación y en el impulso de nuevos proyectos empresariales, destacando la importancia de la alfabetización en datos y el potencial de los datos abiertos como motor de innovación, aprendizaje y creación de oportunidades laborales.

Un enfoque abierto centrado en experiencias prácticas

La agenda de esta edición se ha diseñado para abordar los principales desafíos y oportunidades que plantea el uso de datos abiertos en este ámbito concreto. A lo largo del día se explorarán cuestiones como la reutilización de datos en el ámbito educativo, las posibilidades que ofrecen a nivel laboral o el papel de las administraciones públicas como impulsoras de este ecosistema de datos.

La sesión comenzará a las 9:00 con la inauguración a cargo de Javier Remírez Apesteguía vicepresidente primero, consejero de Presidencia e Igualdad y portavoz del Gobierno de Navarra. Le seguirá la ponencia central “IA y datos abiertos: nuevas formas de explotar, entender y crear valor” de Mikel Galar Idoiate, catedrático del área de Ciencias de la Computación e Inteligencia Artificial en la Universidad Pública de Navarra.

A continuación, el evento se desarrollará a lo largo de diversas mesas redondas que permitirán profundizar en diversos temas desde una perspectiva práctica, con ejemplos reales y experiencias compartidas por profesionales que trabajan diariamente con datos.

  • Mesa 1: Relación entre educación, emprendimiento y empleo
  • Mesa 2: El papel de las Administraciones Públicas en la reutilización de los datos
  • Mesa 3: Emprendimiento y datos abiertos: visión y futuro
  • Mesa 4: El poder de los datos en la educación
  • Mesa 5: Evolución de las políticas de Datos Abiertos

Datos.gob.es participará en esta última mesa aportando su experiencia como plataforma de referencia a nivel nacional en materia de apertura y reutilización de la información del sector público. Por su parte, la Dirección General del Dato compartirá su visión en la mesa 2. En ambos casos, se compartirán tendencias y las líneas de trabajo que se están desarrollando para impulsar la cultura del dato en todo el país.

Un nuevo reto a afrontar

Desde su primera edición, el ENDA ha sido un espacio de encuentro para quienes trabajan con datos abiertos desde perspectivas muy diversas. Cada año, el evento ha ido consolidando una comunidad más amplia y madura, capaz de generar proyectos, metodologías y alianzas que trascienden el propio encuentro. En este sentido, en el marco de cada encuentro se dedica un espacio central a la identificación de un reto que deben abordarse para consolidar un ecosistema de datos más sólido, útil y sostenible. Estos desafíos, definidos de manera colaborativa, permiten orientar las políticas públicas y las iniciativas de reutilización hacia un modelo más maduro y orientado al impacto. Los retos tratados en las ediciones anteriores han sido:

  • RETO 1. Generar intercambios de datos y facilitar su apertura, donde los participantes llegaron a una serie de conclusiones para favorecer la colaboración interadministrativa.
  • RETO 2. Incrementar las capacidades para la apertura de datos, donde se trabajó en un marco de competencias para que los empleados públicos adquirieran los conocimientos y habilidades necesarias para impulsar los datos abiertos.
  • RETO 3. Cómo medir el impacto de los datos abiertos, donde se realizó una propuesta metodológica para el desarrollo de un mapeo sistemático de iniciativas que traten de medir el impacto de los datos abiertos.
  • RETO 4. Priorización en la apertura de datos públicos, donde se identificaron los conjuntos de datos a publicar por las administraciones públicas (local, autonómica o nacional). Para ello se desarrolló una propuesta metodológica y una herramienta que permite determinar el nivel de madurez organizativa en políticas de apertura de datos.

Tendremos que esperar a la celebración del V ENDA para conocer cuál es el reto de este año.

Inscripción ya abierta

La jornada está abierta tanto a quienes trabajan con datos en su día a día como a quienes quieren descubrir nuevas oportunidades en el ámbito educativo, profesional o emprendedor. Sea cual sea tu caso, para poder asistir es necesario inscribirse a través de la página web del evento. El formulario permanecerá disponible hasta el 30 de abril de 2026.

Tras cuatro ediciones celebradas en distintos territorios, el ENDA continúa creciendo como un encuentro itinerante que impulsa la colaboración entre administraciones, universidades, empresas y organizaciones ciudadanas, consolidando una comunidad diversa y comprometida con la apertura de datos. Una oportunidad para crecer y seguir aprendiendo.

Si quieres más información, en la web oficial se pueden consultar los contenidos, materiales y aprendizajes de las cuatro ediciones previas, que han contribuido a fortalecer el ecosistema estatal de datos abiertos.

calendar icon
Blog

Hay una idea que se repite en casi cualquier iniciativa de datos: “si conectamos fuentes distintas, sacaremos más valor”. Y suele ser verdad. El matiz es que el valor aparece cuando podemos combinar datos sin fricción, sin malentendidos y sin sorpresas. El Decálogo del reutilizador de datos del sector público lo resume muy bien: la interoperabilidad es especialmente crítica justo cuando intentamos mezclar datos de diversas fuentes, que es donde los datos abiertos suelen aportar más.

En la práctica, la interoperabilidad no es solo “que haya una API” o “que el fichero sea descargable”. Es un concepto más amplio, con varias capas: si solo cuidamos una, las demás acaban rompiendo la reutilización. Conectamos… pero no entendemos qué significa cada campo. Entendemos… pero no hay estabilidad ni versionado. Hay estabilidad… pero no existe un proceso común para resolver incidencias. Y, aun teniendo todo lo anterior, pueden faltar reglas claras de uso. Por eso, también es un error pensar que la interoperabilidad es un problema puramente informático que se arregla “comprando el software adecuado”: la tecnología es solo la punta del iceberg. Si queremos que los datos fluyan de verdad entre administración pública, empresa y centros de investigación, necesitamos una visión holística.

Y aquí viene la buena noticia: se puede abordar de forma incremental, paso a paso. Para hacerlo bien, lo primero es aclarar qué tipo de interoperabilidad estamos buscando en cada caso, porque no todas las barreras son técnicas ni se resuelven del mismo modo.

En este post vamos a desglosar los distintos tipos de interoperabilidad que existen, para identificar qué aporta cada uno y qué falla cuando lo dejamos fuera.

Los distintos tipos de interoperabilidad

Siguiendo el Marco Europeo de Interoperabilidad (EIF), conviene pensar la interoperabilidad como un edificio con cuatro principales capas: técnica, semántica, organizativa y jurídica. Si una falla, el conjunto se resiente.

A continuación, unificamos las cuatro capas con un enfoque centrado en datos, incluyendo ejemplos aplicados a distintos sectores.

1. Interoperabilidad técnica: que los sistemas puedan intercambiar datos

Es la capa “visible”: infraestructuras, protocolos y mecanismos para enviar/recibir datos de forma fiable.

Pero, ¿qué implica en la práctica?

  • Formatos legibles por máquina: como CSV, JSON, XML, RDF, evitando los documentos solo para lectura humana (como PDF).

  • API y endpoints estables: con documentación, autenticación cuando aplique y versionado.

  • Requisitos no funcionales: disponibilidad, rendimiento, seguridad y trazabilidad técnica.

¿Cuáles son los errores o fallos típicos que generan problemas?

En el caso específico de la interoperabilidad técnica, estos vienen principalmente originados por cambios “silenciosos”, como, por ejemplo, que se alteren columnas y/o estructura y se rompan integraciones, o que haya URL no persistentes, API sin versionado o sin documentación.

Ejemplo: vamos a aterrizarlo a un caso concreto para el dominio de la movilidad

Imaginemos que un ayuntamiento publica en tiempo real la ocupación de aparcamientos. Si la API cambia el nombre de un campo o el endpoint sin avisar, las apps de navegación dejan de mostrar plazas disponibles, aunque “el dato exista”. El problema es técnico: falta estabilidad, versionado y contrato de interfaz.

2. Interoperabilidad semántica: que, además, se entiendan entre sí

Si la interoperabilidad técnica es “las tuberías”, la semántica es el idioma. Podemos tener sistemas perfectamente conectados y, aun así, obtener resultados desastrosos si cada parte interpreta los datos de forma distinta.

Pero, ¿qué implica en la práctica?

  • Glosarios de términos claros: definición de cada campo, unidad, formato, rango, reglas de negocio, granularidad y ejemplos.

  • Vocabularios controlados, taxonomías y ontologías para clasificar y codificar valores sin ambigüedad.

  • Identificadores unívocos y referencias normalizadas a través de datos de referencia con códigos oficiales, catálogos comunes, etc.

¿Cuáles son los errores o fallos típicos que generan problemas?

Normalmente aparecen cuando hay ambigüedad (por ejemplo, si solo pone fecha, no sabemos si es la fecha de registro, publicación o efecto), unidades distintas (por ejemplo, no se conoce la unidad de medida del dato: kWh vs MWh, euros vs miles de euros), códigos incompatibles (H/M vs 1/2 vs masculino/femenino) o incluso cambios de significado en series históricas sin explicarlo.

Ejemplo: vamos a aterrizarlo a un caso concreto en el sector energía

Una administración publica datos de consumo eléctrico por edificios. Un reutilizador cruza esos datos con otro dataset regional, pero uno está en kWh y el otro en MWh, o uno mide consumo “final” y el otro “bruto”. El cruce “cuadra” técnicamente, pero las conclusiones salen mal porque falta semántica: definiciones y unidades compartidas.

3. Interoperabilidad organizativa: que los procesos sostengan la coherencia

Aquí hablamos menos de sistemas y más de personas, responsabilidades y procesos. Los datos no se mantienen solos: se publican, se actualizan, se corrigen y se explican porque hay una organización detrás que lo hace posible.

Pero, ¿qué implica en la práctica?

  • Roles y responsabilidades claras: quién define, quién valida, quién publica, quién mantiene y quién responde ante incidencias.

  • Gestión de cambios: qué es un cambio mayor/menor, cómo se versiona, cómo se comunica y si se conserva el histórico.

  • Gestión de incidencias: canal único, tiempos de respuesta, priorización, trazabilidad y cierre.

  • Compromisos operativos (tipo acuerdos de nivel de servicio o SLA en sus siglas en inglés): frecuencia de actualización, ventanas de mantenimiento, criterios de calidad y revisiones periódicas.

Aquí pueden ayudarnos, por ejemplo, las especificaciones UNE sobre gobierno y gestión del dato donde se dan las claves para establecer modelos organizativos, roles, procesos de gestión y mejora continua. Por lo tanto, encajan precisamente en esta capa: ayudan a que publicar y compartir datos no dependa del “esfuerzo heroico” de un equipo, sino de un modo de trabajo estable en el que el equipo vaya madurando.

¿Cuáles son los errores o fallos típicos que generan problemas?

Los clásicos: “cada unidad publica a su manera”, no hay responsable claro, no existe un circuito para corregir errores, se actualiza sin avisar, no se conserva histórico o el feedback del reutilizador se pierde en un buzón genérico sin seguimiento.

Ejemplo: vamos a aterrizarlo a un caso concreto en medio ambiente

Una confederación publica datos de calidad del agua y varias unidades aportan mediciones. Si no hay un proceso común de validación, un calendario coordinado y un canal de incidencias, el dataset empieza a tener valores inconsistentes, lagunas y correcciones tardías. El problema no es la API ni el formato: es organizativo, porque el mantenimiento no está gobernado.

4. Interoperabilidad jurídica: que el intercambio sea viable y conforme

Esta es la capa que convierte el intercambio en algo seguro y escalable. Puedes tener datos perfectos a nivel técnico, semántico y organizativo… y aun así, no poder reutilizarlos si no hay claridad jurídica.

Pero, ¿qué implica en la práctica?

  • Licencia y condiciones de uso claras: atribución, redistribución, uso comercial, obligaciones, etc.

  • Compatibilidad entre licencias cuando se mezclan fuentes: evitando combinaciones inviables.

  • Cumplimiento de protección de datos: como el Reglamento General de Protección de Datos (RGPD), propiedad intelectual, secretos empresariales o límites sectoriales.

  • Reglas explícitas sobre qué se puede hacer y qué no: indicando también con qué requisitos.

¿Cuáles son los errores o fallos típicos que generan problemas?

La “jungla” clásica: licencias ausentes o ambiguas, condiciones contradictorias entre datasets, dudas sobre si hay datos personales o riesgo de reidentificación, o restricciones que se descubren cuando el proyecto ya está avanzado.

Ejemplo: vamos a aterrizarlo a un caso concreto en cultura y patrimonio

Un archivo público publica imágenes y metadatos de una colección. Técnicamente todo está bien, y los metadatos son ricos, pero la licencia es confusa o incompatible con otros datos que se quieren cruzar (por ejemplo, un repositorio privado con restricciones). Resultado: una empresa o una universidad decide no reutilizar por inseguridad jurídica. El bloqueo no es técnico: es jurídico.

En resumen, la interoperabilidad funciona como un “pack” de cuatro capas: conectar (técnica), entender lo mismo (semántica), mantenerlo de forma sostenida (organizativa) y poder reutilizar sin riesgo (jurídica).

Para verlo de un vistazo y con ejemplos reales, la siguiente infografía resume cómo se materializa cada capa en distintos sectores (estándares, modelos, prácticas y marcos normativos) y qué piezas suelen usarse como referencia en cada caso.

 Infografía: "Interoperabilidad: la clave para trabajar con datos de diversas fuentes". Versión accesible disponible  en el enlace. Fuente: elaboración propia - datos.gob.es.Figura 1. Infografía: "Interoperabilidad: la clave para trabajar con datos de diversas fuentes". Versión accesible disponible aquí. Fuente: elaboración propia - datos.gob.es.

La infografía anterior deja una idea clara: la interoperabilidad no depende de una sola decisión, sino de combinar estándares, acuerdos y reglas que cambian según el sector. A partir de aquí, tiene sentido bajar un nivel y ver qué referencias y herramientas se usan en España y en Europa para que esas cuatro capas (técnica, semántica, organizativa y jurídica) no se queden en teoría.

Una referencia práctica en España: NTI-RISP (y por qué tiene sentido citarla)

En el contexto español, la NTI-RISP es una guía muy útil porque pone negro sobre blanco qué hay que cuidar cuando publicamos información para que otros la puedan reutilizar: identificación, descripción (metadatos), formatos y términos de uso, entre otros aspectos.

Metadatos como pegamento: DCAT-AP y DCAT-AP-ES

En datos abiertos, donde más se nota la interoperabilidad “en el día a día” es en los catálogos: si los conjuntos de datos no se describen de forma coherente, cuesta encontrarlos, entenderlos y federarlos.

  • DCAT-AP aporta un modelo común de metadatos para catálogos de datos en Europa, apoyándose en vocabularios ampliamente reutilizados.

  • En España, DCAT-AP-ES se impulsa precisamente para reforzar esa interoperabilidad de catálogos con un perfil común que facilite intercambio y federación entre portales.

Cómo abordar la interoperabilidad sin morir de ambición

En lugar de “arreglarla de golpe”, suele funcionar mejor tratar la interoperabilidad como mejora continua porque se rompe con cambios en tecnología, organización o normativa. Un enfoque sencillo y realista:

  1. Empieza por el “para qué”: ¿Quieres integrar en un servicio, cruzar para análisis, construir indicadores comparables, enriquecer entidades…? El objetivo determina el nivel de rigor necesario.

  2. Asegura el mínimo técnico estable: acceso y formatos legibles por máquina, identificadores persistentes, documentación mínima, y algún versionado (aunque sea básico). Esto evita datasets  “útiles hoy” que se rompen mañana.

  3. Aplica semántica donde duele (principio de Pareto: 80/20 - establece que el 80% de los resultados provienen del 20% de las causas o acciones-): define muy bien los campos críticos (los que se cruzan/filtran), unidades, tablas de códigos y el significado exacto de fechas/estados. No hace falta “modelarlo todo” para reducir la mayoría de los errores.

  4. Pon acuerdos operativos mínimos: quién mantiene, cuándo se actualiza, cómo se reportan incidencias, cómo se anuncian cambios y si se conserva el histórico. Aquí es donde un enfoque de gobierno del dato (y guías como NTI-RISP) marca la diferencia entre “dataset publicado” y “dataset sostenible”.

  5. Pilota con un cruce real: un piloto pequeño detecta rápido si el problema era técnico, semántico, organizativo o jurídico, y te da una lista concreta de fricciones a eliminar.

Como conclusión, la interoperabilidad no es simplemente “tener una API”: es el resultado de alinear cuatro capas —técnica, semántica, organizativa y jurídica— para poder combinar datos sin fricción, sin malentendidos y con seguridad. Cada capa resuelve un problema distinto: la técnica evita roturas de integración, la semántica evita interpretaciones erróneas, la organizativa hace sostenible la publicación y el mantenimiento en el tiempo, y la jurídica elimina la inseguridad sobre qué se puede hacer con los datos.

En ese contexto, los marcos y estándares sectoriales actúan como atajos prácticos para acelerar acuerdos y reducir ambigüedad, y por eso es útil ver ejemplos por sectores. Además, los metadatos y los catálogos interoperables son un auténtico multiplicador: cuando un conjunto de datos está bien descrito, se encuentra antes, se entiende mejor y se puede federar con menos coste. Por último, lo más efectivo suele ser un enfoque incremental y medible: empezar por el “para qué”, asegurar estabilidad técnica, reforzar la semántica crítica (80/20), formalizar acuerdos operativos mínimos y validar con un cruce real, en lugar de intentar “solucionar la interoperabilidad” como un único proyecto cerrado.

Contenido elaborado por Dr. Fernando Gualo, Profesor en UCLM y Consultor de Gobierno y Calidad de datos El contenido y el punto de vista reflejado en esta publicación es responsabilidad exclusiva de su autor.

calendar icon
Noticia

Con motivo del Open Data Day 2026, la Open Knowledge Foundation (OKFN) celebró una conferencia online titulada "The Future of Open Data", un evento de acceso libre que reunió a una comunidad diversa de profesionales del dato procedentes de gobiernos, organizaciones de la sociedad civil, universidades, redacciones periodísticas y colectivos activistas. Desde datos.gob.es seguimos en directo la jornada y compartimos aquí un resumen de las principales ideas que marcaron el día.

Tres enfoques para entender el papel de los datos abiertos en la era de la IA

La jornada se articuló en torno a tres grandes bloques temáticos:

  1. Navegando la regulación de datos abiertos por el interés público: intervenciones de representantes de la academia, responsables de políticas públicas e investigadores de distintos países que debatieron sobre el marco normativo de los datos abiertos en el contexto actual de la IA.
  2. Voces de la comunidad, datos abiertos e IA: presentaciones breves de proyectos concretos de todo el mundo explorando la intersección entre datos abiertos e inteligencia artificial, desde herramientas para el análisis judicial hasta dashboards de ciencia ciudadana.
  3. 20 años de CKAN: El futuro en la era de la IA: reflexiones sobre las dos décadas de historia de los datos abiertos y CKAN, sobre el pasado, el presente y los retos que vienen.

En conjunto, la jornada combinó reflexión política, innovación técnica y visión comunitaria, con voces procedentes de España, Francia, India, Ucrania, Kenia, Estados Unidos y Australia, entre otros países. Y el hilo conductor del evento fue la pregunta que hoy recorre los foros de política digital en todo el mundo: ¿cuál es el papel de los datos abiertos en un ecosistema cada vez más dominado por la inteligencia artificial?

Bloque temático 1. Un movimiento que nació del activismo

En sus orígenes, el movimiento de los datos abiertos empezó en conversaciones entre activistas comprometidos con la transparencia, la rendición de cuentas y el acceso de la información pública a la ciudadanía.

En este episodio del pódcast de datos.gob.es también se debate sobre el origen del open data y su evolución

Hoy, sin embargo, el movimiento está más diversificado porque ahora hay más agentes que influyen, como por ejemplo la inteligencia artificial. También existe un contexto regulatorio que funciona como marco en el desarrollo del movimiento open data.

El tema de la regulación y la gobernanza vertebró la primera sesión del evento, moderada por Renata Ávila, CEO de la OKFN. En ella participaron:

  • Jonathan Gray, autor del libro Public Data Cultures (Polity, 2025) y profesor en el King's College de Londres, presentó su trabajo como una fuente de referencia para reflexionar sobre el dato como activo abierto: cómo se construye esa apertura y de qué manera puede ayudarnos a responder a los grandes retos colectivos. Su propuesta es que los datos públicos no son simplemente información técnica, sino el resultado de decisiones culturales y políticas sobre qué contamos, cómo lo contamos y para quién.
  • Renato Berrino Malaccorto, research manager del Open Data Charter, subrayó que la apertura de los datos es fundamental para el desarrollo ético de la IA. Sin datos abiertos, auditables y de calidad, no es posible construir sistemas de inteligencia artificial que rindan cuentas ante la ciudadanía. Al mismo tiempo, señaló que existe una brecha real de capacidades: muchas organizaciones y gobiernos carecen de los recursos técnicos y humanos necesarios para aprovechar el potencial de los datos abiertos en este nuevo contexto.
  • Ruth del Campo, directora general del dato en el Ministerio para la Transformación Digital y la Función Pública del Gobierno de España, ofreció una perspectiva institucional muy relevante para nuestro contexto. Recordó que "La economía del dato es parte de la economía", y subrayó el impulso que el Gobierno está dando a iniciativas como datos.gob.es e Impulsa Data (orientada a modernizar la gestión interna y alimentar los Espacios de Datos Sectoriales). También destacó la importancia de que la estrategia del dato incorpore principios AI ready, garantizando recursos adecuados —como corpus lingüísticos— para entrenar modelos de IA de forma eficiente y sin generar nuevas desigualdades. Finalmente, señaló la necesidad de simplificar y armonizar las regulaciones sobre datos, un proceso en el que ya se está avanzando a nivel europeo.

El mensaje de fondo del panel fue claro: hace falta situar los datos abiertos en el centro de la agenda digital, dotarlos de recursos adecuados y conectarlos explícitamente con las estrategias públicas de inteligencia artificial. La IA de interés social no puede construirse sin datos abiertos; y los datos abiertos sin una visión sobre la IA corren el riesgo de quedar relegados a la irrelevancia.

Bloque temático 2. Lightning Talks: proyectos que demuestran el potencial del open data

La segunda sesión del día reunió presentaciones breves de proyectos concretos que ilustraron cómo los datos abiertos y la inteligencia artificial pueden trabajar juntos al servicio del interés público. Algunos ejemplos son:

  • Ihor Samokhodskyi, de la iniciativa ucraniana Policy Genome, presentó una herramienta de análisis de la práctica judicial basada en datos abiertos que demuestra cómo la información pública, combinada con técnicas de IA, puede contribuir a la transparencia y la mejora de los sistemas de justicia.
  • Javier Conde, de la Universidad Politécnica de Madrid, presentó la propuesta que ha desarrollado junto a sus compañeros Andrés Muñoz-Arcentales y Álvaro Alonso para mejorar la integración de los datos abiertos europeos en los espacios de datos (data spaces). Este proyecto facilita la generación automática de metadatos de alta calidad, garantizando así la interoperabilidad y reutilización de conjuntos de datos. Una iniciativa directamente relevante para la mejora de portales como datos.gob.es y su conexión con data.europa.eu.
  • Renu Kumari, de #semanticClimateFrictionless Data (India), presentó un proyecto que trabaja en la intersección entre datos climáticos abiertos y herramientas semánticas para hacer que la literatura científica y los datos sobre cambio climático sean más accesibles, estructurados y reutilizables.
  • Richard Muraya, de The Demography Project (Kenia), presentó Uhai/Life, un dashboard de ciencia ciudadana que agrega datos abiertos sobre el uso de recursos naturales para ofrecer una visión del bienestar humano y medioambiental a escala local. Un ejemplo de cómo los datos abiertos pueden empoderar a comunidades para contar su propia historia, sin depender de narrativas o instituciones externas.

Figura 1. Diapositiva de presentación de una de las ponencias del evento. Fuente: conferencia “The Future of Open Data” organizada por OKFN.

  • Por último, Sayantika Banik, de DataJourney (India), mostró un asistente de análisis autónomo capaz de transformar conjuntos de datos abiertos en información fácilmente comprensible.

Bloque temático 3. Mesa redonda: 20 años de CKAN y los retos del futuro

La sesión más extensa de la jornada fue también la más reflexiva: una mesa redonda para celebrar dos décadas de CKAN, la herramienta de gestión de portales de datos abiertos nacida en el seno de la OKFN y que hoy alimenta cientos de portales de datos en todo el mundo, incluido datos.gob.es. La mesa estuvo moderada por Jamaica Jones, community manager CKAN/POSE de la Universidad de Pittsburgh. En esta mesa participaron:

  • Rufus Pollock, fundador de la OKFN y de Datopian, y co-fundador de Life Itself, subrayó la importancia de mantener el poder en manos de la ciudadanía y de apostar por el código abierto como motor del desarrollo económico y del conocimiento compartido. Para Pollock, la IA debe ser comprensible y accesible para la mayoría, no solo para grandes corporaciones.
  • Joel Natividad es Co-CEO y co-fundador de datHere, una empresa especializada en soluciones de datos abiertos y herramientas de análisis para el sector público. Como usuario de CKAN desde hace más de 15 años insistió en una idea: "siempre hemos tratado de aprender cómo piensan las máquinas, y ahora son las máquinas las que están aprendiendo cómo piensan los humanos".
  • Patricio Del Boca es Tech Lead y Open Activist en la OKFN, donde lidera el desarrollo técnico de iniciativas vinculadas a CKAN y las infraestructuras de datos abiertos. Compartió los próximos pasos de la OKFN para 2026: construir más comunidad y desarrollar casos de uso que demuestren el valor práctico de los datos abiertos en el contexto actual.
  • Andrea Borruso es experto en Sistemas de Información Geográfica (SIG) y datos abiertos. Como presidente de onData, una asociación italiana sin ánimo de lucro que promueve el acceso y la reutilización de datos públicos, puso en valor el activismo de datos y la ciencia ciudadana como motores de desarrollo tecnológico que involucran a la comunidad.
  • Antonin Garrone, de data.gouv.fr, el portal nacional de datos abiertos de Francia, aportó a la mesa la perspectiva de un portal consolidado que lleva años explorando cómo integrar nuevas tecnologías sin perder de vista su misión de servicio público.
  • Steven De Costa es director ejecutivo de Link Digital, una empresa australiana especializada en implementación y desarrollo de soluciones basadas en CKAN, y Co-Steward del proyecto CKAN. Su perspectiva combinó la visión técnica con la preocupación por mantener un modelo de gobernanza abierto y participativo.
  • Por último, el ingeniero de investigación en Public AI, Mohsin Yousufi, insistió en la intersección entre inteligencia artificial, infraestructuras públicas de datos y políticas tecnológicas, explorando cómo los sistemas de IA pueden diseñarse y gobernarse para servir al interés público.

Reflexión final: datos abiertos como infraestructura democrática

Si hay una conclusión que atravesó todas las sesiones del Open Data Day 2026, es que los datos abiertos no están en crisis, pero sí en un momento decisivo. Las oportunidades que ofrece la inteligencia artificial son reales, pero también lo son los riesgos. Es importante conocerlos para saberlos abordar. Algunos de los que se mencionaron son:

  • Evitar que los datos públicos se conviertan en materia prima de sistemas privados sin transparencia ni rendición de cuentas.
  • Preservar la voluntad política en mantener funcionales y actualizados los portales de datos abiertos.
  • Reducir la brecha de capacidades y formación digital para facilitar la participación de todos los países y comunidades en el nuevo ecosistema de la IA.

Frente a eso, el mensaje del evento fue de movilización: es necesario reivindicar los datos abiertos como infraestructura democrática, conectar explícitamente las políticas de datos con las estrategias de IA pública, y asegurarse de que los beneficios de la inteligencia artificial lleguen a toda la ciudadanía, y no solo a quienes ya tienen acceso a los recursos tecnológicos.

Desde datos.gob.es seguiremos trabajando en esa dirección, y celebramos que existan espacios como el Open Data Day para recordarnos por qué empezamos y hacia dónde queremos ir.

Puedes volver a ver el vídeo del evento aquí

calendar icon
Evento

Solo unos meses después del éxito de su primera entrega, el Ayuntamiento de Madrid ha abierto la convocatoria de la segunda edición de los Premios a la Reutilización de Datos Abiertos. Se trata de una iniciativa que busca reconocer y promover proyectos innovadores que utilicen los conjuntos de datos publicados en el portal datos.madrid.es. Con una dotación total de 15.000 euros, estos premios consolidan el compromiso municipal con la cultura del dato, la transparencia y la creación de valor social y económico a partir de la información pública.

En este artículo te contamos algunas de las claves que debes tener en cuenta para participar.

Dos categorías de premios a considerar

La convocatoria establece dos categorías, cada una con varios premios:

1) Servicios web, aplicaciones y visualizaciones: premia proyectos que generen servicios, visualizaciones o aplicaciones web o para dispositivos móviles.

  • Primer premio: 4.000 €
  • Segundo premio: 3.000 €
  • Tercer premio: 1.500 €
  • Premio para estudiante: 1.500 €

2) Estudios, investigaciones e ideas: se centra en proyectos de investigación, análisis o descripción de ideas para crear servicios, estudios, visualizaciones, aplicaciones web o móviles. En esta categoría también pueden participar trabajos universitarios de fin de grado y de fin de máster (TFG-TFM).

  • Primer premio: 2.500 €
  • Segundo premio: 1.500 €
  • Tercer premio: 1.000 €

En ambas categorías es necesario que se utilice al menos un conjunto de datos del portal municipal, pudiendo combinarse con fuentes públicas o privadas de cualquier ámbito territorial. Los proyectos pueden ser recientes o haber finalizado en los dos años previos al cierre de la convocatoria.

Los premios pueden declararse desiertos si no se alcanza la calidad mínima. En ese caso, los importes sobrantes se redistribuirán proporcionalmente entre el resto de premiados.

Requisitos para participar

La convocatoria está abierta a personas físicas y jurídicas autoras de los proyectos o iniciativas. El objetivo es que cualquier persona o entidad con interés en la reutilización de datos pueda presentar su propuesta, independientemente de su nivel técnico. Por ello, pueden participar tanto profesionales y empresas, personas investigadoras, periodistas y desarrolladores, como aficionados y amateurs interesados en el análisis y visualización de datos.

En el caso del premio para estudiante, solo podrán participar aquellas personas físicas matriculadas en cursos oficiales 2023/24, 2024/25 o 2025/26.

Por el contrario, quedan excluidos de todas las categorías:

  • Proyectos ya premiados, subvencionados o contratados por el Ayuntamiento de Madrid.
  • Proyectos que no utilicen ningún conjunto de datos del portal municipal.

Fases del proceso

En el portal municipal se detallan las fases de la convocatoria, que incluyen:

  1. Publicación de la convocatoria. El pasado 3 de marzo se publicaron las bases reguladoras en el Boletín Oficial del Ayuntamiento de Madrid.
  2. Presentación de candidaturas. El plazo para presentar las solicitudes abarca del 4 de marzo al 4 de mayo (ambos incluidos). Se pueden presentar online  o presencialmente, como se explica más adelante.
  3. Análisis y subsanación. Hasta el 3 de junio, se llevará a cabo la revisión de la documentación presentada. En caso necesario, se contactará con los solicitantes para la subsanación de errores.

  4. Valoración y deliberación. Un jurado evaluará todos los proyectos admitidos, según los criterios establecidos en las bases de la convocatoria. Se tendrá en cuenta su utilidad, valor económico, valor social y contribución a la transparencia; su grado de innovación y creatividad; la variedad de conjuntos de datos utilizados del Portal de Datos Abiertos de Madrid; y su calidad técnica. Esta fase se extenderá hasta el 15 septiembre.

  5. Resolución. En los meses de septiembre y octubre se llevará a cabo la propuesta de concesión y publicación oficial de la resolución.

  6. Entrega de premios. Los galardones se entregarán en un acto público, estimado para el mes de noviembre.

La página oficial irá actualizando fechas y documentación a medida que avance el proceso.

Cómo se presentan las candidaturas

Como se mencionó anteriormente, las candidaturas se pueden presentar de manera telemática o presencial:

Las personas físicas podrán presentar la solicitud de ambas formas, mientras que las personas jurídicas solo podrán presentar la solicitud de forma telemática.

En ambos casos, las candidaturas deben incluir:

  • Formulario oficial de solicitud, a descargar en la sede electrónica del Ayuntamiento de Madrid.
  • Memoria del proyecto, en base a un modelo a descargar en la citada sede electrónica.  Este documento incluirá el título, la autoría y una descripción detallada, así como la relación de conjuntos de datos utilizados, los objetivos, el público beneficiario, el impacto previsto, el grado de innovación y la tecnología empleada.
  • Declaración responsable.
  • Acuerdo de colaboración, en caso de presentarse como agrupación.

Inspírate con los proyectos ganadores de la primera edición

La segunda edición de los Premios a la Reutilización de Datos Abiertos llega precedida por el éxito de la convocatoria anterior. En 2025, el Ayuntamiento de Madrid celebró la primera edición de estos galardones, que reunió 65 candidaturas de gran calidad y diversidad. Entre ellas destacaron propuestas impulsadas por estudiantes universitarios, startups, equipos multidisciplinares y ciudadanía comprometida con el uso inteligente de los datos públicos.

Los proyectos premiados demostraron que los datos abiertos pueden convertirse en herramientas reales para mejorar la vida urbana, impulsar la transparencia y generar conocimiento útil para la ciudad. En este artículo te resumimos en qué consistían estos proyectos.

En resumen, los II Premios a la Reutilización de Datos Abiertos 2026 son una oportunidad para demostrar cómo los datos públicos pueden convertirse en innovación real. Una invitación a desarrollar proyectos que impulsen un Madrid más inteligente, transparente y participativo.

calendar icon
Blog

La regulación europea de Datos de Alto Valor (HVD, High-Value Datasets), establecida por el Reglamento de Ejecución (UE) 2023/138, consolida el papel de las APIcomo infraestructura esencial para la reutilización de la información pública, convirtiendo su disponibilidad en una obligación legal y no solo en una buena práctica tecnológica.

Desde el 9 de junio de 2024, los organismos públicos de todos los Estados miembros están obligados a publicar los conjuntos de datos clasificados como HVD de forma gratuita, en formatos legibles por máquina y accesibles mediante API. Las seis categorías reguladas son: datos geoespaciales, observación de la Tierra, medio ambiente, estadística, información empresarial y movilidad.

Este marco no es meramente declarativo. Los Estados miembros deben reportar a la Comisión Europea el estado de cumplimiento cada dos años, incluyendo enlaces persistentes a las API que dan acceso a dichos datos. La situación de España en materia de transparencia, datos abiertos y provisión sistemática de API puede consultarse en los indicadores publicados por el Open Data Maturity Report.

En la práctica, esto significa que las API son el puente entre la norma y la realidad. La regulación no solo dice qué datos deben abrirse, sino que obliga a hacerlo de forma que puedan integrarse automáticamente en aplicaciones, estudios o servicios digitales. Por eso, revisar las API públicas disponibles en España es una forma concreta de entender cómo se está aplicando este marco en el día a día.

Inventario de API públicas en España

INE — API JSON (Tempus3)

El Instituto Nacional de Estadística ofrece una API REST que expone toda la base de datos de difusión Tempus3 en formato JSON, que incluye series estadísticas oficiales sobre demografía, economía, mercado laboral, industria, servicios, precios, condiciones de vida y otros indicadores socioeconómicos que incluye series estadísticas oficiales sobre demografía, economía, mercado laboral, industria, servicios, precios, condiciones de vida y otros indicadores socioeconómicos.

Para realizar llamadas, la estructura debe seguir el patrón https://servicios.ine.es/wstempus/js/{idioma}/{función}/{input}. El parámetro tip=AM permite obtener metadatos junto con los datos, y tv filtra por variables específicas. Por ejemplo, para obtener las cifras de población por provincia, basta con consultar la operación correspondiente (IOE 30243) y filtrar por la variable geográfica deseada.

No requiere autenticación ni API key: cualquier petición GET bien formada devuelve datos directamente.

Ejemplo en Python — obtener la serie de población residente con metadatos:

import requests

url = ("https://servicios.ine.es/wstempus/js/ES/"

       "DATOS_TABLA/t20/e245/p08/l0/01002.px?tip=AM")

response = requests.get(url)

data = response.json()
for serie in data[:3]:  # primeras 3 series

    nombre = serie["Nombre"]

    ultimo = serie["Data"][-1]

    print(f"{nombre}: {ultimo['Valor']:,.0f} ({ultimo['NombrePeriodo']})")

    TOTAL EDADES, TOTAL, Ambos sexos: 39,852,651 (1998)

    TOTAL EDADES, TOTAL, Hombres: 19,488,465 (1998)

    TOTAL EDADES, TOTAL, Mujeres: 20,364,186 (1998)

AEMET — OpenData API REST

La Agencia Estatal de Meteorología expone sus datos a través de una API REST, documentada con Swagger UI (herramienta de código abierto que genera documentación interactiva), datos meteorológicos observados y predicciones oficiales, incluyendo temperatura, precipitación, viento, alertas y fenómenos adversos.

A diferencia del INE, AEMET requiere una API key gratuita, que se obtiene proporcionando un correo electrónico en el portal opendata.aemet.es. Una API key funciona como un tipo de “contraseña” o identificador: sirve para para que el organismo pueda saber quién está usando el servicio, controlar el volumen de peticiones y garantizar un uso adecuado de la infraestructura.

Un aspecto técnico relevante es que AEMET implementa un modelo de doble llamada: la primera petición devuelve un JSON con una URL temporal en el campo datos, y una segunda petición a esa URL recupera el dataset real. El rate limit es de 50 peticiones por minuto.

Ejemplo en Python — datos climatológicos diarios (doble llamada):

import requests

API_KEY = "tu_api_key_aqui"

headers = {"api_key": API_KEY}

# 1ª llamada: obtener URL temporal de datos

url = ("https://opendata.aemet.es/opendata/api/"

       "valores/climatologicos/diarios/datos/"

        "fechaini/2025-01-01T00:00:00UTC/"

       "fechafin/2025-01-10T23:59:59UTC/"

        "todasestaciones")

resp1 = requests.get(url, headers=headers).json()

# 2ª llamada: descargar el dataset real

datos = requests.get(resp1["datos"], headers=headers).json()

for estacion in datos[:3]:

    print(f"{estacion['nombre']}: "

           f"Tmax={estacion.get('tmax','N/A')}°C, "

           f"Prec={estacion.get('prec','N/A')}mm")

CITFAGRO_88_GAITERO: Tmax=8,8°C, Prec=0,0mm

ABANILLA: Tmax=14,8°C, Prec=0,0mm

LA RODA DE ANDALUCÍA: Tmax=15,7°C, Prec=0,2mm

CNIG / IDEE — Servicios OGC y OGC API Features

El Centro Nacional de Información Geográfica publica datos geoespaciales oficiales —cartografía base, modelos digitales del terreno, redes hidrográficas, límites administrativos y otros elementos topográficos— mediante servicios interoperables. Estos han evolucionado desde WMS/WFS hacia los estándares OGC API (Features, Maps y Processes), implementados con software abierto como pygeoapi.

La ventaja principal de OGC API Features frente a WFS es el formato de respuesta: en lugar de GML (pesado y complejo), los datos se sirven en GeoJSON y HTML, formatos nativos del ecosistema web. Esto permite consumirlos directamente desde bibliotecas como Leaflet, OpenLayers o GDAL. Los datasets disponibles incluyen direcciones de Cartociudad, hidrografía, redes de transporte y nomenclátor geográfico.

Ejemplo en Python — consultar features geográficas vía OGC API:

import requests

# OGC API Features - Nomenclátor Geográfico Básico de España

base = "https://api-features.idee.es/collections"

collection = "falls" # Cascadas

url = f"{base}/{collection}/items?limit=5&f=json"

resp = requests.get(url).json()

for feat in resp["features"]:

    props = feat["properties"]

    coords = feat["geometry"]["coordinates"]

    print(f"{props['nombre']}: ({coords[0]:.4f}, {coords[1]:.4f})")

None: (-6.2132, 42.8982)

Cascada del Cervienzo: (-6.2572, 42.9763)

Cascada el Xaral: (-6.3815, 42.9881)

Cascada de Rexiu: (-7.2256, 42.5743)

Cascada de Santalla: (-7.2543, 42.6510)

MITECO — Portal de Datos Abiertos (CKAN)

El Ministerio para la Transición Ecológica mantiene un portal basado en CKAN que expone tres capas de acceso: la CKAN Action API para búsqueda de metadatos y datasets, el Datastore API (OpenAPI) para consultas en vivo sobre recursos tabulares, y endpoints RDF/JSON-LD conformes con DCAT-AP y GeoDCAT-AP. En su catálogo pueden encontrarse datos sobre calidad del aire, emisiones y cambio climático, agua (estado de masas y planificación hidrológica), biodiversidad y espacios protegidos, residuos, energía y evaluación ambiental.

Entre los datasets destacados figuran las áreas protegidas de la Red Natura 2000 masas de agua, y proyecciones de emisiones de gases de efecto invernadero.

Ejemplo en Python — buscar datasets:

import requests

BASE = "https://catalogo.datosabiertos.miteco.gob.es/catalogo"

# Buscar datasets que contengan 'natura 2000'

busqueda = requests.get(

    f"{BASE}/api/3/action/package_search",

    params={"q": "natura 2000", "rows": 3},

).json()

for ds in busqueda["result"]["results"]:

    print(f"{ds['title']} ({ds['num_resources']} recursos)")

Espacios Protegidos de la Red Natura 2000 (13 recursos)

Base de datos de los espacios protegidos Red Natura 2000 de España (CNTRYES) (1 recursos)

Espacios Protegidos de la Red Natura 2000 - API - Datos Alto Valor (1 recursos)

Comparativa técnica

Organismo Protocolo Formato Autenticación Rate limit HVD
INE REST JSON Ninguna No declarado Sí (estadística)
AEMET REST JSON API key (gratuita) 50 reg/min Sí (medio ambiente)
CNIG/IDEE OGC API/WFS GeoJSON/GML Ninguna No declarado Sí (geoespacial)
MITECO CKAN/REST JASON/RDF Ninguna (token opc) No declarado Sí (medio ambiente)

Figura 1.Tabla comparativa de las API de diferentes organismos públicos que se presentan en este post. Fuente: elaboración propia - datos.gob.es. 

La disponibilidad de API públicas no es solo una cuestión de conveniencia técnica. Desde la perspectiva de datos, estas interfaces habilitan tres capacidades críticas:

  • Automatización de pipelines: la ingesta periódica de datos públicos puede orquestarse con herramientas estándar (Airflow, Prefect, cron) sin intervención manual ni descargas de ficheros.
  • Reproducibilidad: las URL de las API actúan como referencias estáticas a fuentes autoritativas, lo que facilita auditorías y trazabilidad en proyectos de analítica.
  • Interoperabilidad: el uso de estándares abiertos (REST, OGC API, DCAT-AP) permite cruzar fuentes heterogéneas sin depender de formatos propietarios.

El ecosistema de API públicas en España presenta distintos niveles de desarrollo según el organismo y el ámbito sectorial. Mientras que entidades como el INE y AEMET disponen de interfaces consolidadas y bien documentadas, en otros casos el acceso se articula a través de portales CKAN o servicios OGC tradicionales. La regulación relativa a los High Value Datasets (HVD) está impulsando la adopción progresiva de estándares REST, si bien el grado de implantación evoluciona a ritmos diferentes. Para los profesionales de datos, estas API constituyen ya una fuente plenamente operativa cuya integración en arquitecturas de datos resulta cada vez más habitual en entornos analíticos y de ingeniería.

Contenido elaborado por Juan Benavente, ingeniero superior industrial y experto en Tecnologías ligadas a la economía del dato. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.

calendar icon
Noticia

El pasado miércoles 4 de marzo, la Cátedra Cajasiete Big Data, Open Data y Blockchain de la Universidad de La Laguna celebró un webinar para presentar las ideas ganadoras del l Concurso Datos Abiertos Cabildo de Tenerife: Ideas de Reutilización. Un evento para poner en valor el potencial que tiene la información pública cuando se pone al servicio de la ciudadanía. La grabación de la presentación está disponible aquí.

En este post repasaremos en qué consiste cada uno de los proyectos ganadores -que son todavía ideas pendientes de desarrollo en apps y a qué retos darían respuesta.

Cultiva+ Tenerife: agricultura de precisión para el campo tinerfeño

El proyecto ganador del primer premio nace de una necesidad muy concreta que conoce bien cualquier agricultor de la isla: tomar decisiones acertadas en el momento adecuado. ¿Qué cultivo es más rentable esta temporada? ¿Cuáles son las condiciones climáticas previstas para las próximas semanas? ¿Hay alguna feria o evento del sector que convenga no perderse?

Cultiva+ Tenerife es una aplicación diseñada específicamente para el sector agrícola que integra datos abiertos del Cabildo para responder a estas preguntas de forma sencilla e intuitiva.

En concreto, va dirigido tanto a trabajadores ya establecidos en el sector como a nuevos agricultores. En el primer caso, la app facilitaría el trabajo diario a través de recomendaciones de riego y otras cuestiones que mejoren la producción; mientras que para nuevos agricultores la aplicación ayudaría a seleccionar la mejor parcela para empezar una actividad agraria según tipo de suelo, condiciones climáticas, etc.

Diapositiva titulada “Agricultura de Precisión” que muestra dos tipos de usuarios de una plataforma agrícola.  A la izquierda: “Agricultores establecidos”, enfocado en la retención y facilitación del trabajo diario. Incluye:  Indicar parcela: ubicación, tipo de suelo, condiciones agroclimáticas y precios de mercado.  Recomendaciones: variedades adaptadas, ventana temporal, calendario de riego y optimización de la producción.  A la derecha: “Nuevos agricultores”, enfocado en atraer y facilitar el comienzo. Incluye:  Seleccionar parcela: ubicación, tipo de suelo, condiciones agroclimáticas, variedades y rentabilidad.  Marketplace: oferta-demanda, compraventa y bolsa de trabajo.  En la esquina inferior izquierda aparece el texto: “I Concurso Datos Abiertos – Cabildo de Tenerife – Ideas de Reutilización, 2024.”

Figura 1. Posibles utilidades de la aplicación Cultiva+ Tenerife según el tipo de usuario. Fuente: presentación de Cultiva+Tenerife en el Webinar “De los datos a la innovación: Ideas de reutilización premiadas en el I Concurso de Datos Abiertos del Cabildo de Tenerife, Universidad de la Laguna”.

La aplicación recogería de forma intuitiva y clara información como:

  • Información de precios: el agricultor puede consultar la evolución de los precios de mercado de distintos productos, lo que le permite planificar qué cultivar en función de la rentabilidad esperada.
  • Condiciones climatológicas: la app cruza datos meteorológicos con las necesidades específicas de cada tipo de cultivo, ayudando a anticipar riegos, protecciones o cosechas.
  • Agenda de actividades de interés: ferias agrícolas, jornadas técnicas, convocatorias de ayudas... toda la información relevante para el sector, centralizada en un solo lugar.

    Diapositiva titulada “Esquema de Aplicación” que muestra el flujo de funcionamiento de una aplicación móvil para agricultura.  En la parte izquierda aparecen las pantallas iniciales del usuario: inicio de sesión, registro y perfil principal o panel, conectadas por flechas que indican el proceso de acceso a la aplicación.  Debajo se muestra una pantalla de reportes, con gráficos circulares y de barras que representan el estado de la cosecha, hectáreas y ventas estimadas.  A la derecha aparece la vista de parcelas, representada por un mapa donde se pueden visualizar distintos cultivos.  Finalmente, en el extremo derecho, se muestra una pantalla de análisis de parcelas, que incluye un mapa de ubicación y una tabla con datos agrícolas y climáticos (como fechas y valores de medición) para evaluar el rendimiento del cultivo.  En la esquina inferior izquierda aparece el texto: “I Concurso Datos Abiertos – Cabildo de Tenerife – Ideas de Reutilización, 2024.” El diseño utiliza fondo claro con elementos decorativos amarillos y líneas que conectan cada etapa del flujo de la aplicación.

Figura 2. Estructura visual de la aplicación Cultiva+Tenerife. Fuente: presentación de Cultiva+Tenerife en el Webinar “De los datos a la innovación: Ideas de reutilización premiadas en el I Concurso de Datos Abiertos del Cabildo de Tenerife, Universidad de la Laguna”.

Algo que se destacó como valioso de este proyecto en el webinar es su enfoque en un colectivo que históricamente ha tenido menos acceso a herramientas digitales: los agricultores y agricultoras de Tenerife. La propuesta no busca complicar su día a día con tecnología innecesaria, sino simplificar decisiones que hoy se toman muchas veces a ojo o con información incompleta. La agricultura de precisión ya no es solo cosa de grandes explotaciones: con datos abiertos y una buena aplicación, puede estar al alcance de cualquier productor local.

Análisis de tendencias y modelos sobre el turismo en Tenerife: cuando los datos revelan una crisis

El segundo proyecto ganador aborda uno de los temas más complejos y urgentes de la realidad tinerfeña: la relación entre el turismo, la vivienda y el mercado laboral. Una ecuación con múltiples variables que afecta directamente a la calidad de vida de los residentes y que, hasta ahora, era difícil de analizar de forma rigurosa sin acceso a datos fiables.

El punto de partida del proyecto es revelador: en junio de 2024, el 35 % de los nuevos contratos laborales firmados en Tenerife correspondieron al sector de la hostelería. Un dato que ilustra a la perfección la dependencia estructural de la economía isleña respecto al turismo, pero que también abre preguntas incómodas: ¿hasta qué punto el crecimiento turístico está transformando el mercado de la vivienda? ¿Está desplazando a los residentes habituales de determinadas zonas? ¿Cómo evolucionará la llegada de turistas en los próximos años?

Este proyecto propone dar respuesta a estas preguntas a través de un modelo de análisis y predicción construido con herramientas de ciencia de datos. Su desarrolladora plantea utilizar datos como el número de turistas alojados en Tenerife según categoría y zona de establecimiento, disponible en datos.tenerife.es, para construir modelos con Python y NumPy que permitan identificar tendencias y proyectar escenarios futuros.

Los objetivos del proyecto son ambiciosos pero concretos:

  • Analizar la relación entre demanda turística y oferta de alojamientos, identificando qué zonas de la isla sufren mayor presión y en qué momentos del año.
  • Desarrollar un modelo predictivo capaz de estimar la llegada futura de turistas y su impacto en el sector de la vivienda turística.
  • Contribuir a mitigar la crisis habitacional aportando datos y análisis que permitan entender cómo el turismo está afectando a la disponibilidad de vivienda para los residentes.
  • Apoyar la planificación empresarial y urbanística, ofreciendo a empresas, inversores y administraciones una herramienta de análisis que facilite la toma de decisiones estratégicas.

Se trata, en definitiva, de poner la inteligencia de los datos al servicio de uno de los debates más actuales que tiene Tenerife sobre la mesa.

La universidad como puente entre los datos y la sociedad

La elección de la Cátedra Cajasiete Big Data, Open Data y Blockchain de la Universidad de La Laguna como espacio para dar visibilidad a los ganadores es en sí misma un mensaje: la Universidad tiene un papel clave en la construcción del ecosistema de datos abiertos en Tenerife.

Esta cátedra lleva años trabajando en la frontera entre la investigación académica y la aplicación práctica de tecnologías como el análisis de datos masivos, la cadena de bloques o la reutilización de información pública. Su implicación en este concurso y en la difusión de sus resultados refuerza la idea de que los datos abiertos son también un recurso de valor para la formación, la investigación y el desarrollo económico local.

El éxito de esta primera convocatoria ha confirmado que había demanda real de este tipo de iniciativas. Tanto es así que el Cabildo ya ha lanzado el II Concurso de Datos Abiertos: Desarrollo de APP, que da continuidad al proceso llevando las ideas al siguiente nivel: el desarrollo de aplicaciones funcionales.

Si en la primera edición se premiaron ideas y propuestas conceptuales, en esta segunda convocatoria el reto es construir soluciones reales, con código, interfaz de usuario y funcionalidades demostradas. La dotación económica es de 6.000 euros repartidos en tres premios.

Proyectos como Cultiva+ Tenerife o el Análisis del impacto turístico en la vivienda demuestran que hay ideas con potencial para convertirse en herramientas útiles y sostenibles. Esta segunda fase es la oportunidad de materializarlas.

calendar icon
Evento

Cada año, la organización internacional en defensa del conocimiento abierto Open Knowledge Foundation (OKFN) organiza el Día de los datos abiertos (Open Data Day u ODD), una iniciativa marco en la que se llevarán a cabo actividades por todo el mundo para demostrar el valor que generan los datos abiertos. Es un punto de encuentro para administraciones públicas, sociedad civil, universidades, empresas tecnológicas y ciudadanía interesada en la reutilización de la información pública. Es, sobre todo, una invitación a pasar de la teoría a la práctica: abrir datos, reutilizarlos y convertirlos en soluciones concretas.

Desde datos.gob.es, portal nacional de datos abiertos, nos sumamos a esta celebración recopilando también otras actividades que ponen el dato y las tecnologías relacionadas en el centro. En este post repasamos algunos eventos que se celebrarán durante este mes de marzo. ¡Toma nota y apunta en la agenda!

Datos contra la desinformación: celebra el Open Data Day con Iniciativa Open Data Barcelona

Este encuentro forma parte de las actividades organizadas en España con motivo del Open Data Day 2026, y está centrado en el papel de los datos abiertos como herramienta para reforzar la calidad de la información pública y combatir la desinformación. En el evento se dará visibilidad a proyectos que utilizan datos abiertos para promover una democracia más transparente, fomentar una participación ciudadana informada y contribuir al desarrollo de inteligencia artificial responsable basada en datos fiables.

  • ¿Cuándo? El martes 10 de marzo a las 17.30h
  • ¿Dónde? Ca l'Alier C/ de Pere IV, 362 en Barcelona
  • Más información

El futuro del Open Data: aniversario de OKFN

Con motivo del Open Data Day 2026, la Open Knowledge Foundation (OKFN) organiza una conferencia online para reunir a la comunidad de datos abiertos y celebrar dos décadas de CKAN, la herramienta surgida del trabajo de OKFN que hoy impulsa portales de datos en todo el mundo. El encuentro permitirá debatir sobre el papel actual de los datos abiertos y las infraestructuras de datos frente a los desafíos técnicos y políticos contemporáneos. Está dirigido a profesionales de gobiernos, sociedad civil, medios de comunicación, colectivos activistas y todas las personas interesadas en reflexionar sobre el futuro de los datos abiertos en un contexto tecnológico en rápida transformación, marcado especialmente por la irrupción de herramientas de inteligencia artificial.

  • ¿Cuándo? El miércoles 11 de marzo de 11h a 16h
  • ¿Dónde? Online
  • Más información

El dato como bien público: webinar europeo

Organizado por la data.europa.eu academy en el marco del Open Data Day, este seminario web aborda cómo los datos abiertos pueden actuar como un bien público para mejorar la toma de decisiones en todos los territorios, especialmente en zonas rurales. A través de casos prácticos del Reino Unido e Irlanda, la sesión mostrará cómo la información abierta permite identificar necesidades locales, reducir desigualdades territoriales y diseñar políticas públicas basadas en evidencia que garanticen un acceso más equitativo a servicios esenciales.

  • ¿Cuándo? El viernes 13 de marzo de 10h a 11.30h
  • ¿Dónde? Evento online
  • Más información

Solid World: innovación en la compartición y reutilización de datos científicos

En este evento se explorará cómo modelar, analizar y compartir datos de investigación usando tecnologías del ecosistema Solid*. La sesión contará con representantes de W3COpen Data Institute para presentar el proyecto SpOTy, una aplicación web para organizar y analizar datos lingüísticos que ha migrado de RDF a Solid para dar a los investigadores mayor control sobre la compartición de sus datos, abordando además retos de interoperabilidad y reutilización responsable de información científica.

*El ecosistema Solid es un conjunto de tecnologías, estándares y herramientas que permiten a las personas y organizaciones controlar sus propios datos en la web y decidir cómo, cuándo y con quién se comparten.

  • ¿Cuándo? El lunes 23 de marzo de 17h a 18h
  • ¿Dónde? Evento online
  • Más información

Cómo preparar los portales públicos para la era de la IA

La decimotercera edición del ciclo Data Centric AI, organizado por el Open Data Institute (ODI), explorará cómo deben evolucionar los portales de datos públicos para adaptarse a nuevas formas de interacción con los conjuntos de datos. Se abordará la transformación de infraestructuras como data.gov.uk, los planes para la National Data Library y el papel de la investigación académica en el diseño de nuevas arquitecturas de datos públicos, combinando preparación para la inteligencia artificial con un enfoque centrado en las personas usuarias y reflexionando sobre el contexto social que rodea a los datos y la IA.

  • ¿Cuándo? El jueves 26 de marzo de 17h a 18h
  • ¿Dónde? Evento online
  • Más información

Eventos online sobre datos abiertos en diferentes sectores con Open Data Week

La Open Data Week es un festival anual de eventos que se celebra cada mes de marzo en Nueva York y que está organizado por el equipo de NYC Open Data junto con BetaNYCData Through Design. La semana conmemora el aniversario de la primera ley de datos abiertos de la ciudad, firmada el 7 de marzo de 2012, y coincide además con el Open Data Day, reforzando su conexión con el movimiento internacional de datos abiertos. Algunas de las actividades programadas serán en formato virtual.

  • ¿Cuándo? Del 22 al 29 de marzo
  • ¿Dónde? Algunos eventos se podrán seguir en streaming
  • Más información

Claves sobre ética de datos para organizaciones

Esta sesión del ciclo Data Ethics Professionals organizado por ODI se centrará en las principales lecciones aprendidas por organizaciones que han iniciado procesos de integración de la ética del dato en sus estructuras y flujos de trabajo. El seminario abordará retos habituales como la obtención de apoyo directivo, la incorporación práctica de herramientas y marcos éticos, y la gestión de cargas de trabajo en procesos de transformación organizativa.

En definitiva, el calendario de las próximas semanas ofrece múltiples oportunidades para profundizar en el valor estratégico de los datos abiertos y de las tecnologías asociadas. Desde iniciativas locales contra la desinformación hasta espacios de datos sectoriales y seminarios europeos sobre el dato como bien público, el ecosistema continúa creciendo y diversificándose. Te animamos a participar, compartir estas convocatorias y trasladar los aprendizajes a tu organización. Porque el Open Data Day es solo el punto de partida: la verdadera transformación se construye durante todo el año, conectando comunidad, conocimiento y acción a través de los datos abiertos.

Estos son algunos de los eventos que están agendados para este mes de marzo. De todas formas, no olvides seguirnos en redes sociales para no perderte ninguna novedad sobre innovación y datos abiertos. Estamos en XLinkedIn nos puedes escribir si necesitas información extra.

calendar icon