En los últimos años, las iniciativas de datos abiertos han transformado la forma en que, tanto instituciones públicas como organizaciones privadas, gestionan y comparten la información. La adopción de los principios FAIR (Findable, Accessible, Interoperable, Reusable) ha sido clave para garantizar que los datos generen un impacto positivo, maximizando su disponibilidad y su reutilización.
Sin embargo, en contextos de vulnerabilidad (como pueblos indígenas, minorías culturales o territorios en situación de riesgo) surge la necesidad de incorporar un marco ético que garantice que la apertura de datos no derive en perjuicios ni profundice las desigualdades. Aquí es donde entran en juego los principios CARE (Collective Benefit, Authority to Control, Responsibility, Ethics), propuestos por el Global Indigenous Data Alliance (GIDA), que complementan y enriquecen el enfoque FAIR.
Es importante señalar que, aunque los principios CARE surgen en el contexto de las comunidades indígenas (para asegurar una soberanía efectiva de los pueblos indígenas sobre sus datos y su derecho a generar valor de acuerdo con sus propios valores), estos pueden extrapolarse a otros escenarios diferentes. De hecho, estos principios son muy útiles en cualquier situación donde los datos se recolecten en territorios con algún tipo de vulnerabilidad social, territorial, medioambiental o, incluso, cultural.
Este artículo explora cómo los principios CARE pueden integrarse en las iniciativas de datos abiertos generando un impacto social sobre la base de un uso responsable que no perjudique a comunidades vulnerables.
Los principios CARE en detalle
Los principios CARE ayudan a garantizar que las iniciativas de datos abiertos no se limiten a aspectos técnicos, sino que incorpore también consideraciones sociales, culturales y éticas. En concreto, los cuatro principios CARE son los siguientes:
- Collective Benefit (beneficio colectivo): los datos deben usarse para generar un beneficio que sean compartido de manera justa entre todas las partes involucradas. De esta manera, la apertura de datos debería apoyar el desarrollo sostenible, el bienestar social y el fortalecimiento cultural de una comunidad vulnerable, por ejemplo, evitando prácticas relacionadas con los datos abiertos que solo favorezcan a terceros.
-
Authority to Control (autoridad para controlar): las comunidades vulnerables tienen el derecho a decidir cómo se recopilan, gestionan, comparten y reutilizan los datos que generan. Este principio reconoce la soberanía de los datos y la necesidad de respetar sistemas de gobernanza propios, en lugar de imponer criterios externos.
-
Responsibility (responsabilidad): quienes gestionan y reutilizan los datos deben actuar con responsabilidad hacia las comunidades involucradas, reconociendo posibles impactos negativos y aplicando medidas para mitigarlos. Esto incluye prácticas como la consulta previa, la transparencia en el uso de los datos y la creación de mecanismos de rendición de cuentas.
-
Ethics (ética): la dimensión ética exige que la apertura y reutilización de los datos respete los derechos humanos, los valores culturales y la dignidad de las comunidades. No se trata únicamente de cumplir con la legalidad, sino de ir más allá, aplicando principios éticos a través de un código deontológico.
En conjunto, estos cuatro principios ofrecen una guía para gestionar los datos abiertos de manera más justa y responsable, respetando la soberanía y los intereses de las comunidades a las que esos datos se refieren.
CARE y FAIR: principios complementarios para datos abiertos que trascienden
Los principios CARE y FAIR no son opuestos, sino que operan en planos distintos y complementarios:
-
FAIR se centra en la facilitar técnicamente el consumo de datos.
-
CARE introduce la dimensión social y ética (incluso cultural considerando comunidades vulnerables concretas).
Los principios FAIR se enfocan en las dimensiones técnicas y operativas de los datos. Es decir, los datos que cumplen estos principios son fácilmente localizables, están disponibles sin barreras innecesarias y con identificadores únicos, usan estándares para asegurar la interoperabilidad y pueden utilizarse en distintos contextos para fines diferentes de los que fueron pensados en un principio.
No obstante, los principios FAIR no abordan directamente cuestiones de justicia social, soberanía ni ética. En particular, estos principios no contemplan que los datos pueden representar conocimientos, recursos o identidades de comunidades que históricamente han sufrido exclusión o explotación o de comunidades relacionadas con territorios con valores medioambientales, sociales o culturales únicos. Para ello, se pueden utilizar los principios CARE, que complementan a los principios FAIR, agregando una base ética y de gobernanza comunitaria a cualquier iniciativa de datos abiertos.
De esta forma, una estrategia de datos abiertos que aspire a ser socialmente justa y sostenible debe articular ambos principios. FAIR sin CARE corre el riesgo de invisibilizar derechos colectivos promoviendo una reutilización de datos poco ética. Por otro lado, CARE sin FAIR puede limitar el potencial de interoperabilidad y reutilización, haciendo los datos inservibles para generar un beneficio positivo en una comunidad o territorio vulnerable.
Un ejemplo ilustrativo se encuentra en la gestión de datos sobre biodiversidad en un área natural protegida. Mientras los principios FAIR aseguran que los datos puedan integrarse con diversas herramientas para ser ampliamente reutilizados (por ejemplo, en investigaciones científicas), los principios CARE recuerdan que los datos sobre especies y los territorios en los que habitan pueden tener implicaciones directas para las comunidades que viven en (o cerca de) esa área natural protegida. Por ejemplo, hacer públicos los puntos exactos donde se encuentran especies en peligro de extinción en un área natural protegida, podría facilitar su explotación ilegal en lugar de su conservación, lo que obliga a definir cuidadosamente cómo, cuándo y bajo qué condiciones se comparten esos datos.
Veamos ahora cómo en este ejemplo se podrían cumplir los principios CARE:
-
En primer lugar, los datos sobre biodiversidad deben usarse para proteger los ecosistemas y fortalecer a las comunidades locales, generando beneficios en forma de conservación, turismo sostenible o educación ambiental, en lugar de favorecer intereses privados aislados (es decir, principio de beneficio colectivo).
-
En segundo lugar, las comunidades que habitan cerca del área natural protegida o dependen de esos recursos tienen derecho a decidir cómo se gestionan los datos sensibles, por ejemplo, exigir que la ubicación de ciertas especies no se publique de forma abierta o se publique de manera agregada (es decir, principio de autoridad).
-
Por otra parte, las personas encargadas de la gestión de estas áreas protegidas del parque deben actuar con responsabilidad, estableciendo protocolos para evitar daños colaterales (como la caza furtiva) y garantizando que los datos se usen de manera coherente con los objetivos de conservación (esto es, principio de responsabilidad).
-
Finalmente, la apertura de estos datos debe guiarse por principios éticos, priorizando la protección de la biodiversidad y los derechos de las comunidades locales frente a intereses económicos (o incluso académicos) que puedan poner en riesgo los ecosistemas o las poblaciones que dependen de ellos (principio de ética).
Cabe destacar que varias iniciativas internacionales, como la justicia de datos ambientales indígenas relacionada con el International Indigenous Data Sovereignty Movement y el Research Data Alliance (RDA) a través del Care Principles for Indigenous Data Governance, ya promueven la adopción conjunta de CARE y FAIR como base de iniciativas de datos más equitativas.
Conclusiones
Garantizar los principios FAIR es esencial para que los datos abiertos generen valor a través de su reutilización. Sin embargo, las iniciativas de datos abiertos deben ir acompañadas de un compromiso firme con la justicia social, la soberanía de las comunidades vulnerables y la ética. Solo la integración de los principios CARE junto a los FAIR permitirá impulsar prácticas de datos abiertos verdaderamente justas, equitativas, inclusivas y responsables.
Jose Norberto Mazón, Catedrático de Lenguajes y Sistemas Informáticos de la Universidad de Alicante. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.
Los datos abiertos de fuentes públicas han evolucionado a lo largo de estos años, pasando de ser simples repositorios de información a constituir ecosistemas dinámicos que pueden transformar la gobernanza pública. En este contexto, la inteligencia artificial (IA) emerge como una tecnología catalizadora que se beneficia del valor de los datos abiertos y potencia exponencialmente su utilidad. En este post veremos cómo es la relación simbiótica de mutuo beneficio entre la IA y los datos abiertos.
Tradicionalmente, el debate sobre datos abiertos se ha centrado en los portales: las plataformas en las que gobiernos publican información para que la ciudadanía, las empresas y las organizaciones puedan acceder a ella. Pero la llamada “Tercera Ola de Datos Abiertos”, término acuñado por el GovLab de la Universidad de Nueva York, enfatiza que ya no basta con publicar datasets a demanda o por defecto. Lo importante es pensar en el ecosistema completo: el ciclo de vida de los datos, su explotación, mantenimiento y, sobre todo, el valor que generan en la sociedad.
¿Qué función pueden tener los datos abiertos aplicados a la IA?
En este contexto, la IA aparece como un catalizador capaz de automatizar tareas, enriquecer los datos abiertos gubernamentales (OGD), facilitar su comprensión y estimular la colaboración entre actores.
Una investigación reciente, desarrollada por universidades europeas, mapea cómo está sucediendo esta revolución silenciosa. El estudio propone una clasificación de los usos según en dos dimensiones:
-
Perspectiva, que a su vez se divide en dos posibles vías:
-
Inward-looking (portal): el foco está en las funciones internas de los portales de datos.
-
Outward-looking (ecosistema): el foco se amplía a las interacciones con actores externos (ciudadanos, empresas, organizaciones).
-
-
Fases del ciclo de vida del dato, las cuales podemos dividir en pre-procesamiento, exploración, transformación y mantenimiento.
En resumen, el informe identifica estos ocho tipos de uso de la IA en los datos abiertos gubernamentales, que se producen al cruzar las perspectivas y las fases en el ciclo de vida del dato.
Figura 1. Ocho uso de la IA para mejorar los datos abiertos gubernamentales. Fuente: presentación "Data for AI or AI for data: artificial intelligence as a catalyser for open government ecosystems", basada en el informe del mismo nombre, de los EU Open Data Days 2025.
A continuación, se detalla cada uno de estos usos:
1. IA como depuradora (portal curator)
Esta aplicación se centra en el pre-procesamiento de datos dentro del portal. La IA ayuda a organizar, limpiar, anonimizar y etiquetar datasets antes de su publicación. Algunos ejemplos de tareas son:
-
Automatización y mejora de las tareas de publicación de datos.
-
Realización de funciones de etiquetado automático y categorización.
-
Anonimización de datos para proteger la privacidad.
-
Limpieza y filtrado automático de conjuntos de datos.
-
Extracción de características y manejo de datos faltantes.
2. IA como recolectora de datos del ecosistema (ecosystem data retriever)
También en la fase de pre-procesamiento, pero con un enfoque externo, la IA amplía la cobertura de los portales al identificar y recopilar información de fuentes diversas. Algunas tareas son:
-
Recuperar datos estructurados desde textos legales o normativos.
-
Minería de noticias para enriquecer datasets con información contextual.
-
Integración de datos urbanos procedentes de sensores o registros digitales.
-
Descubrimiento y enlace de fuentes heterogéneas.
- Conversión de documentos complejos en información estructurada.
3. IA como exploradora del portal (portal explorer)
En la fase de exploración, los sistemas de IA también pueden facilitar la búsqueda e interacción con los datos publicados, con un enfoque más interno. Algunos casos de uso:
-
Desarrollar buscadores semánticos para localizar conjuntos de datos.
-
Implementar chatbots que guíen a los usuarios en la exploración de datos.
-
Proporcionar interfaces de lenguaje natural para consultas directas.
-
Optimizar los motores de búsqueda internos del portal.
-
Utilizar modelos de lenguaje para mejorar la recuperación de información.
4. IA como recolectora de información en la web (ecosystem connector)
Operando también en la fase de exploración, la IA actúa como un puente entre actores y recursos del ecosistema. Algunos ejemplos son:
-
Recomendar datasets relevantes a investigadores o empresas.
-
Identificar socios potenciales a partir de intereses comunes.
-
Extraer temas emergentes para apoyar la formulación de políticas.
-
Visualizar datos de múltiples fuentes en paneles interactivos.
-
Personalizar sugerencias de datos basadas en actividades en redes sociales.
5. IA que referencia el portal (portal linker)
Esta funcionalidad se enfoca en la transformación de datos dentro del portal. Su función es facilitar la combinación y presentación de información para distintos públicos. Algunas tareas son:
-
Convertir datos en grafos de conocimiento (estructuras que conectan información relacionada, conocidas como Linked Open Data).
-
Resumir y simplificar datos con técnicas de PLN (Procesamiento del Lenguaje Natural).
-
Aplicar razonamiento automático para generar información derivada.
-
Potenciar la visualización multivariante de datasets complejos.
-
Integrar datos diversos en productos de información accesibles.
6. IA como desarrolladora de valor en el ecosistema (ecosystem value developer)
En la fase de transformación y con mirada externa, la IA genera productos y servicios basados en datos abiertos que aportan valor añadido. Algunas tareas son:
-
Sugerir técnicas analíticas adecuadas según el tipo de conjunto de datos.
-
Asistir en la codificación y procesamiento de información.
-
Crear paneles de control basados en análisis predictivo.
-
Garantizar la corrección y coherencia de los datos transformados.
-
Apoyar el desarrollo de servicios digitales innovadores.
7. IA como supervisora del portal (portal monitor)
Se centra en el mantenimiento del portal, con un enfoque interno. Su papel es garantizar la calidad, consistencia y cumplimiento de estándares. Algunas tareas son:
-
Detectar anomalías y valores atípicos en conjuntos de datos publicados.
-
Evaluar la consistencia de metadatos y esquemas.
-
Automatizar procesos de actualización y depuración de datos.
-
Identificar incidencias en tiempo real para su corrección.
-
Reducir costes de mantenimiento mediante monitorización inteligente.
8. IA como dinamizadora del ecosistema (ecosystem engager)
Y, por último, esta función opera en la fase de mantenimiento, pero hacia afuera. Busca promover la participación ciudadana y la interacción continua. Algunas tareas son:
-
Predecir patrones de uso y anticipar necesidades de los usuarios.
-
Proporcionar retroalimentación personalizada sobre datasets.
-
Facilitar la auditoría ciudadana de la calidad de los datos.
-
Incentivar la participación en comunidades de datos abiertos.
-
Identificar perfiles de usuarios para diseñar experiencias más inclusivas.
¿Qué nos dice la evidencia?
El estudio se basa en una revisión de más de 70 artículos académicos que examinan la intersección entre IA y los datos abiertos gubernamentales (open government data u OGD). A partir de estos casos, los autores observan que:
-
Algunos de los perfiles definidos, como portal curator, portal explorer y portal monitor, están relativamente maduros y cuentan con múltiples ejemplos en la literatura.
-
Otros, como ecosystem value developer y ecosystem engager, están menos explorados, aunque son los que más potencial tienen para generar impacto social y económico.
-
La mayoría de las aplicaciones actuales se centran en automatizar tareas concretas, pero hay un gran margen para diseñar arquitecturas más integrales, que combinen varios tipos de IA en un mismo portal o en todo el ciclo de vida del dato.
Desde un punto de vista académico, esta tipología aporta un lenguaje común y una estructura conceptual para estudiar la relación entre IA y datos abiertos. Permite identificar vacíos en la investigación y orientar futuros trabajos hacia un enfoque más sistémico.
En la práctica, el marco es útil para:
-
Gestores de portales de datos: les ayuda a identificar qué tipos de IA pueden implementar según sus necesidades, desde mejorar la calidad de los datasets hasta facilitar la interacción con los usuarios.
-
Responsables políticos: les orienta sobre cómo diseñar estrategias de adopción de IA en iniciativas de datos abiertos, equilibrando eficiencia, transparencia y participación.
-
Investigadores y desarrolladores: les ofrece un mapa de oportunidades para crear herramientas innovadoras que atiendan necesidades específicas del ecosistema.
Limitaciones y próximos pasos de la sinergia entre IA y open data
Además de las ventajas, el estudio reconoce algunas asignaturas pendientes que, en cierta manera, sirven como hoja de ruta para el futuro. Para empezar, varias de las aplicaciones que se han identificado están todavía en fases tempranas o son conceptuales. Y, quizá lo más relevante, aún no se ha abordado en profundidad el debate sobre los riesgos y dilemas éticos del uso de IA en datos abiertos: sesgos, privacidad, sostenibilidad tecnológica.
En definitiva, la combinación de IA y datos abiertos es todavía un terreno en construcción, pero con un enorme potencial. La clave estará en pasar de experimentos aislados a estrategias integrales, capaces de generar valor social, económico y democrático. La IA, en este sentido, no funciona de manera independiente a los datos abiertos: los multiplica y los hace más relevantes para gobiernos, ciudadanía y sociedad en general.
Sabemos que los datos abiertos que gestiona el sector público en el ejercicio de sus funciones constituyen un recurso de gran valor para fomentar la transparencia, impulsar la innovación y estimular el desarrollo económico. A nivel global, en los últimos 15 años esta idea ha llevado a la creación de portales de datos que sirven como punto de acceso único para la información pública tanto de un país, como de una región o ciudad.
Sin embargo, en ocasiones nos encontramos que el pleno aprovechamiento del potencial de los datos abiertos se ve limitado por problemas inherentes a su calidad. Inconsistencias, falta de estandarización o interoperabilidad y metadatos incompletos son solo algunos de los desafíos comunes que a veces merman la utilidad de los conjuntos de datos abiertos y que las agencias gubernamentales además señalan como el principal obstáculo para la adopción de la IA.
Cuando hablamos de la relación entre datos abiertos e inteligencia artificial, casi siempre partimos de la misma idea: los datos abiertos alimentan a la IA, esto es, son parte del combustible de los modelos. Ya sea para entrenar modelos fundacionales como ALIA, para especializar modelos de lenguaje pequeños (SLM) frente a LLM, o para evaluar y validar sus capacidades o explicar su comportamiento (XAI), el argumento gira en torno a la utilidad de los datos abiertos para la inteligencia artificial, olvidando que los datos abiertos ya estaban ahí y tienen muchas otras utilidades.
Por ello, vamos a invertir la perspectiva y a explorar cómo la propia IA puede convertirse en una herramienta poderosa para mejorar la calidad y, por tanto, el valor de los propios datos abiertos. Este enfoque, que ya esbozó la Comisión Económica para Europa de las Naciones Unidas (UNECE) en su pionero informe Machine Learning for Official Statistics de 2022, adquiere una mayor relevancia desde la explosión de la IA generativa. Actualmente podemos utilizar la inteligencia artificial disponible para incrementar la calidad de los conjuntos de datos que se publican a lo largo de todo su ciclo de vida: desde la captura y la normalización hasta la validación, la anonimización, la documentación y el seguimiento en producción.
Con ello, podemos aumentar el valor público del dato, contribuir a que crezca su reutilización y a amplificar su impacto social y económico. Y, al mismo tiempo, a mejorar la calidad de la siguiente generación de modelos de inteligencia artificial.
Desafíos comunes en la calidad de los datos abiertos
La calidad de los datos ha sido tradicionalmente un factor crítico para el éxito de cualquier iniciativa de datos abiertos, que aparece citado en numerosos informes como el de Comisión Europea “Improving data publishing by open data portal managers and owners”. Los desafíos más frecuentes que enfrentan los publicadores de datos incluyen:
-
Inconsistencias y errores: en los conjuntos de datos, es frecuente la presencia de datos duplicados, formatos heterogéneos o valores atípicos. La corrección de estos pequeños errores, idealmente en la propia fuente de los datos, tenía tradicionalmente un coste elevado y limitaba enormemente la utilidad de numerosos conjuntos de datos.
-
Falta de estandarización e interoperabilidad: dos conjuntos que hablan de lo mismo pueden nombrar las columnas de forma diferente, usar clasificaciones no comparables o carecer de identificadores persistentes para enlazar entidades. Sin un mínimo común, combinar fuentes se convierte en un trabajo artesanal que encarece la reutilización de los datos.
- Metadatos incompletos o inexactos: la carencia de información clara sobre el origen, la metodología de recolección, la frecuencia de actualización o el significado de los campos, complica la comprensión y el uso de los datos. Por ejemplo, saber con certeza si se puede integrar el recurso en un servicio, si está al día o si existe un punto de contacto para resolver dudas es muy importante para su reutilización.
- Datos obsoletos o desactualizados: en dominios muy dinámicos como la movilidad, los precios o los datos de medio ambiente, un conjunto desactualizado puede generar conclusiones erróneas. Y si no hay versiones, registro de cambios o indicadores de frescura, es difícil saber qué ha variado y por qué. La ausencia de un “historial” de los datos complica la auditoría y reduce la confianza.
- Sesgos inherentes: a veces la cobertura es incompleta, ciertas poblaciones quedan infrarrepresentadas o una práctica administrativa introduce una desviación sistemática. Si estos límites no se documentan y advierten, los análisis pueden reforzar desigualdades o llegar a conclusiones injustas sin que nadie lo perciba.
Dónde puede ayudar la Inteligencia Artificial
Por fortuna, en su estado actual, la inteligencia artificial ya está en disposición de proporcionar un conjunto de herramientas que pueden contribuir a abordar algunos de estos desafíos de calidad de los datos abiertos, transformando su gestión de un proceso manual y propenso a errores en uno más automatizado y eficiente:
- Detección y corrección de errores automatizada: los algoritmos de aprendizaje automático y los modelos de IA pueden identificar automáticamente y con una gran fiabilidad inconsistencias, duplicados, valores atípicos y errores tipográficos en grandes volúmenes de datos. Además, la IA puede ayudar a normalizar y estandarizar datos, transformándolos por ejemplo a formatos y esquemas comunes para facilitar la interoperabilidad (como DCAT-AP), y con una fracción del coste que suponía hasta el momento.
- Enriquecimiento de metadatos y catalogación: las tecnologías asociadas al procesamiento de lenguaje natural (PLN), incluyendo el uso de modelos de lenguaje grandes (LLM) y pequeños (SLM), puede ayudar en la tarea de analizar descripciones y generar metadatos más completos y precisos. Esto incluye tareas como sugerir etiquetas relevantes, categorías de clasificación o extraer entidades clave (nombres de lugares, organizaciones, etc.) de descripciones textuales para enriquecer los metadatos.
- Anonimización y privacidad: cuando los datos abiertos contienen información que podría afectar a la privacidad, la anonimización se convierte en una tarea crítica, pero, en ocasiones, costosa. La Inteligencia Artificial puede contribuir a que la anonimización sea mucho más robusta y a minimizar riesgos relacionados con la re-identificación al combinar diferentes conjuntos de datos.
Evaluación de sesgos: la IA puede analizar los propios conjuntos de datos abiertos para detectar sesgos de representación o históricos. Esto permite a los publicadores tomar medidas para corregirlos o, al menos, advertir a los usuarios sobre su presencia para que sean tenidos en cuenta cuando vayan a reutilizarse. En definitiva, la inteligencia artificial no debe verse solo como “consumidora” de datos abiertos, sino también como una aliada estratégica para mejorar su calidad. Cuando se integra con estándares, procesos y supervisión humana, la IA ayuda a detectar y explicar incidencias, a documentar mejor los conjuntos y a publicar evidencias de calidad que refuerzan la confianza. Tal y como se describe en la Estrategia de Inteligencia Artificial 2024, esa sinergia libera más valor público: facilita la innovación, permite decisiones mejor informadas y consolida un ecosistema de datos abiertos más robusto y fiable con unos datos abiertos más útiles, más confiables y con mayor impacto social.
Además, se activa un ciclo virtuoso: datos abiertos de mayor calidad entrenan modelos más útiles y seguros; y modelos más capaces facilitan seguir elevando la calidad de los datos. De este modo la gestión del dato deja de ser una tarea estática de publicación y se convierte en un proceso dinámico de mejora continua.
Contenido elaborado por Jose Luis Marín, Senior Consultant in Data, Strategy, Innovation & Digitalization. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.
En un mundo donde la inmediatez cobra cada vez más importancia, el comercio predictivo se ha convertido en una herramienta clave para anticipar comportamientos de consumo, optimizar decisiones y ofrecer experiencias personalizadas. Ya no se trata solo de reaccionar ante las necesidades del cliente, sino de predecir lo que quiere incluso antes de que lo sepa.
En este artículo vamos a explicar qué es el comercio predictivo y la importancia de los datos abiertos en ello, incluyendo ejemplos reales.
¿Qué es el comercio predictivo?
El comercio predictivo es una estrategia basada en el análisis de datos para anticipar las decisiones de compra de los consumidores. Utiliza algoritmos de inteligencia artificial y modelos estadísticos para identificar patrones de comportamiento, preferencias y momentos clave en el ciclo de consumo. Gracias a ello, las empresas pueden conocer información relevante sobre qué productos serán más demandados, cuándo y dónde se realizará una compra o qué clientes tienen mayor probabilidad de adquirir una determinada marca.
Esto es de gran importancia en un mercado como el actual, donde existe una saturación de productos y competencia. El comercio predictivo permite a las empresas ajustar inventarios, precios, campañas de marketing o la logística en tiempo real, convirtiéndose en una gran ventaja competitiva.
El papel de los datos abiertos en el comercio predictivo
Estos modelos se alimentan de grandes volúmenes de datos: históricos de compra, navegación web, ubicación o comentarios en redes sociales, entre otros. Pero cuanto más precisos y diversos sean los datos, más afinadas serán las predicciones. Aquí es donde los datos abiertos juegan un papel fundamental, ya que permiten añadir nuevas variables a tener en cuenta a la hora de definir el comportamiento del consumidor. Entre otras cuestiones, los datos abiertos pueden ayudarnos a:
- Enriquecer modelos de predicción con información externa como datos demográficos, movilidad urbana o indicadores económicos.
- Detectar patrones regionales que influyen en el consumo, como, por ejemplo, el impacto del clima en la venta de ciertos productos estacionales.
- Diseñar estrategias más inclusivas al incorporar datos públicos sobre hábitos y necesidades de distintos grupos sociales.
La siguiente tabla muestra ejemplos de conjuntos de datos disponibles en datos.gob.es que pueden servir para estas tareas, a nivel nacional, aunque muchas comunidades autónomas y ayuntamientos también publican este tipo de datos junto a otros también de interés.
Conjunto de datos | Ejemplo | Posible uso |
---|---|---|
Padrón municipal por edad y sexo | Instituto Nacional de Estadística (INE) | Segmenta poblaciones por territorio, edad y género. Es útil para personalizar campañas en base a la población mayoritaria de cada municipio o prever la demanda por perfil demográfico. |
Encuesta de presupuestos familiares | Instituto Nacional de Estadística (INE) | Ofrece información sobre el gasto medio por hogar en diferentes categorías. Puede ayudar a anticipar patrones de consumo por nivel socioeconómico. |
Índice de precio de consumo (IPC) | Instituto Nacional de Estadística (INE) | Desagrega el IPC por territorio, midiendo cómo varían los precios de bienes y servicios en cada provincia española. Tiene utilidad para ajustar precios y estrategias de penetración de mercado. |
Avisos meteorológicos en tiempo real | Ministerio para la Transición Ecológica y Reto Demográfico | Alerta de fenómenos meteorológicos adversos. Permite correlacionar clima con ventas de productos (ropa, bebidas, calefacción, etc.). |
Estadísticas de educación y alfabetización digital | Instituto Nacional de Estadística (INE) | Ofrece información sobre el uso de Internet en los últimos 3 meses. Permite identificar brechas digitales y adaptar las estrategias de comunicación o formación. |
Datos sobre estancias turísticas | Instituto Nacional de Estadística (INE) | Informa sobre la estancia media de turistas por comunidades autónomas. Ayuda a anticipar demanda en zonas con alta afluencia estacional, como productos locales o servicios turísticos. |
Número de recetas y gasto farmacéutico | Mutualidad General de Funcionarios Civiles del Estado (MUFACE) | Ofrece información del consumo de medicamentos por provincia y subgrupos de edad. Facilita la estimación de ventas de otros productos sanitarios y de parafarmacia relacionados al estimar cuántos usuarios irán a la farmacia. |
Figura 1. Tabla comparativa. Fuente: elaboración propia -datos.gob.es.
Casos de uso reales
Desde hace años, ya encontramos empresas que están utilizando este tipo de datos para optimizar sus estrategias comerciales. Veamos algunos ejemplos:
- Uso de datos meteorológicos para optimizar el stock en grandes supermercados
Los grandes almacenes Walmart utilizan algoritmos de IA que incorporan datos meteorológicos (como olas de calor, tormentas o cambios de temperatura) junto a datos históricos de ventas, eventos y tendencias digitales, para prever la demanda a nivel granular y optimizar inventarios. Esto permite ajustar automáticamente el reabastecimiento de productos críticos según patrones climáticos anticipados. Además, Walmart menciona que su sistema considera “datos futuros” como patrones climáticos macro (“macroweather”), tendencias económicas y demografía local para anticipar la demanda y posibles interrupciones en la cadena de suministro.
La firma Tesco también utiliza datos meteorológicos públicos en sus modelos predictivos. Esto le permite anticipar patrones de compra, como que por cada aumento de 10°C en la temperatura, las ventas de barbacoa se incrementan hasta en un 300%. Además, Tesco recibe pronósticos meteorológicos locales hasta tres veces al día, conectándolos con datos sobre 18 millones de productos y el tipo de clientes de cada tienda. Esta información se comparte con sus proveedores para ajustar los envíos y mejorar la eficiencia logística.
- Uso de datos demográficos para decidir la ubicación de locales
Desde hace años Starbucks ha recurrido a la analítica predictiva para planificar su expansión. La compañía utiliza plataformas de inteligencia geoespacial, desarrolladas con tecnología GIS, para combinar múltiples fuentes de información —entre ellas datos abiertos demográficos y socioeconómicos como la densidad de población, el nivel de ingresos, los patrones de movilidad, el transporte público o la tipología de negocios cercanos— junto con históricos de ventas propias. Gracias a esta integración, puede predecir qué ubicaciones tienen mayor potencial de éxito, evitando la competencia entre locales y asegurando que cada nueva tienda se sitúe en el entorno más adecuado.
Domino's Pizza también utilizó modelos similares para analizar si la apertura de un nuevo local en un barrio de Londres tendría éxito y cómo afectaría a otras ubicaciones cercanas, considerando patrones de compra y características demográficas locales.
Este enfoque permite predecir flujos de clientes y maximizar la rentabilidad mediante decisiones de localización más informadas.
- Datos socioeconómicos para fijar precios en base a la demografía
Un ejemplo interesante lo encontramos en SDG Group, consultora internacional especializada en analítica avanzada para retail. La compañía ha desarrollado soluciones que permiten ajustar precios y promociones teniendo en cuenta las características demográficas y socioeconómicas de cada zona -como la base de consumidores, la ubicación o el tamaño del punto de venta-. Gracias a estos modelos es posible estimar la elasticidad de la demanda y diseñar estrategias de precios dinámicos adaptados al contexto real de cada área, optimizando tanto la rentabilidad como la experiencia de compra.
El futuro del comercio predictivo
El auge del comercio predictivo se ha visto impulsado por el avance de la inteligencia artificial y la disponibilidad de datos, tanto abiertos como privados. Desde la elección del lugar ideal para abrir una tienda hasta la gestión eficiente de inventarios, los datos públicos combinados con analítica avanzada permiten anticipar comportamientos y necesidades de los consumidores con una precisión cada vez mayor.
No obstante, aún quedan retos importantes por afrontar: la heterogeneidad de las fuentes de datos, que en muchos casos carecen de estándares comunes; la necesidad de contar con tecnologías e infraestructuras sólidas que permitan integrar la información abierta con los sistemas internos de las empresas; y, por último, el desafío de garantizar un uso ético y transparente, que respete la privacidad de las personas y evite la generación de sesgos en los modelos.
Superar estos retos será clave para que el comercio predictivo despliegue todo su potencial y se convierta en una herramienta estratégica para empresas de todos los tamaños. En este camino, los datos abiertos jugarán un papel fundamental como motor de innovación, transparencia y competitividad en el comercio del futuro.
La iniciativa de datos abiertos de España, datos.gob.es, se renueva para ofrecer una experiencia más accesible, intuitiva y eficiente. El cambio responde al afán de mejorar el acceso a los datos y facilitar su uso por parte de ciudadanos, investigadores, empresas y administraciones. Con un diseño actualizado y nuevas funcionalidades, la plataforma continuará actuando como punto de encuentro entre todos aquellos que busquen innovar en base a los datos.
Foco en conjuntos de datos de alto valor y servicios web
La nueva web refuerza su eje central, el Catálogo Nacional de datos abiertos, un punto de acceso a cerca de 100.000 conjuntos de datos, que agrupan más de 500.000 ficheros, y que la Administración Pública española pone a disposición de empresas, investigadores y ciudadanos para su reutilización. En él se pueden encontrar datasets publicados por organismos de la Administración General del Estado, autonómicos, locales, universidades, etc.
Uno de los avances más relevantes es la mejora en las posibilidades que tienen los publicadores de datos para describir de forma más precisa y estructurada las colecciones de datos que desean poner a disposición del público. Una descripción más detallada de las fuentes revierte en mayor facilidad de los usuarios a la hora de localizar datos de su interés.
En concreto, la plataforma incorpora un nuevo modelo de metadatos alineado con las últimas versiones de los estándares europeos, el perfil de aplicación nacional DCAT-AP-ES, que adapta directrices del esquema europeo de intercambio de metadatos DCAT-AP (Data Catalog Vocabulary – Aplication Profile). Este perfil mejora la interoperabilidad a nivel nacional y europeo, facilita el cumplimiento con las normativas comunitarias, favorece la federación de catálogos y a la localización de datasets, y contribuye a mejorar la calidad de los metadatos mediante mecanismos de validación, entre otras ventajas.
Además, la nueva versión de datos.gob.es introduce importantes mejoras en la vista del Catálogo, destacando los conjuntos de datos de alto valor (high value data o HVD en inglés) y los datos ofrecidos a través de servicios web. Para mejorar su identificación, se han añadido símbolos distintivos que permiten diferenciar los tipos de recursos de un solo vistazo.

Asimismo, se ha ampliado el número de metadatos documentados, los cuales se muestran a los usuarios a través de una estructura más clara. Ahora los metadatos proporcionados por los organismos publicadores se pueden categorizan en información general, ficha técnica, contacto y aspectos relativos a la calidad. Esta nueva organización proporciona a los usuarios una visión más completa y accesible de cada conjunto de datos.

También cabe destacar que se ha optimizado el proceso de solicitud de datos para ofrecer una experiencia más intuitiva y fluida.
Una nueva arquitectura de la información para mejorar la usabilidad
La nueva plataforma de datos.gob.es también ha adaptado su arquitectura de la información para hacerla más intuitiva y mejorar la navegación y el acceso a la información relevante. Los nuevos ajustes facilitan la localización de datasets y contenidos editoriales, a la vez que contribuyen a la accesibilidad, asegurando que todos los usuarios, independientemente de sus conocimientos técnicos o tipo de dispositivo, puedan interactuar con la web sin dificultades.
Entre otras cuestiones, se ha simplificado el menú, agrupando la información en cinco grandes secciones:
- Datos: incluye el acceso al Catálogo Nacional, junto con los formularios para solicitar nuevos datos a publicar como abiertos. En esta sección también se puede encontrar información sobre espacios de datos y sobre entornos seguros, junto con un apartado de recursos para el apoyo a los publicadores.
- Comunidad: pensada para conocer más sobre las iniciativas de datos abiertos de España e inspirarse con ejemplos de reutilización a través de diversos casos de uso, organizados en empresas y aplicaciones. Cabe destacar que el mapa de iniciativas ha sido actualizado con fichas revisadas y mejoradas, con la opción de filtrar por la categoría de datos que se ofrecen, facilitando su consulta. En esta sección también encontramos información sobre los desafíos y la subsección de sectores, que se ha ampliado considerablemente, incorporando todos los definidos por la Norma Técnica de Interoperabilidad de Reutilización de Recursos de Información, lo que permite una visión más completa tanto de los datos como de su potencial de uso según cada ámbito.
- Actualidad: los usuarios podrán estar al día de las novedades del ecosistema de datos a través de noticias e información sobre eventos relacionados con la materia.
- Conocimiento: una de las principales novedades de la nueva plataforma es que se han unificado todos los recursos que buscan promover la innovación basada en datos en un único epígrafe, facilitando su organización. A través de esta sección, los usuarios podrán acceder a: artículos del blog, realizados por expertos en diversos campos (ciencia de datos, gobierno del dato, aspectos legales, etc.), donde se explican y analizan tendencias del sector; ejercicios de datos para aprender paso a paso a procesar y trabajar con los datos; infografías que resumen de forma gráfica casos de uso o conceptos complejos; entrevistas con expertos tanto en formato pódcast, como en vídeo o escritas; y guías e informes, dirigidas tanto a publicadores como reutilizadores de datos. También se incluye el enlace al repositorio de GitHub, cuya visibilidad se ha reforzado con el fin de promover el acceso y la colaboración de la comunidad de datos en el desarrollo de herramientas y recursos abiertos.
- Sobre nosotros: además de la información sobre el proyecto, preguntas frecuentes, contacto, tecnología de la plataforma, etc. en esta sección se puede acceder al nuevo cuadro de mando, que ahora proporciona métricas más detalladas sobre el catálogo, los contenidos y las acciones de divulgación.
La nueva versión de datos.gob.es también introduce mejoras clave en la forma de localizar contenidos y datasets. La plataforma se ha optimizado con una búsqueda inteligente, que permite una búsqueda guiada y un mayor número de filtros, lo que facilita encontrar información de forma más rápida y precisa.
Mejora de las funcionalidades internas
La nueva versión de datos.gob.es también trae consigo mejoras internas que facilitarán la gestión para los publicadores de datos, optimizando procesos. La parte privada a la que acceden los organismos ha sido renovada para ofrecer una interfaz más intuitiva y funcional. Se ha rediseñado la consola para agilizar la gestión y administración de datos, permitiendo un control más eficiente y estructurado.
Además, el gestor de contenidos ha sido actualizado a su última versión, lo que garantiza un mejor rendimiento.
Estas mejoras refuerzan el compromiso de datos.gob.es con la evolución continua y la optimización de su plataforma, asegurando un entorno más accesible y eficiente para todos los actores involucrados en la publicación y gestión de datos abiertos. La nueva plataforma no solo mejora la experiencia de usuario, sino que también impulsa la reutilización de datos en múltiples sectores.
¡Te invitamos a explorar las novedades y aprovechar los beneficios de los datos como motor de la innovación!
La participación ciudadana en la recopilación de datos científicos impulsa una ciencia más democrática, al involucrar a la sociedad en los procesos de I+D+i y reforzar la rendición de cuentas. En este sentido, existen diversidad de iniciativas de ciencia ciudadana puestas en marcha por entidades como CSIC, CENEAM o CREAF, entre otras. Además, actualmente, existen numerosas plataformas de plataformas de ciencia ciudadana que ayudan a cualquier persona a encontrar, unirse y contribuir a una gran diversidad de iniciativas alrededor del mundo, como por ejemplo SciStarter.
Algunas referencias en legislación nacional y europea
Diferentes normativas, tanto a nivel nacional como a nivel europeo, destacan la importancia de promover proyectos de ciencia ciudadana como componente fundamental de la ciencia abierta. Por ejemplo, la Ley Orgánica 2/2023, de 22 de marzo, del Sistema Universitario, establece que las universidades promoverán la ciencia ciudadana como un instrumento clave para generar conocimiento compartido y responder a retos sociales, buscando no solo fortalecer el vínculo entre ciencia y sociedad, sino también contribuir a un desarrollo territorial más equitativo, inclusivo y sostenible.
Por otro lado, la Ley 14/2011, de 1 de junio, de la Ciencia, la Tecnología y la Innovación, promueve “la participación de la ciudadanía en el proceso científico técnico a través, entre otros mecanismos, de la definición de agendas de investigación, la observación, recopilación y procesamiento de datos, la evaluación de impacto en la selección de proyectos y la monitorización de resultados, y otros procesos de participación ciudadana”.
A nivel europeo, el Reglamento (UE) 2021/695 que establece el Programa Marco de Investigación e Innovación “Horizonte Europa”, indica la oportunidad de desarrollar proyectos codiseñados con la ciudadanía, avalando la ciencia ciudadana como mecanismo de investigación y vía de difusión de resultados.
Iniciativas de ciencia ciudadana y planes de gestión de datos
El primer paso para definir una iniciativa de ciencia ciudadana suele ser establecer una pregunta de investigación que necesite de una recopilación de datos que pueda abordarse con la colaboración de la ciudadanía. Después, se diseña un protocolo accesible para que los participantes recojan o analicen datos de forma sencilla y fiable (incluso podría ser un proceso gamificado). Se deben preparar materiales formativos y desarrollar un medio de participación (aplicación, web o incluso papel). También se planifica cómo comunicar avances y resultados a la ciudadanía, incentivando su participación.
Al tratarse de una actividad intensiva en la recolección de datos, es interesante que los proyectos de ciencia ciudadana dispongan de un plan de gestión de datos que defina el ciclo de vida del dato en proyectos de investigación, es decir cómo se crean, organizan, comparten, reutilizan y preservan los datos en iniciativas de ciencia ciudadana. Sin embargo, la mayoría de las iniciativas de ciencia ciudadana no dispone de este plan: en este reciente artículo de investigación se encontró que sólo disponían de plan de gestión de datos el 38% de proyectos de ciencia ciudadana consultados.
Figura 1. Ciclo de vida del dato en proyectos de ciencia ciudadana Fuente: elaboración propia – datos.gob.es.
Por otra parte, los datos procedentes de la ciencia ciudadana solo alcanzan todo su potencial cuando cumplen los principios FAIR y se publican en abierto. Con el fin de ayudar a tener este plan de gestión de datos que hagan que los datos procedentes de iniciativas de ciencia ciudadana sean FAIR, es preciso contar con estándares específicos para ciencia ciudadana como PPSR Core.
Datos abiertos para ciencia ciudadana con el estándar PPSR Core
La publicación de datos abiertos debe considerarse desde etapas tempranas de un proyecto de ciencia ciudadana, incorporando el estándar PPSR Core como pieza clave. Como mencionábamos anteriormente, cuando se formulan las preguntas de investigación, en una iniciativa de ciencia ciudadana, se debe plantear un plan de gestión de datos que indique qué datos recopilar, en qué formato y con qué metadatos, así como las necesidades de limpieza y aseguramiento de calidad a partir de los datos que recolecte la ciudadanía, además de un calendario de publicación.
Luego, se debe estandarizar con PPSR (Public Participation in Scientific Research) Core. PPSR Core es un conjunto de estándares de datos y metadatos, especialmente diseñados para fomentar la participación ciudadana en procesos de investigación científica. Posee una arquitectura de tres capas a partir de un Common Data Model (CDM). Este CDM ayuda a organizar de forma coherente y conectada la información sobre proyectos de ciencia ciudadana, los conjuntos de datos relacionados y las observaciones que forman parte de ellos, de tal manera que el CDM facilita la interoperabilidad entre plataformas de ciencia ciudadana y disciplinas científicas. Este modelo común se estructura en tres capas principales que permiten describir de forma estructurada y reutilizable los elementos clave de un proyecto de ciencia ciudadana. La primera es el Project Metadata Model (PMM), que recoge la información general del proyecto, como su objetivo, público participante, ubicación, duración, personas responsables, fuentes de financiación o enlaces relevantes. En segundo lugar, el Dataset Metadata Model (DMM) documenta cada conjunto de datos generado, detallando qué tipo de información se recopila, mediante qué método, en qué periodo, bajo qué licencia y con qué condiciones de acceso. Por último, el Observation Data Model (ODM) se centra en cada observación individual realizada por los participantes de la iniciativa de ciencia ciudadana, incluyendo la fecha y el lugar de la observación y el resultado. Es interesante resaltar que este modelo de capas de PPSR-Core permite añadir extensiones específicas según el ámbito científico, apoyándose en vocabularios existentes como Darwin Core (biodiversidad) o ISO 19156 (mediciones de sensores). (ODM) se centra en cada observación individual realizada por los participantes de la iniciativa de ciencia ciudadana, incluyendo la fecha y el lugar de la observación y el resultado. Es interesante resaltar que este modelo de capas de PPSR-Core permite añadir extensiones específicas según el ámbito científico, apoyándose en vocabularios existentes como Darwin Core (biodiversidad) o ISO 19156 (mediciones de sensores).
Figura 2. Arquitectura de capas de PPSR CORE. Fuente: elaboración propia – datos.gob.es.
Esta separación permite que una iniciativa de ciencia ciudadana pueda federar automáticamente la ficha del proyecto (PMM) con plataformas como SciStarter, compartir un conjunto de datos (DMM) con un repositorio institucional de datos abiertos científicos, como aquellos agregados en RECOLECTA del FECYT y, al mismo tiempo, enviar observaciones verificadas (ODM) a una plataforma como GBIF sin redefinir cada campo.
Además, el uso de PPSR Core aporta una serie de ventajas para la gestión de los datos de una iniciativa de ciencia ciudadana:
- Mayor interoperabilidad: plataformas como SciStarter ya intercambian metadatos usando PMM, por lo que se evita duplicar información.
- Agregación multidisciplinar: los perfiles del ODM permiten unir conjuntos de datos de dominios distintos (por ejemplo, calidad del aire y salud) alrededor de atributos comunes, algo crucial para estudios multidisciplinares.
- Alineamiento con principios FAIR: los campos obligatorios del DMM son útiles para que los conjuntos de datos de ciencia ciudadana cumplan los principios FAIR.
Cabe destacar que PPSR Core permite añadir contexto a los conjuntos de datos obtenidos en iniciativas de ciencia ciudadana. Es una buena práctica trasladar el contenido del PMM a lenguaje entendible por la ciudadanía, así como obtener un diccionario de datos a partir del DMM (descripción de cada campo y unidad) y los mecanismos de transformación de cada registro a partir del ODM. Finalmente, se puede destacar iniciativas para mejorar PPSR Core, por ejemplo, a través de un perfil de DCAT para ciencia ciudadana.
Conclusiones
Planificar la publicación de datos abiertos desde el inicio de un proyecto de ciencia ciudadana es clave para garantizar la calidad y la interoperabilidad de los datos generados, facilitar su reutilización y maximizar el impacto científico y social del proyecto. Para ello, PPSR Core ofrece un estándar basado en niveles (PMM, DMM, ODM) que conecta los datos generados por la ciencia ciudadana con diversas plataformas, potenciando que estos datos cumplan los principios FAIR y considerando, de manera integrada, diversas disciplinas científicas. Con PPSR Core cada observación ciudadana se convierte fácilmente en datos abiertos sobre el que la comunidad científica pueda seguir construyendo conocimiento para el beneficio de la sociedad.
Jose Norberto Mazón, Catedrático de Lenguajes y Sistemas Informáticos de la Universidad de Alicante. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.
¿Cuántas veces has tenido entre tus manos un conjunto de datos que necesitabas analizar, pero te has encontrado con errores, inconsistencias o problemas de formato que te han hecho perder horas de trabajo? La realidad es que, aunque cada día tenemos más datos disponibles, no siempre contamos con las herramientas o conocimientos necesarios para trabajar con ellos de manera eficiente.
Para abordar este proceso existen varias opciones. Una de ellas es Open Data Editor, una herramienta gratuita y de código abierto que Open Knowledge Foundation (OKFN) ha diseñado pensando en democratizar el acceso y la explotación de los datos.
Características principales y funcionalidades
Tal y como indican desde OKFN, esta aplicación está diseñada para personas que trabajan con datos tabulares (Excel, Google Sheets, CSV) y que no saben programar o no tienen acceso a herramientas técnicas especializadas. Su enfoque sin código la convierte en una alternativa accesible que se centra específicamente en la limpieza y validación de datos tabulares.
La herramienta implementa un proceso conocido como "validación de datos", que consiste en encontrar errores en conjuntos de datos y corregirlos de manera eficiente. Además, verifica que las hojas de cálculo o conjuntos de datos contengan toda la información necesaria para que otras personas puedan utilizarlos. Por lo tanto, también tiene en cuenta la interoperabilidad, un valor muy relevante en lo que respecta a la reutilización de datasets.
Más allá de garantizar la reutilización, Open Data Editor también vela por la privacidad y seguridad gracias a su arquitectura local, es decir, los datos permanecen en el dispositivo del usuario.
Proyectos piloto: impacto global y resultados tangibles
A pesar de que se trata de una herramienta muy intuitiva, la organización pone a disposición del usuario un curso online y gratuito para aprender a sacarle el máximo partido. Actualmente el curso está en inglés, pero la traducción al español estará disponible próximamente.
Además del curso principal, la Open Knowledge Foundation ha implementado un programa de “formación de formadores” que capacita a personas para que puedan impartir el curso localmente en diferentes regiones del mundo. En el marco de este programa de formación se están ejecutando proyectos piloto aplicados a diferentes sectores y comunidades. Estos proyectos piloto se han enfocado especialmente en incentivar el acceso a formación básica en herramientas de análisis de datos de calidad, algo que, OKFN considera que no debe estar limitado por barreras económicas o tecnológicas.
Los casos de uso documentados muestran aplicaciones diversas que van desde organizaciones de derechos humanos hasta instituciones gubernamentales locales, todas aprovechando las capacidades de validación y limpieza de datos que ofrece la herramienta. El enfoque educativo de Open Data Editor va más allá del simple uso de la herramienta: se trata de formar en open data y promover el conocimiento abierto y accesible.
Próximos pasos: integración de inteligencia artificial
Los resultados de esta primera fase han sido tan prometedores que la Open Knowledge Foundation ha decidido avanzar hacia una segunda etapa, esta vez incorporando tecnologías de inteligencia artificial para ampliar aún más las capacidades de la herramienta. La nueva versión, que ofrece asistencia de IA enfocada en validación y características que generen confianza, acaba de ser anunciada y lanzada.
La filosofía detrás de esta integración de IA es mantener el carácter educativo de la herramienta. En lugar de crear una "caja negra" que simplemente proporcione resultados, la nueva funcionalidad explicará cada paso que realiza la inteligencia artificial, permitiendo que los usuarios comprendan no solo qué se está haciendo con sus datos, sino también por qué se están tomando ciertas decisiones.
Esta aproximación transparente a la IA es especialmente importante en el contexto de datos abiertos y gubernamentales, tal y como explicamos en este episodio del pódcast de datos.gob.es. Los usuarios de Open Data Editor podrán ver cómo la IA identifica problemas potenciales, sugiere correcciones y valida la calidad de los datos, convirtiéndose en una herramienta de aprendizaje además de una utilidad práctica.
Impacto en el ecosistema open data
Esta nueva funcionalidad se sumará al propósito por ofrecer una herramienta sostenible y abierta. Es precisamente este compromiso con el código abierto lo que hace que Open Data Editor pueda ser adaptada y mejorada por la comunidad global de desarrolladores. Para ello, utilizan como base tecnológica el Framework Frictionless, que asegura que los estándares utilizados sean abiertos y ampliamente adoptados en el ecosistema de datos abiertos.
No hay duda de que la herramienta está especialmente alineada con los principios de datos abiertos gubernamentales, proporcionando a las Administraciones públicas una manera de mejorar la calidad de sus publicaciones de datos sin requerir inversiones significativas en infraestructura técnica o capacitación especializada. Para periodistas de datos y organizaciones de la sociedad civil, Open Data Editor ofrece la capacidad de trabajar con conjuntos de datos complejos de manera más eficiente, permitiendo que se concentren en el análisis y la interpretación en lugar de en la limpieza técnica de los datos.
En definitiva, más que una herramienta técnica, Open Data Editor simboliza un cambio paradigmático hacia la democratización del análisis de datos. Porque su impacto se extiende más allá de sus funcionalidades inmediatas, contribuyendo a un ecosistema más amplio de datos abiertos y accesibles.
El feminicidio, definido como el asesinato de mujeres por razones de género, sigue siendo una de las formas más extremas de violencia. En 2023, se estima que aproximadamente 85.000 mujeres y niñas fueron asesinadas en el mundo y de estas, el 60% murieron a manos de parejas íntimas o familiares, lo que equivale a 140 víctimas diarias en su entorno cercano. De acuerdo con la Organización de Naciones Unidas (ONU), el feminicidio se genera en un contexto de desigualdad, discriminación y relaciones de poder asimétricas entre hombres y mujeres.
No obstante, las cifras anteriores son una estimación, ya que la obtención de datos sobre esta materia no es sencilla y supone una serie de retos. En este artículo vamos a comentar esos desafíos, y presentar ejemplos y buenas prácticas de las asociaciones ciudadanas que trabajan por impulsar su calidad y cantidad.
Retos a la hora de recopilar datos sobre feminicidios
La comparación internacional sobre feminicidio enfrenta principalmente dos grandes asuntos: la ausencia de una definición común y la falta de estandarización.
-
Ausencia de definición común
Existen diferencias legales y conceptuales importantes entre los países en cuanto a la definición del feminicidio. En América Latina, muchos países han incorporado el feminicidio como delito específico, aunque con variaciones sustanciales en los criterios legales y en la amplitud de la definición. En contraste, en Europa no existe aún una definición homogénea de feminicidio, como subraya el Instituto Europeo de Igualdad de Género (EIGE). En muchos casos, los asesinatos de mujeres por motivos de género se registran como homicidios generales o violencia doméstica, lo que invisibiliza el fenómeno y dificulta la comparación internacional.
Esta ausencia de una definición legal y conceptual común impide la comparación directa de cifras, así como el análisis regional. Además, la falta de homogeneidad metodológica provoca que las cifras de feminicidio se diluyan entre las de homicidios generales, subestimando la magnitud real del problema y dificultando el diseño de políticas públicas efectivas.
En este sentido, es necesario un esfuerzo internacional por homologar definiciones. De esa forma se podrá dimensionar el verdadero alcance del problema y combatir de manera efectiva.
-
Falta de estandarización
La falta de estandarización en la recolección y publicación de datos genera profundas diferencias en la disponibilidad, apertura y calidad de la información entre países. Como en otros muchos ámbitos, los datos abiertos y estandarizados sobre feminicidios podrían ayudar a comprender el fenómeno y facilitar la implementación de políticas públicas efectivas. Sin embargo, hoy en día existe disparidad en la recogida y publicación de datos.
Actualmente, la disponibilidad de datos sobre feminicidio es desigual entre países. Nos encontramos casos en los que los datos hacen referencia a periodos diferentes, o que presentan variaciones debido a las diversas metodologías, definiciones y fuentes:
- Hay países que ofrecen datos accesibles a través de plataformas gubernamentales y/o observatorios oficiales. En estos casos, los datos provienen de organismos públicos como ministerios, institutos nacionales de estadística, observatorios de violencia de género y cortes supremas, lo que garantiza mayor fiabilidad y continuidad en la publicación de estadísticas, aunque su cobertura y metodología varían ampliamente.
- En otros casos, los datos son parciales o provienen de organizaciones no gubernamentales (ONG), observatorios independientes, redes periodísticas y académicas. Estos organismos suelen recurrir a recuentos hemerográficos o monitoreo de medios, para completar los datos institucionales. Organismos multilaterales como la Comisión Económica para América Latina y el Caribe (CEPAL), ONU Mujeres y las redes europeas de periodismo de datos intentan armonizar y comparar cifras, aunque reconocen las limitaciones derivadas de la diversidad de definiciones y metodologías.
Esta falta de un sistema unificado genera la necesidad de una triangulación de la información y produce discrepancias en las cifras reportadas. Además, dificulta obtener una visión más completa del fenómeno.
Por ello, es necesaria una estandarización en la recopilación de datos que permita contar con datos fiables y comparables para conocer la magnitud real del problema, evaluar la eficacia de las políticas públicas o diseñar estrategias de prevención efectivas.
A estos retos, habría que sumar:
- Falta de infraestructura tecnológica: sistemas judiciales y policiales desconectados generan duplicaciones u omisiones.
- Actualizaciones irregulares: muy pocos publican datos trimestrales, esenciales para políticas preventivas.
Ejemplos de iniciativas ciudadanas que recopilan datos de feminicidio
Con el fin de responder a problemática mundial, han surgido iniciativas ciudadanas y académicas que construyen bases de datos alternativas, visibilizando la violencia de género. Para ello, las organizaciones feministas y activistas han adoptado herramientas tecnológicas para rastrear feminicidios.
Un ejemplo es el Data Against Feminicide (DAF), que equipa a activistas con sistemas de alertas por correo electrónico basados en algoritmos de aprendizaje automático. La plataforma desarrolla algoritmos de machine learning que ayudan a escanear más de 50.000 fuentes diarias de noticias en varios idiomas para identificar posibles casos de feminicidio, priorizando las regiones de interés de las activistas y permitiendo que estas añadan fuentes locales. A diferencia de los sistemas genéricos, el enfoque de DAF es colaborativo: los participantes entrenan los algoritmos, revisan los resultados y corrigen sesgos, incluyendo la identificación de transfeminicidios o la interpretación de lenguaje sesgado en los medios. Así, la tecnología no reemplaza el análisis humano, sino que reduce la carga de trabajo y permite focalizar esfuerzos en la verificación y contextualización de los casos.
Aunque la transparencia y los datos abiertos son un primer paso, los proyectos ciudadanos como los apoyados por el DAF operan con criterios adicionales que enriquecen los resultados:
- Datos con memoria: cada registro incluye nombre, historia personal y contexto comunitario.
- Transparencia radical: utilizan metodologías y herramientas de código abierto.
- Justicia restaurativa: los datos alimentan campañas de incidencia y acompañamiento a familias.
Asimismo, el DAF destaca la necesidad de proteger y cuidar a las personas que recaban estos datos, dado el impacto emocional que implica su labor. Así, se visibiliza también la dimensión humana y ética del trabajo con datos sobre feminicidio.
Otro ejemplo es Feminicidio Uruguay, que ha documentado casos desde 2001 mediante monitoreo de prensa y colaboración con la Coordinadora de Feminismos. Sus hallazgos clave incluyen que el 78% de los agresores eran conocidos de la víctima; que el 42% de los feminicidios ocurrieron en el hogar, y que solo el 15% de las víctimas había realizado denuncia previa. Este proyecto inspiró la creación del Registro Nacional de Femicidios de la Justicia Argentina, que desde 2017 publica datos abiertos anuales con detalles de víctimas, agresores y contexto de los casos.
Además de las iniciativas por países, también encontramos iniciativas supranacionales que tratan de unificar datos en diversas regiones. Iniciativas como el Estándar Regional de Datos de Femicidios (ILDA) buscan superar estas barreras mediante:
- Protocolos unificados de recolección.
- Plataformas colaborativas de entrenamiento técnico.
- Alianzas intergubernamentales para validación jurídica.
El caso de España
Ante esta situación internacional, España se presenta como un caso pionero en la materia. Desde 2022, se contabilizan oficialmente todos los tipos de feminicidios, no solo los cometidos por parejas o exparejas, sino también los familiares, sexuales, sociales y vicarios. El principal portal español de datos estadísticos sobre feminicidio es el portal estadístico de la Delegación del Gobierno contra la Violencia de Género, disponible en una web dedicada. Este espacio reúne datos oficiales sobre feminicidios y violencia de género, permitiendo consultar, cruzar y descargar información en diferentes formatos, y es la referencia institucional para el seguimiento y análisis de estos crímenes en España. Esta nueva metodología responde al cumplimiento del Convenio de Estambul y busca reflejar la totalidad de la violencia extrema contra las mujeres.
La colaboración con la sociedad civil y personas expertas ha sido clave para definir tipologías y mejorar la calidad y apertura de los datos. El acceso ciudadano es amplio y los datos se difunden en informes, conjuntos de datos y boletines públicos.
Conclusión
En resumen, la apertura y estandarización de los datos sobre feminicidio no solo son herramientas técnicas, sino también actos de justicia y memoria colectiva. Allí donde los Estados colaboran con la sociedad civil, los datos resultan más completos, transparentes y útiles para la prevención y la rendición de cuentas. Sin embargo, la persistencia de vacíos y metodologías dispares en muchos países siguen dificultando una respuesta global efectiva ante el feminicidio. Superar estos retos requiere fortalecer la colaboración internacional, adoptar estándares comunes y garantizar la participación de quienes documentan y acompañan a las víctimas. Solo así los datos podrán transformar la indignación en acción y contribuir a erradicar una de las formas más extremas de violencia de género.
Contenido elaborado por Miren Gutiérrez, Doctora e investigadora en la Universidad de Deusto, experta en activismo de datos, justicia de datos, alfabetización de datos y desinformación de género. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor
Un año más, la Junta de Castilla y León ha lanzado su concurso de datos abiertos para premiar el uso innovador de la reutilización de la información pública.
En este post, te resumimos los detalles para participar en la IX edición de este evento, que es una oportunidad tanto para profesionales como para estudiantes, personas creativas o equipos multidisciplinares que deseen dar visibilidad a su talento a través de la reutilización de datos públicos.
¿En qué consiste la competición?
El objetivo del concurso es reconocer proyectos que utilicen conjuntos de datos abiertos de la Junta de Castilla y León. Estos datasets pueden combinarse, si así lo desean los participantes, con otras fuentes públicas o privadas, de cualquier nivel de la administración.
Los proyectos pueden presentarse en cuatro categorías:
- Categoría Ideas: orientada a personas o equipos que quieran presentar una propuesta para crear un servicio, estudio, aplicación, sitio web o cualquier otro tipo de desarrollo. No es necesario que el proyecto esté finalizado; lo importante es que la idea sea original, viable y tenga un impacto potencial positivo.
- Categoría Productos y Servicios: pensada para proyectos ya desarrollados y accesibles para la ciudadanía, como servicios online, aplicaciones móviles o sitios web. Todos los desarrollos deben estar disponibles a través de una URL pública. Esta categoría incluye un premio específico para estudiantes matriculados en enseñanzas oficiales durante los cursos lectivos 2024/2025 o 2025/2026.
- Categoría Recurso Didáctico: se dirige a proyectos educativos que utilicen datos abiertos como herramienta de apoyo en el aula. El objetivo es fomentar la enseñanza innovadora mediante recursos con licencia Creative Commons, que puedan ser compartidos y reutilizados por docentes y alumnado.
- Categoría Periodismo de Datos: premiará trabajos periodísticos publicados o actualizados de forma relevante, en formato escrito o audiovisual, que hagan uso de los datos abiertos para informar, contextualizar o analizar temas de interés para la ciudadanía. Las piezas periodísticas deberán haber sido publicadas en un medio de comunicación impreso o digital desde el día 24 de septiembre de 2024, día siguiente a la fecha de finalización del plazo de presentación de candidaturas de la convocatoria de premios inmediatamente anterior.
En todas las categorías, es imprescindible que se utilice al menos un conjunto de datos del portal de datos abiertos de la Junta de Castilla y León. Esta plataforma cuenta con centenares de datasets sobre diferentes sectores como medio ambiente, economía, sociedad, administración pública, cultura, educación, etc. que pueden aprovecharse como base para desarrollar ideas útiles, informativas y transformadoras.
¿Quién puede participar?
El concurso está abierto a cualquier persona física o jurídica, que se puede presentar de manera individual como en grupo. Además, puedes presentar más de una candidatura incluso para distintas categorías. Aunque un mismo proyecto no podrá recibir más de un premio, esta flexibilidad permite que una misma idea se explore desde diferentes enfoques: educativo, periodístico, técnico o conceptual.
¿Qué premios se otorgan?
La edición de 2025 del concurso contempla premios con dotación económica, diploma acreditativo y difusión institucional a través del portal de datos abiertos y otros canales de comunicación de la Junta.
El reparto y la cuantía de los premios por categoría es:
- Categoría Ideas
- Primer premio: 1.500 €
- Segundo premio: 500 €
- Categoría Productos y Servicios
- Primer premio: 2.500 €
- Segundo premio: 1.500 €
- Tercer premio: 500 €
- Premio especial estudiantes: 1.500 €
- Categoría Recurso Didáctico
- Primer premio: 1.500 €
- Categoría Periodismo de Datos
- Primer premio: 1.500 €
- Segundo premio: 1.000 €
¿Bajo qué criterios se otorgan los premios? El jurado valorará las candidaturas teniendo en cuenta diferentes criterios de valoración, conforme recogen las bases y la orden de convocatoria, entre los que se encuentran su originalidad, utilidad social, calidad técnica, viabilidad, impacto, valor económico y grado de innovación.
¿Cómo participar?
Como ya pasaba en otras ediciones, las candidaturas podrán presentarse de dos maneras:
- Presencial, en el Registro General de la Consejería de la Presidencia, en las oficinas de asistencia en materia de registros de la Junta de Castilla y León o en los lugares establecidos en el artículo 16.4 de la Ley 39/2015.
- Electrónica, a través de la sede electrónica de la Junta de Castilla y León
Cada solicitud debe incluir:
- Datos identificativos del autor o autores.
- Título del proyecto.
- Categoría o categorías a las que se presenta.
- Una memoria explicativa del proyecto, con una extensión máxima de 1.000 palabras, aportando toda aquella información que pueda ser valorada por el jurado conforme al baremo establecido.
- En el caso de presentar candidatura a la categoría Productos y Servicios, se especificará la URL de acceso al proyecto
La fecha límite para enviar propuestas es el 22 de septiembre de 2025
Con este certamen, la Junta de Castilla y León reafirma su compromiso con la política de datos abiertos y la cultura de la reutilización. El concurso no solo reconoce la creatividad, la innovación y la utilidad de los proyectos presentados, sino que también contribuye a divulgar el potencial transformador de los datos abiertos en áreas como la educación, el periodismo, la tecnología o el emprendimiento social.
En ediciones anteriores, se han premiado soluciones para mejorar la movilidad, mapas interactivos sobre incendios forestales, herramientas para el análisis del gasto público o recursos educativos sobre el medio rural, entre muchos otros ejemplos. Puedes leer más sobre las propuestas ganadoras del año pasado y otras, en nuestro portal. Además, todos estos proyectos pueden consultarse en el histórico de ganadores disponible en el portal open data de la comunidad.
¡Te animamos a participar en el concurso y sacar el máximo provecho a los datos abiertos de Castilla y León!
Durante los últimos años hemos visto avances espectaculares en el uso de la inteligencia artificial (IA) y, detrás de todos estos logros, siempre encontraremos un mismo ingrediente común: los datos. Un ejemplo ilustrativo y conocido por todo el mundo es el de los modelos de lenguaje utilizados por OpenAI para su famoso ChatGPT, como por ejemplo GPT-3, uno de sus primeros modelos que fue entrenado con más de 45 terabytes de datos, convenientemente organizados y estructurados para que resultaran de utilidad.
Sin suficiente disponibilidad de datos de calidad y convenientemente preparados, incluso los algoritmos más avanzados no servirán de mucho, ni a nivel social ni económico. De hecho, Gartner estima que más del 40% de los proyectos emergentes de agentes de IA en la actualidad terminarán siendo abandonados a medio plazo debido a la falta de datos adecuados y otros problemas de calidad. Por tanto, el esfuerzo invertido en estandarizar, limpiar y documentar los datos puede marcar la diferencia entre una iniciativa de IA exitosa y un experimento fallido. En resumen, el clásico principio de “basura entra, basura sale” en la ingeniería informática aplicado esta vez a la inteligencia artificial: si alimentamos una IA con datos de baja calidad, sus resultados serán igualmente pobres y poco fiables.
Tomando consciencia de este problema surge el concepto de AI Data Readiness o preparación de los datos para ser usados por la inteligencia artificial. En este artículo exploraremos qué significa que los datos estén "listos para la IA", por qué es importante y qué necesitaremos para que los algoritmos de IA puedan aprovechar nuestros datos de forma eficaz. Esto revierta en un mayor valor social, favoreciendo la eliminación de sesgos y el impulso de la equidad.
¿Qué implica que los datos estén "listos para la IA"?
Tener datos listos para la IA (AI-ready) significa que estos datos cumplen una serie de requisitos técnicos, estructurales y de calidad que optimizan su aprovechamiento por parte de los algoritmos de inteligencia artificial. Esto incluye múltiples aspectos como la completitud de los datos, la ausencia de errores e inconsistencias, el uso de formatos adecuados, metadatos y estructuras homogéneas, así como proporcionar el contexto necesario para poder verificar que estén alineados con el uso que la IA les dará.
Preparar datos para la IA suele requerir de un proceso en varias etapas. Por ejemplo, de nuevo la consultora Gartner recomienda seguir los siguientes pasos:
- Evaluar las necesidades de datos según el caso de uso: identificar qué datos son relevantes para el problema que queremos resolver con la IA (el tipo de datos, volumen necesario, nivel de detalle, etc.), entendiendo que esta evaluación puede ser un proceso iterativo que se refine a medida que el proyecto de IA avanza.
- Alinear las áreas de negocio y conseguir el apoyo directivo: presentar los requisitos de datos a los responsables según las necesidades detectadas y lograr su respaldo, asegurando así los recursos requeridos para preparar los datos adecuadamente.
- Desarrollar buenas prácticas de gobernanza de los datos: implementar políticas y herramientas de gestión de datos adecuadas (calidad, catálogos, linaje de datos, seguridad, etc.) y asegurarnos de que incorporen también las necesidades de los proyectos de IA.
- Ampliar el ecosistema de datos: integrar nuevas fuentes de datos, romper potenciales barreras y silos que estén trabajando de forma aislada dentro de la organización y adaptar la infraestructura para poder manejar los grandes volúmenes y variedad de datos necesarios para el correcto funcionamiento de la IA.
- Garantizar la escalabilidad y cumplimiento normativo: asegurar que la gestión de datos pueda escalar a medida que crecen los proyectos de IA, manteniendo al mismo tiempo un marco de gobernanza sólido y acorde con los protocolos éticos necesarios y el cumplimiento de la normativa existente.
Si seguimos una estrategia similar a esta estaremos consiguiendo integrar los nuevos requisitos y necesidades de la IA en nuestras prácticas habituales de gobernanza del dato. En esencia, se trata simplemente de conseguir que nuestros datos estén preparados para alimentar modelos de IA con las mínimas fricciones posibles, evitando posibles contratiempos a posteriori durante el desarrollo de los proyectos.
Datos abiertos “preparados para IA”
En el ámbito de la ciencia abierta y los datos abiertos se han promovido desde hace años los principios FAIR. Estas siglas en inglés establecen que los datos deben localizables, accesibles, interoperables y reutilizables. Los principios FAIR han servido para guiar la gestión de datos científicos y datos abiertos para hacerlos más útiles y mejorar su uso por parte de la comunidad científica y la sociedad en general. Sin embargo, dichos principios no fueron diseñados para abordan las nuevas necesidades particulares asociadas al auge de la IA.
Se plantea por tanto en la actualidad la propuesta de extender los principios originales añadiendo un quinto principio de preparación (readiness) para la IA, pasando así del FAIR inicial a FAIR-R o FAIR². El objetivo sería precisamente el de hacer explícitos aquellos atributos adicionales que hacen que los datos estén listos para acelerar su uso responsable y transparente como herramienta necesaria para las aplicaciones de la IA de alto interés público.
¿Qué añadiría exactamente esta nueva R a los principios FAIR? En esencia, enfatiza algunos aspectos como:
- Etiquetado, anotado y enriquecimiento adecuado de los datos.
- Transparencia sobre el origen, linaje y tratamiento de los datos.
- Estándares, metadatos, esquemas y formatos óptimos para su uso por parte de la IA.
- Cobertura y calidad suficientes para evitar sesgos o falta de representatividad.
En el contexto de los datos abiertos, esta discusión es especialmente relevante dentro del discurso de la "cuarta ola" del movimiento de apertura de datos, a través del cual se argumenta que si los gobiernos, universidades y otras instituciones liberan sus datos, pero estos no se encuentran en las condiciones óptimas para poder alimentar a los algoritmos, se estaría perdiendo una oportunidad única para todo un nuevo universo de innovación e impacto social: mejoras en los diagnósticos médicos, detección de brotes epidemiológicos, optimización del tráfico urbano y de las rutas de transporte, maximización del rendimiento de las cosechas o prevención de la deforestación son sólo algunos ejemplos de las posibles oportunidades perdidas.
Además, de no ser así, podríamos entrar también en un largo “invierno de los datos”, en el que las aplicaciones positivas de la IA se vean limitadas por conjuntos de datos de mala calidad, inaccesibles o llenos de sesgos. En ese escenario, la promesa de una IA por el bien común se quedaría congelada, incapaz de evolucionar por falta de materia prima adecuada, mientras que las aplicaciones de la IA lideradas por iniciativas con intereses privados continuarían avanzando y aumentando el acceso desigual al beneficio proporcionado por las tecnologías.
Conclusión: el camino hacia IA de calidad, inclusiva y con verdadero valor social
En la era de la inteligencia artificial, los datos son tan importantes como los algoritmos. Tener datos bien preparados y compartidos de forma abierta para que todos puedan utilizarlos, puede marcar la diferencia entre una IA que aporta valor social y una que tan sólo es capaz de producir resultados sesgados.
Nunca podemos dar por sentada la calidad ni la idoneidad de los datos para las nuevas aplicaciones de la IA: hay que seguir evaluándolos, trabajándolos y llevando a cabo una gobernanza de estos de forma rigurosa y efectiva del mismo modo que se venía recomendado para otras aplicaciones. Lograr que nuestros datos estén listos para la IA no es por tanto una tarea trivial, pero los beneficios a largo plazo son claros: algoritmos más precisos, reducir sesgos indeseados, aumentar la transparencia de la IA y extender sus beneficios a más ámbitos de forma equitativa.
Por el contrario, ignorar la preparación de los datos conlleva un alto riesgo de proyectos de IA fallidos, conclusiones erróneas o exclusión de quienes no tienen acceso a datos de calidad. Abordar las asignaturas pendientes sobre cómo preparar y compartir datos de forma responsable es esencial para desbloquear todo el potencial de la innovación impulsada por IA en favor del bien común. Si los datos de calidad son la base para la promesa de una IA más humana y equitativa, asegurémonos de construir una base suficientemente sólida para poder alcanzar nuestro objetivo.
En este camino hacia una inteligencia artificial más inclusiva, alimentada por datos de calidad y con verdadero valor social, la Unión Europea también está avanzando con pasos firmes. A través de iniciativas como su estrategia de la Data Union, la creación de espacios comunes de datos en sectores clave como salud, movilidad o agricultura, y el impulso del llamado AI Continent y las AI factories, Europa busca construir una infraestructura digital donde los datos estén gobernados de forma responsable, sean interoperables y estén preparados para ser utilizados por sistemas de IA en beneficio del bien común. Esta visión no solo promueve una mayor soberanía digital, sino que refuerza el principio de que los datos públicos deben servir para desarrollar tecnologías al servicio de las personas y no al revés.
Content prepared by Carlos Iglesias, Open data Researcher and consultant, World Wide Web Foundation. The contents and views reflected in this publication are the sole responsibility of the author.