“Voy a subirte un fichero CSV. Quiero que lo analices y me resumas las conclusiones más relevantes que puedas extraer de los datos”. Hace unos años, el análisis de datos era territorio de quien sabía escribir código y utilizar entornos técnicos complejos, y una petición así habría requerido programación o habilidades avanzadas de Excel. Hoy, poder analizar en poco tiempo ficheros de datos con herramientas de IA nos aporta una gran autonomía profesional. Formular preguntas, contrastar ideas preliminares y explorar de primera mano la información cambia nuestra relación con el conocimiento, sobre todo, porque dejamos de depender de intermediarios para obtener respuestas. Ganar la capacidad de analizar datos con IA de manera independiente acelera los procesos, pero también puede provocarnos un exceso de confianza en las conclusiones.
A partir del ejemplo de un fichero de datos en bruto, vamos a revisar posibilidades, precauciones y pautas básicas para explorar la información sin asumir conclusiones demasiado rápido.
El fichero:
Para mostrar un ejemplo de análisis de datos con IA utilizaremos un fichero del Instituto Nacional de Estadística (INE) que recoge información sobre flujos turísticos en Europa, en concreto sobre ocupación en alojamientos de turismo rural. El fichero de datos contiene información desde enero de 2001 hasta diciembre de 2025. Contiene desagregaciones por sexo, edad y comunidad o ciudad autónoma, lo que permite realizar análisis comparativos a lo largo del tiempo. En el momento de escribir este artículo, la última actualización de este conjunto de datos fue el 28 de enero de 2026.

Figura 1. Información del dataset. Fuente: Instituto Nacional de Estadística (INE).
1. Exploración inicial
Para esta primera exploración vamos a utilizar una versión gratuita de Claude, el chat multitarea basado en IA desarrollado por Anthropic. Es uno de los modelos de lenguaje más avanzados en benchmarks de razonamiento y análisis, lo que lo hace especialmente adecuado para este ejercicio, y es la opción más utilizada actualmente por la comunidad para realizar tareas que requieren código.
Pensemos que nos enfrentamos al fichero de datos por primera vez. Sabemos a grandes rasgos qué contiene, pero desconocemos la estructura de la información. Nuestro primer prompt, por tanto, debería centrarse en describirla:
PROMPT: Quiero trabajar con un fichero de datos sobre ocupación en alojamientos de turismo rural. Explícame qué estructura tiene el fichero: qué variables contiene, qué mide cada una y qué posibles relaciones existen entre ellas. Señala también posibles valores ausentes o elementos que requieran aclaración.

Figura 2. Exploración inicial del fichero de datos con Claude. Fuente: Claude.
Una vez que Claude nos ha dado la idea general y la explicación de las variables, es buena práctica abrir el fichero y hacer una comprobación rápida. El objetivo es evaluar que, como mínimo, el número de filas, el número de columnas, los nombres de las variables, el período temporal y el tipo de datos coinciden con lo que nos ha dicho el modelo.
Si detectamos algún error en este punto, el LLM puede no estar leyendo correctamente los datos. Si después de intentarlo en otra conversación el error persiste, es señal de que hay algo en el fichero que dificulta su lectura automática. En este caso, lo más recomendable es no proseguir con el análisis, ya que las conclusiones serán muy aparentes, pero estarán basadas en datos mal interpretados.
2. Gestión de anomalías
En segundo lugar, si hemos descubierto anomalías, lo habitual es documentarlas y decidir cómo manejarlas antes de seguir con el análisis. Podemos pedir al modelo que nos sugiera qué hacer, pero las decisiones finales serán nuestras. Por ejemplo:
- Valores faltantes: si hay celdas vacías, tenemos que decidir si rellenarlas con un valor “promedio” de la columna o simplemente eliminar esas filas.
- Duplicados: tenemos que eliminar filas repetidas o que no aportan información nueva.
- Errores de formato o inconsistencias: debemos corregirlos para que las variables sean coherentes y comparables. Por ejemplo, fechas representadas en distintos formatos.
- Outliers: si aparece un número que no tiene sentido o es exageradamente distinto del resto, tenemos que decidir si corregirlo, ignorarlo o tratarlo tal y como está.

Figura 3. Ejemplo de análisis de valores faltantes con Claude. Fuente: Claude.
En el caso de nuestro fichero, por ejemplo, hemos detectado que en Ceuta y Melilla los valores ausentes en la variable Total son estructurales, no hay turismo rural registrado en esas ciudades, por lo que podríamos excluirlas del análisis.
Antes de tomar la decisión, una buena práctica en este punto es pedir al LLM los pros y contras de la modificación en los datos. Su respuesta puede darnos alguna pista de cuál es la mejor opción, o indicarnos algún inconveniente que no habíamos tenido en cuenta.

Figura 4. Análisis de Claude sobre la posibilidad de eliminar o no valores. Fuente: Claude.
Si decidimos seguir adelante y excluir las ciudades de Ceuta y Melilla del análisis, Claude puede ayudarnos a efectuar esta modificación directamente sobre el fichero. El prompt sería el siguiente:
PROMPT: Elimina del fichero todas las filas correspondientes a Ceuta y Melilla, de manera que el resto de los datos se mantenga intacto. Explica también los pasos que estás siguiendo para que pueda revisarlos.

Figura 5. Paso a paso en la modificación de datos en Claude. Fuente: Claude.
En este punto, Claude nos ofrece descargar de nuevo el fichero modificado, así que una buena práctica de comprobación sería validar de forma manual que la operación se hizo bien. Por ejemplo, revisar el número de filas en un fichero y otro o cotejar algunas filas al azar con el primer fichero para asegurarnos de que los datos no se han corrompido.
3. Primeras preguntas y visualizaciones
Si el resultado hasta aquí es satisfactorio, ya podemos empezar a explorar los datos para hacernos preguntas iniciales y buscar patrones interesantes. Lo ideal al empezar la exploración es hacer preguntas grandes, claras y fáciles de responder con los datos, porque nos dan una primera visión.
PROMPT: Trabaja con el fichero sin Ceuta y Melilla a partir de ahora. ¿Cuáles han sido las cinco comunidades con más turismo rural en el período total?

Figura 6. Respuesta de Claude a las cinco comunidades con más turismo rural en el período. Fuente: Claude.
Por último, podemos pedirle a Claude que nos ayude a visualizar los datos. En lugar de hacer el esfuerzo de indicarle un tipo de gráfico concreto, le damos libertad para elegir el formato que mejor muestre la información.
PROMPT: ¿Puedes visualizar esta información en un gráfico? Elige el formato más adecuado para representar los datos.

Figura 7. Gráfico elaborado por Cloude para representar la información. Fuente: Claude.
Aquí, la pantalla se desdobla: a la izquierda, podemos continuar con la conversación o descargar el fichero, mientras que a la derecha podemos visualizar el gráfico directamente. Claude ha generado una gráfica de barras horizontales muy visual y lista para usar. Los colores diferencian las comunidades y se indica correctamente el período y el tipo de datos.
¿Qué ocurre si le pedimos cambiar la paleta de color del gráfico por una inadecuada? En este caso, por ejemplo, vamos a pedirle una serie de tonos pastel que apenas se diferencian.
PROMPT: ¿Puedes cambiar la paleta de colores del gráfico por esta otra? #E8D1C5, #EDDCD2, #FFF1E6, #F0EFEB, #EEDDD3

Figura 8. Ajustes realizados en el gráfico por Claude para representar la información. Fuente: Claude.
Ante el reto, Claude ajusta por sí mismo el gráfico de manera inteligente, oscurece el fondo y cambia el texto de las etiquetas para mantener legibilidad y contraste.
Todo el ejercicio anterior se ha realizado con Claude Sonnet 4.6, que no es el modelo de mayor calidad de Anthropic. Sus versiones superiores, como Claude Opus 4.6, tienen mayor capacidad de razonamiento, comprensión profunda y resultados más finos. Además, existen muchas otras herramientas para trabajar con datos y visualizaciones basadas en IA, como Julius o Quadratic. Aunque en ellas las posibilidades son casi infinitas, cuando trabajamos con datos sigue siendo fundamental mantener una metodología y un criterio propios.
Contextualizar en la vida real los datos que estamos analizando y conectarlos con otros conocimientos no es una tarea que se pueda delegar; necesitamos tener una mínima idea previa de qué queremos conseguir con el análisis para poder transmitirla al sistema. Esto nos permitirá hacer mejores preguntas, interpretar adecuadamente los resultados y por tanto hacer un prompting más eficaz.
Contenido elaborado por Carmen Torrijos, experta en IA aplicada al lenguaje y la comunicación. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.
Cada año, la organización internacional en defensa del conocimiento abierto Open Knowledge Foundation (OKFN) organiza el Día de los datos abiertos (Open Data Day u ODD), una iniciativa marco en la que se llevarán a cabo actividades por todo el mundo para demostrar el valor que generan los datos abiertos. Es un punto de encuentro para administraciones públicas, sociedad civil, universidades, empresas tecnológicas y ciudadanía interesada en la reutilización de la información pública. Es, sobre todo, una invitación a pasar de la teoría a la práctica: abrir datos, reutilizarlos y convertirlos en soluciones concretas.
Desde datos.gob.es, portal nacional de datos abiertos, nos sumamos a esta celebración recopilando también otras actividades que ponen el dato y las tecnologías relacionadas en el centro. En este post repasamos algunos eventos que se celebrarán durante este mes de marzo. ¡Toma nota y apunta en la agenda!
Datos contra la desinformación: celebra el Open Data Day con Iniciativa Open Data Barcelona
Este encuentro forma parte de las actividades organizadas en España con motivo del Open Data Day 2026, y está centrado en el papel de los datos abiertos como herramienta para reforzar la calidad de la información pública y combatir la desinformación. En el evento se dará visibilidad a proyectos que utilizan datos abiertos para promover una democracia más transparente, fomentar una participación ciudadana informada y contribuir al desarrollo de inteligencia artificial responsable basada en datos fiables.
- ¿Cuándo? El martes 10 de marzo a las 17.30h
- ¿Dónde? Ca l'Alier C/ de Pere IV, 362 en Barcelona
- Más información
El futuro del Open Data: aniversario de OKFN
Con motivo del Open Data Day 2026, la Open Knowledge Foundation (OKFN) organiza una conferencia online para reunir a la comunidad de datos abiertos y celebrar dos décadas de CKAN, la herramienta surgida del trabajo de OKFN que hoy impulsa portales de datos en todo el mundo. El encuentro permitirá debatir sobre el papel actual de los datos abiertos y las infraestructuras de datos frente a los desafíos técnicos y políticos contemporáneos. Está dirigido a profesionales de gobiernos, sociedad civil, medios de comunicación, colectivos activistas y todas las personas interesadas en reflexionar sobre el futuro de los datos abiertos en un contexto tecnológico en rápida transformación, marcado especialmente por la irrupción de herramientas de inteligencia artificial.
- ¿Cuándo? El miércoles 11 de marzo de 11h a 16h
- ¿Dónde? Online
- Más información
El dato como bien público: webinar europeo
Organizado por la data.europa.eu academy en el marco del Open Data Day, este seminario web aborda cómo los datos abiertos pueden actuar como un bien público para mejorar la toma de decisiones en todos los territorios, especialmente en zonas rurales. A través de casos prácticos del Reino Unido e Irlanda, la sesión mostrará cómo la información abierta permite identificar necesidades locales, reducir desigualdades territoriales y diseñar políticas públicas basadas en evidencia que garanticen un acceso más equitativo a servicios esenciales.
- ¿Cuándo? El viernes 13 de marzo de 10h a 11.30h
- ¿Dónde? Evento online
- Más información
Solid World: innovación en la compartición y reutilización de datos científicos
En este evento se explorará cómo modelar, analizar y compartir datos de investigación usando tecnologías del ecosistema Solid*. La sesión contará con representantes de W3C y Open Data Institute para presentar el proyecto SpOTy, una aplicación web para organizar y analizar datos lingüísticos que ha migrado de RDF a Solid para dar a los investigadores mayor control sobre la compartición de sus datos, abordando además retos de interoperabilidad y reutilización responsable de información científica.
*El ecosistema Solid es un conjunto de tecnologías, estándares y herramientas que permiten a las personas y organizaciones controlar sus propios datos en la web y decidir cómo, cuándo y con quién se comparten.
- ¿Cuándo? El lunes 23 de marzo de 17h a 18h
- ¿Dónde? Evento online
- Más información
Cómo preparar los portales públicos para la era de la IA
La decimotercera edición del ciclo Data Centric AI, organizado por el Open Data Institute (ODI), explorará cómo deben evolucionar los portales de datos públicos para adaptarse a nuevas formas de interacción con los conjuntos de datos. Se abordará la transformación de infraestructuras como data.gov.uk, los planes para la National Data Library y el papel de la investigación académica en el diseño de nuevas arquitecturas de datos públicos, combinando preparación para la inteligencia artificial con un enfoque centrado en las personas usuarias y reflexionando sobre el contexto social que rodea a los datos y la IA.
- ¿Cuándo? El jueves 26 de marzo de 17h a 18h
- ¿Dónde? Evento online
- Más información
Eventos online sobre datos abiertos en diferentes sectores con Open Data Week
La Open Data Week es un festival anual de eventos que se celebra cada mes de marzo en Nueva York y que está organizado por el equipo de NYC Open Data junto con BetaNYC y Data Through Design. La semana conmemora el aniversario de la primera ley de datos abiertos de la ciudad, firmada el 7 de marzo de 2012, y coincide además con el Open Data Day, reforzando su conexión con el movimiento internacional de datos abiertos. Algunas de las actividades programadas serán en formato virtual.
- ¿Cuándo? Del 22 al 29 de marzo
- ¿Dónde? Algunos eventos se podrán seguir en streaming
- Más información
Claves sobre ética de datos para organizaciones
Esta sesión del ciclo Data Ethics Professionals organizado por ODI se centrará en las principales lecciones aprendidas por organizaciones que han iniciado procesos de integración de la ética del dato en sus estructuras y flujos de trabajo. El seminario abordará retos habituales como la obtención de apoyo directivo, la incorporación práctica de herramientas y marcos éticos, y la gestión de cargas de trabajo en procesos de transformación organizativa.
- ¿Cuándo? El lunes 30 de marzo de 14h a 15h
- ¿Dónde? Online
- Más información
En definitiva, el calendario de las próximas semanas ofrece múltiples oportunidades para profundizar en el valor estratégico de los datos abiertos y de las tecnologías asociadas. Desde iniciativas locales contra la desinformación hasta espacios de datos sectoriales y seminarios europeos sobre el dato como bien público, el ecosistema continúa creciendo y diversificándose. Te animamos a participar, compartir estas convocatorias y trasladar los aprendizajes a tu organización. Porque el Open Data Day es solo el punto de partida: la verdadera transformación se construye durante todo el año, conectando comunidad, conocimiento y acción a través de los datos abiertos.
Estos son algunos de los eventos que están agendados para este mes de marzo. De todas formas, no olvides seguirnos en redes sociales para no perderte ninguna novedad sobre innovación y datos abiertos. Estamos en X y LinkedIn nos puedes escribir si necesitas información extra.
La Comisión Europea ha presentado recientemente el documento en el que se establece una nueva Estrategia de la Unión en el ámbito de los datos. Entre otros ambiciosos objetivos, con esta iniciativa se pretende hacer frente a un reto trascendental en la era de la inteligencia artificial generativa: la insuficiente disponibilidad de datos en las condiciones adecuadas.
Desde la anterior Estrategia de 2020 hemos asistido a un importante avance normativo con el que se pretendía ir más allá de la regulación de 2019 sobre datos abiertos y reutilización de la información del sector público.
En concreto, por una parte, la Data Governance Act sirvió para impulsar una serie de medidas que tendían a facilitar el uso de los datos generados por el sector público en aquellos supuestos donde se vieran afectados otros derechos e intereses jurídicos —datos personales, propiedad intelectual.
Por otra, a través de la Data Act se avanzó, sobre todo, en la línea de impulsar el acceso a datos en poder de sujetos privados atendiendo a las singularidades del entorno digital.
El necesario cambio de enfoque en la regulación sobre acceso a datos.
A pesar de este importante esfuerzo regulatorio, por parte de la Comisión Europea se ha detectado una infrautilización de los datos que, además, con frecuencia se encuentran fragmentados en cuanto a las condiciones de su accesibilidad. Ello se debe, en gran parte, a la existencia de una importante diversidad regulatoria. Por ello se requieren medidas que faciliten la simplificación y la racionalización del marco normativo europeo sobre datos.
En concreto, se ha constatado que existe una fragmentación regulatoria que genera inseguridad jurídica y costes de cumplimiento desproporcionados debido a la complejidad del propio marco normativo aplicable. En concreto, el solapamiento entre el Reglamento General de Protección de Datos (RGPD), la Data Governance Act, la Data Act, la Directiva de datos abiertos y, asimismo, la existencia de regulaciones sectoriales específicas para algunos ámbitos concretos ha generado un complejo entramado normativo al que resulta arduo enfrentarse, sobre todo si pensamos en la competitividad de pequeñas y medianas empresas. Cada una de estas normas fue concebida para hacer frente a retos específicos que fueron abordados de manera sucesiva, por lo que resulta necesaria una visión de conjunto más coherente que resuelva posibles incoherencias y, en última instancia, facilite su aplicación práctica.
En este sentido, la Estrategia propone impulsar un nuevo instrumento legislativo —la propuesta de Reglamento denominado Ómnibus Digital—, con el que se pretende consolidar en una única norma las reglas relativas al mercado único europeo en el ámbito de los datos. En concreto, con esta iniciativa:
- Se fusionan las previsiones de la Data Governance Act en la regulación de la Data Act, eliminando así duplicidades.
- Se deroga el Reglamento sobre datos no personales, cuyas funciones se cubren igualmente a través de la Data Act;
- Se integran las normas sobre datos del sector público en la Data Act, ya que hasta ahora estaban incluidas tanto en la Directiva de 2019 como en la Data Governance Act.
Con esta regulación se consolida, por tanto, el protagonismo de la Data Act como normal general de referencia en la materia. Asimismo, se refuerza la claridad y la precisión de sus previsiones, con el objetivo de facilitar su función como instrumento normativo principal a través del cual se pretende impulsar la accesibilidad de los datos en el mercado digital europeo.
Modificaciones en materia de protección de datos personales
La propuesta Ómnibus Digital también incluye importantes novedades por lo que se refiere a la normativa sobre protección de datos de carácter personal, modificándose varios preceptos del Reglamento (UE) 1016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales.
Para que se puedan utilizar los datos personales —esto es, cualquier información referida a una persona física identificada o identificable— es necesario que concurra alguna de las circunstancias a que se refiere el artículo 6 del citado Reglamento, entre las que se encuentra el consentimiento del titular o la existencia de un interés legítimo por parte de quien vaya a tratar los datos.
El interés legítimo permite tratar datos personales cuando es necesario para un fin válido (mejorar un servicio, prevenir fraudes, etc.) y no afecta negativamente a los derechos de la persona.
Fuente: Guía sobre interés legítimo. ISMS Forum y Data Privacy Institute. Disponible aquí: guiaintereslegitimo1637794373.pdf
Respecto a la posibilidad de acudir al interés legítimo como base jurídica para entrenar las herramientas de inteligencia artificial, la actual regulación permite tratar datos personales siempre que no prevalezcan los derechos de los interesados titulares de dichos datos.
Sin embargo, dada la generalidad del concepto “interés legítimo”, a la hora de decidir cuándo se pueden utilizar los datos personales al amparo de esta cláusula no siempre existirá una certeza absoluta, habrá que analizar caso por caso: en concreto, será necesario llevar a cabo una actividad de ponderación de los bienes jurídicos en conflicto y, por tanto, su aplicación puede generar dudas razonables en muchos supuestos.
Aunque el Comité Europeo de Protección de Datos ha intentado establecer algunas pautas para concretar la aplicación del interés legítimo, lo cierto es que el uso de conceptos jurídicos abiertos e indeterminados no siempre permitirá llegar a respuestas claras y definitivas. Para facilitar la concreción de esta expresión en cada supuesto, la Estrategia alude como criterio a tener en cuenta el beneficio potencial que puede suponer el tratamiento para el propio titular de los datos y para la sociedad en general. Asimismo, dado que no será necesario el consentimiento del titular de los datos —y por tanto, no sería aplicable su revocación—, refuerza el derecho de oposición por parte del titular a que sus datos sean tratados y, sobre todo, garantiza una mayor transparencia respecto de las condiciones en que se van a tratar los datos. De este modo, al reforzar la posición jurídica del titular y aludir a dicho beneficio potencial, la Estrategia pretende facilitar la utilización del interés legítimo como base jurídica que permita utilizar los datos personales sin consentimiento del titular, pero con garantías adecuadas.
Otra de las principales medidas en materia de protección de datos se refiere a la distinción entre datos anónimos y seudonimizados. El RGPD define la seudonimización como un tratamiento de datos que, hasta ahora, hacía que ya no pudieran atribuirse a un interesado sin recurrir a información adicional, que se encuentra separada. Eso sí, los datos seudonimizados siguen siendo datos personales y, por tanto, sometidos a dicha regulación. En cambio, los datos anónimos no guardan relación con personas identificadas o identificables y, por tanto, su uso no estaría sometido al RGPD. En consecuencia, para saber si hablamos de datos anónimos o seudonimizados resulta esencial concretar si existe una “probabilidad razonable” de identificación del titular de los datos.
Ahora bien, las tecnologías actualmente disponibles multiplican el riesgo de reidentificación del titular de los datos, lo que afecta directamente a lo que podría considerarse razonable, generando una incertidumbre que incide negativamente en la innovación tecnológica. Por esta razón, la propuesta Ómnibus Digital, en la línea ya manifestada por el Tribunal de Justicia de la Unión Europea, pretende establecer las condiciones en las cuales los datos seudonimizados ya no se podrían considerar datos de carácter personal, facilitando así su uso. A tal efecto habilita a la Comisión Europea para que, a través de actos de implementación, pueda concretar tales circunstancias, en concreto teniendo en cuenta el estado de la técnica y, asimismo, ofreciendo criterios que permitan evaluar el riesgo de reidentificación en cada concreto supuesto.
La ampliación de los conjuntos de datos de alto valor
La Estrategia pretende también ampliar el catálogo de Datos de Alto Valor (HVD) que se contemplan en el Reglamento de Ejecución UE 2023/138. Se trata de conjuntos de datos con potencial excepcional para generar beneficios sociales, económicos y ambientales, ya que son datos de alta calidad, estructurados y fiables que están accesibles en condiciones técnicas, organizativas y semánticas muy favorables para su tratamiento automatizado. Actualmente se incluyen seis categorías (geoespacial, observación de la Tierra y medio ambiente, meteorología, estadística, empresas y movilidad), a las que se añadirían por parte de la Comisión, entre otros conjuntos, datos legales, judiciales y administrativos.
Oportunidad y reto
La Estrategia Europea de Datos representa un giro paradigmático ciertamente relevante: no sólo se trata de promover marcos normativos que faciliten en el plano teórico la accesibilidad de los datos sino, sobre todo, de hacerlos funcionar en su aplicación práctica, impulsando de esta manera las condiciones necesarias de seguridad jurídica que permitan dinamizar una economía de datos competitiva e innovadora.
Para ello resulta imprescindible, por una parte, evaluar la incidencia real de las medidas que se proponen a través del Ómnibus Digital y, por otra, ofrecer a las pequeñas y medianas empresas instrumentos jurídicos adecuados —guías prácticas, servicios de asesoramiento idóneos, cláusulas contractuales tipo…— para hacer frente al reto que para ellas supone el cumplimiento normativo en un contexto de enorme complejidad. Precisamente, esta dificultad requiere, por parte de las autoridades de control y, en general, de las entidades públicas, adoptar modelos de gobernanza de los datos avanzados y flexibles que se adapten a las singularidades que plantea la inteligencia artificial, sin que por ello se vean afectadas las garantías jurídicas.
Contenido elaborado por Julián Valero, catedrático de la Universidad de Murcia y Coordinador del Grupo de Investigación “Innovación, Derecho y Tecnología” (iDerTec). Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autorR
¿Sabías que España creó en 2023 la primera agencia estatal dedicada específicamente a la supervisión de la inteligencia artificial (IA)? Anticipándose incluso al Reglamento Europeo en esta materia, la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) nació con el objetivo de garantizar el uso ético y seguro de la IA, fomentando un desarrollo tecnológico responsable.
Entre sus principales funciones está asegurar que tanto entidades públicas como privadas cumplan con la normativa vigente. Para ello promueve buenas prácticas y asesora sobre el cumplimiento del marco regulatorio europeo, motivo por el cual recientemente ha publicado una serie de guías para asegurar la aplicación consistente de la regulación europea de IA.
En este post profundizaremos en qué es la AESIA y conoceremos detalles relevantes del contenido de las guías.
¿Qué es la AESIA y por qué es clave para el ecosistema de datos?
La AESIA nace en el marco del Eje 3 de la Estrategia Española de IA. Su creación responde a la necesidad de contar con una autoridad independiente que no solo supervise, sino que oriente el despliegue de sistemas algorítmicos en nuestra sociedad.
A diferencia de otros organismos puramente sancionadores, la AESIA está diseñada como un Think & Do Tank de inteligencia, es decir, una organización que investiga y propone soluciones. Su utilidad práctica se divide en tres vertientes:
- Seguridad jurídica: proporciona marcos claros para que las empresas, especialmente las pymes, sepan a qué atenerse al innovar.
- Referente internacional: actúa como el interlocutor español ante la Comisión Europea, asegurando que la voz de nuestro ecosistema tecnológico sea escuchada en la elaboración de estándares europeos.
- Confianza ciudadana: garantiza que los sistemas de IA utilizados en servicios públicos o áreas críticas respeten los derechos fundamentales, evitando sesgos y promoviendo la transparencia.
Desde datos.gob.es, siempre hemos defendido que el valor de los datos reside en su calidad y accesibilidad. La AESIA complementa esta visión asegurando que, una vez que los datos se transforman en modelos de IA, su uso sea responsable. Por ello, estas guías son una extensión natural de los recursos que publicamos habitualmente sobre gobernanza y apertura de datos.
Recursos para el uso de la IA: guías y checklist
La AESIA ha publicado recientemente unos materiales de apoyo a la implementación y el cumplimiento de la normativa europea de Inteligencia Artificial y sus obligaciones aplicables. Aunque no tienen carácter vinculante ni sustituyen ni desarrollan la normativa vigente, proporcionan recomendaciones prácticas alineadas con los requisitos regulatorios a la espera de que se aprueben las normas armonizadas de aplicación para todos los Estados miembros.
Son el resultado directo del piloto español de Sandbox Regulatorio de IA. Este entorno de pruebas permitió a desarrolladores y autoridades colaborar en un espacio controlado para entender cómo aplicar la normativa europea en casos de uso reales.
Es fundamental destacar que estos documentos se publican sin perjuicio de las guías técnicas que la Comisión Europea está elaborando. De hecho, España está sirviendo de "laboratorio" para Europa: las lecciones aprendidas aquí proporcionarán una base sólida al grupo de trabajo de la Comisión, asegurando una aplicación consistente de la regulación en todos los Estados miembros.
Las guías están diseñadas para ser una hoja de ruta completa, desde la concepción del sistema hasta su vigilancia una vez está en el mercado.

Figura 1. Guías de AESIA para cumplir con la regulación. Fuente: Agencia Española de la Supervisión de la IA
- 01. Introductoria al Reglamento de IA: ofrece una visión general sobre las obligaciones, los plazos de aplicación y los roles (proveedores, desplegadores, etc.). Es el punto de partida esencial para cualquier organización que desarrolle o despliegue sistemas de IA.
- 02. Práctica y ejemplos: aterriza los conceptos jurídicos en casos de uso cotidianos (por ejemplo, ¿es mi sistema de selección de personal una IA de alto riesgo?). Incluye árboles de decisión y un glosario de términos clave del artículo 3 del Reglamento, ayudando a determinar si un sistema específico está regulado, qué nivel de riesgo tiene y qué obligaciones son aplicables.
- 03. Evaluación de conformidad: explica los pasos técnicos necesarios para obtener el "sello" que permite comercializar un sistema de IA de alto riesgo, detallando los dos procedimientos posibles según los Anexos VI y VII del Reglamento como valuación basada en control interno o evaluación con intervención de organismo notificado.
- 04. Sistema de gestión de la calidad: define cómo las organizaciones deben estructurar sus procesos internos para mantener estándares constantes. Abarca la estrategia de cumplimiento regulatorio, técnicas y procedimientos de diseño, sistemas de examen y validación, entre otros.
- 05. Gestión de riesgos: es un manual sobre cómo identificar, evaluar y mitigar posibles impactos negativos del sistema durante todo su ciclo de vida.
- 06. Vigilancia humana: detalla los mecanismos para que las decisiones de la IA sean siempre supervisables por personas, evitando la "caja negra" tecnológica. Establece principios como comprensión de capacidades y limitaciones, interpretación de resultados, autoridad para no usar el sistema o anular decisiones.
- 07. Datos y gobernanza de datos: aborda las prácticas necesarias para entrenar, validar y testear modelos de IA asegurando que los conjuntos de datos sean relevantes, representativos, exactos y completos. Cubre procesos de gestión de datos (diseño, recogida, análisis, etiquetado, almacenamiento, etc.), detección y mitigación de sesgos, cumplimiento del Reglamento General de Protección de Datos, linaje de datos y documentación de hipótesis de diseño, siendo de especial interés para la comunidad de datos abiertos y científicos de datos.
- 08. Transparencia: establece cómo informar al usuario de que está interactuando con una IA y cómo explicar el razonamiento detrás de un resultado algorítmico.
- 09. Precisión: define métricas apropiadas según el tipo de sistema para garantizar que el modelo de IA cumple su objetivo.
- 10. Solidez: proporciona orientación técnica sobre cómo garantizar que los sistemas de IA funcionan de manera fiable y consistente en condiciones variables.
- 11. Ciberseguridad: instruye sobre protección contra amenazas específicas del ámbito de IA.
- 12. Registros: define las medidas para cumplir con las obligaciones de registro automático de eventos.
- 13. Vigilancia poscomercialización: documenta los procesos para ejecutar el plan de vigilancia, documentación y análisis de datos sobre el rendimiento del sistema durante toda su vida útil.
- 14. Gestión de incidentes: describe el procedimiento para notificar incidentes graves a las autoridades competentes.
- 15. Documentación técnica: establece la estructura completa que debe incluir la documentación técnica (proceso de desarrollo, datos de entrenamiento/validación/prueba, gestión de riesgos aplicada, rendimiento y métricas, supervisión humana, etc.).
- 16. Manual de checklist de Guías de requisitos: explica cómo utilizar las 13 checklists de autodiagnóstico que permiten realizar evaluación del cumplimiento, identificar brechas, diseñar planes de adaptación y priorizar acciones de mejora.
Todas las guías están disponibles aquí y tienen una estructura modular que se adapta a diferentes niveles de conocimiento y necesidades empresariales.
La herramienta de autodiagnóstico y sus ventajas
En paralelo, la AESIA publica un material que facilita la traducción de requisitos abstractos en preguntas concretas y verificables, proporcionando una herramienta práctica para la evaluación continua del grado de cumplimiento.
Se trata de listas de verificación que permiten a una entidad evaluar su nivel de cumplimiento de forma autónoma.
La utilización de estas checklists proporciona múltiples beneficios a las organizaciones. En primer lugar, facilitan la identificación temprana de brechas de cumplimiento, permitiendo a las organizaciones tomar medidas correctivas antes de la comercialización o puesta en servicio del sistema. También promueven un enfoque sistemático y estructurado del cumplimiento normativo. Al seguir la estructura de los artículos del Reglamento, garantizan que ningún requisito esencial quede sin evaluar.
Por otro lado, facilitan la comunicación entre equipos técnicos, jurídicos y de gestión, proporcionando un lenguaje común y una referencia compartida para discutir el cumplimiento normativo. Y, por último, las checklists sirven como base documental para demostrar la debida diligencia ante las autoridades supervisoras.
Debemos entender que estos documentos no son estáticos. Están sujetos a un proceso permanente de evaluación y revisión. En este sentido, la AESIA continúa desarrollando su capacidad operativa y ampliando sus herramientas de apoyo al cumplimiento.
Desde la plataforma de datos abiertos del Gobierno de España, te invitamos a explorar estos recursos. El desarrollo de la IA debe ir de la mano con datos bien gobernados y supervisión ética.
Durante más de una década, las plataformas de datos abiertos han medido su impacto a través de indicadores relativamente estables: número de descargas, visitas a la web, reutilizaciones documentadas, aplicaciones o servicios creados en base a ellos, etc. Estos indicadores funcionaban bien en un ecosistema donde los usuarios - empresas, periodistas, desarrolladores, ciudadanos anónimos, etc. - accedían directamente a las fuentes originales para consultar, descargar y procesar los datos.
Sin embargo, el panorama ha cambiado radicalmente. La irrupción de los modelos de inteligencia artificial generativa ha transformado la forma en que las personas acceden a la información. Estos sistemas generan respuestas sin necesidad de que el usuario visite la fuente original, lo que está provocando una caída global del tráfico web en medios, blogs y portales de conocimiento.
En este nuevo contexto, medir el impacto de una plataforma de datos abiertos exige repensar los indicadores tradicionales para incorporar a las métricas ya utilizadas otras nuevas que capturen también la visibilidad e influencia de los datos en un ecosistema donde la interacción humana está cambiando.
Un cambio estructural: del clic a la consulta indirecta
El ecosistema web está experimentando una transformación profunda impulsada por el auge de los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés). Cada vez más personas formulan sus preguntas directamente a sistemas como ChatGPT, Copilot, Gemini o Perplexity, obteniendo respuestas inmediatas y contextualizadas sin necesidad de recurrir a un buscador tradicional.
Al mismo tiempo, quienes continúan utilizando motores de búsqueda como Google o Bing también experimentan cambios relevantes derivados de la integración de la inteligencia artificial en estas plataformas. Google, por ejemplo, ha incorporado funciones como AI Overviews, que ofrece resúmenes generados automáticamente en la parte superior de los resultados, o el Modo IA, una interfaz conversacional que permite profundizar en una consulta sin navegar por enlaces. Esto genera un fenómeno conocido como Zero-Click: el usuario realiza una búsqueda en un motor como Google y obtiene la respuesta directamente en la propia página de resultados. En consecuencia, no tiene necesidad de hacer clic en ningún enlace externo, lo cual limita las visitas a las fuentes originales de las que está extraída la información.
Todo ello implica una consecuencia clave: el tráfico web deja de ser un indicador fiable de impacto. Una página web puede estar siendo extremadamente influyente en la generación de conocimiento sin que ello se traduzca en visitas.

Figura 1. Métricas para medir el impacto de los datos abiertos en la era de la IA. Fuente: elaboración propia.
Nuevas métricas para medir el impacto
Ante esta situación, las plataformas de datos abiertos necesitan nuevas métricas que capturen su presencia en este nuevo ecosistema. A continuación, se recogen algunas de ellas.
-
Share of Model (SOM): presencia en los modelos de IA
Inspirado en métricas del marketing digital, el Share of Model mide con qué frecuencia los modelos de IA mencionan, citan o utilizan datos procedentes de una fuente concreta. De esta forma, el SOM ayuda a ver qué conjuntos de datos concretos (empleo, clima, transporte, presupuestos, etc.) son utilizados por los modelos para responder preguntas reales de los usuarios, revelando qué datos tienen mayor impacto.
Esta métrica resulta especialmente valiosa porque actúa como un indicador de confianza algorítmica: cuando un modelo menciona una página web, está reconociendo su fiabilidad como fuente. Además, contribuye a aumentar la visibilidad indirecta, ya que el nombre de la web aparece en la respuesta incluso cuando el usuario no llega a hacer clic.
-
Análisis de sentimiento: tono de las menciones en IA
El análisis de sentimiento permite ir un paso más allá del Share of Model, ya que no solo identifica si un modelo de IA menciona una marca o dominio, sino cómo lo hace. Habitualmente, esta métrica clasifica el tono de la mención en tres categorías principales: positivo, neutro y negativo.
Aplicado al ámbito de los datos abiertos, este análisis ayuda a comprender la percepción algorítmica de una plataforma o conjunto de datos. Por ejemplo, permite detectar si un modelo utiliza una fuente como ejemplo de buenas prácticas, si la menciona de forma neutral como parte de una respuesta informativa o si la asocia a problemas, errores o datos desactualizados.
Esta información puede resultar útil para identificar oportunidades de mejora, reforzar la reputación digital o detectar posibles sesgos en los modelos de IA que afecten a la visibilidad de una plataforma de datos abiertos.
-
Categorización de prompts: en qué temas destaca una marca
Analizar las preguntas que hacen los usuarios permite identificar en qué tipos de consultas aparece con mayor frecuencia una marca. Esta métrica ayuda a entender en qué áreas temáticas -como economía, salud, transporte, educación o clima- los modelos consideran más relevante una fuente.
Para las plataformas de datos abiertos, esta información revela qué conjuntos de datos están siendo utilizados para responder preguntas reales de los usuarios y en qué dominios existe mayor visibilidad o potencial de crecimiento. También permite detectar oportunidades: si una iniciativa de datos abiertos quiere posicionarse en nuevas áreas, puede evaluar qué tipo de contenido falta o qué conjuntos de datos podrían reforzarse para aumentar su presencia en esas categorías.
-
Tráfico procedente de IA: clics desde resúmenes generados
Muchos modelos ya incluyen enlaces a las fuentes originales. Aunque muchos usuarios no hacen clic en dichos enlaces, algunos sí lo hacen. Por ello, las plataformas pueden empezar a medir:
- Visitas procedentes de plataformas de IA (cuando estas incluyen enlaces).
- Clics desde resúmenes enriquecidos en buscadores que integran IA.
Esto supone un cambio en la distribución del tráfico que llega a las webs desde los distintos canales. Mientras el tráfico orgánico —el que proviene de los motores de búsqueda tradicionales— está disminuyendo, empieza a crecer el tráfico referido desde los modelos de lenguaje.
Este tráfico será menor en cantidad que el tradicional, pero más cualificado, ya que quien hace clic desde una IA suele tener una intención clara de profundizar.
Es importante que se tengan en cuenta estos aspectos a la hora de fijar objetivos de crecimiento en una plataforma de datos abiertos.
-
Reutilización algorítmica: uso de datos en modelos y aplicaciones
Los datos abiertos alimentan modelos de IA, sistemas predictivos y aplicaciones automatizadas. Conocer qué fuentes se han utilizado para su entrenamiento sería también una forma de conocer su impacto. Sin embargo, pocas soluciones proporcionan de manera directa esta información. La Unión Europea está trabajando para promover la transparencia en este campo, con medidas como la plantilla para documentar los datos de entrenamiento de modelos de propósito general, pero su implantación -y la existencia de excepciones a su cumplimiento- hacen que el conocimiento sea aún limitado.
Medir el incremento de accesos a los datos mediante API podría dar una idea de su uso en aplicaciones para alimentar sistemas inteligentes. Sin embargo, el mayor potencial en este campo pasa por colaboración con empresas, universidades y desarrolladores inmersos en estos proyectos, para que ofrezcan una visión más realista del impacto.
Conclusión: medir lo que importa, no solo lo que es fácil de medir
La caída del tráfico web no significa una caída del impacto. Significa un cambio en la forma en que la información circula. Las plataformas de datos abiertos deben evolucionar hacia métricas que reflejen la visibilidad algorítmica, la reutilización automatizada y la integración en modelos de IA.
Esto no significa que las métricas tradicionales deban desaparecer. Conocer los accesos a la web, los conjuntos de datos más visitados o los más descargados sigue siendo una información de gran valor para conocer el impacto de los datos proporcionados a través de plataformas abiertas. Y también es fundamental monitorizar el uso de los datos a la hora de generar o enriquecer productos y servicios, incluidos los sistemas de inteligencia artificial. En la era de la IA, el éxito ya no se mide solo por cuántos usuarios visitan una plataforma, sino también por cuántos sistemas inteligentes dependen de su información y la visibilidad que ello otorga.
Por eso, integrar estas nuevas métricas junto a los indicadores tradicionales a través de una estrategia de analítica web y SEO * permite obtener una visión más completa del impacto real de los datos abiertos. Así podremos saber cómo circula nuestra información, cómo se reutiliza y qué papel juega en el ecosistema digital que hoy da forma a la sociedad.
*El SEO (Search Engine Optimization) es el conjunto de técnicas y estrategias destinadas a mejorar la visibilidad de un sitio web en los motores de búsqueda.
Las administraciones públicas y, en concreto, las entidades locales se encuentran en un momento crucial de transformación digital. El desarrollo acelerado de la inteligencia artificial (IA) plantea tanto oportunidades extraordinarias como desafíos complejos que requieren una adaptación estructurada, ética y fundamentada. En este contexto, la Federación Española de Municipios y Provincias (FEMP) ha lanzado la Guía Práctica y Políticas de Uso de la Inteligencia Artificial en las Entidades Locales, un documento de referencia que aspira a funcionar como brújula para ayuntamientos, diputaciones y demás entidades locales en su camino hacia la adopción responsable de esta tecnología que avanza a pasos agigantados.
La guía parte de una idea clave: la IA no es solo una cuestión tecnológica, sino organizativa, jurídica, ética y cultural. Su implantación exige planificación, gobernanza y una visión estratégica adaptada al tamaño y madurez digital de cada entidad local. En este post, veremos algunas claves relevantes del documento.
En este vídeo puedes volver a ver la sesión de presentación de la Guía.
La guía parte de una idea clave: la IA no es solo una cuestión tecnológica, sino organizativa, jurídica, ética y cultural. Su implantación exige planificación, gobernanza y una visión estratégica adaptada al tamaño y madurez digital de cada entidad local. En este post, veremos algunas claves relevantes del documento.
Por qué una guía sobre IA para las entidades locales
Las administraciones locales llevan años persiguiendo la mejora continua de los servicios públicos, pero a menudo se han visto limitadas por la falta de recursos tecnológicos, la rigidez organizativa o la fragmentación de los datos. La IA abre una oportunidad inédita para superar muchas de estas barreras, porque permite:
- Automatizar procesos.
- Analizar grandes volúmenes de información.
- Anticipar necesidades ciudadanas.
- Personalizar la atención pública.
Sin embargo, junto a estas oportunidades surgen riesgos evidentes: pérdida de transparencia, sesgos discriminatorios, vulneraciones de la privacidad o una automatización acrítica de decisiones que afectan a derechos fundamentales. De ahí la necesidad de una guía que ayude a saber qué se puede hacer con IA, qué no se debe hacer y cómo hacerlo con garantías.
El 48% de las administraciones públicas utiliza la Inteligencia Artificial para agilizar la relación con el ciudadano
La guía se estructura en torno a varios ejes fundamentales que abordan las múltiples dimensiones de la implementación de IA en el ámbito local:
El marco jurídico: el Reglamento Europeo de IA como eje central
Uno de los pilares de la guía es el análisis del Reglamento Europeo de Inteligencia Artificial (RIA), la primera norma integral a nivel mundial que regula la IA con un enfoque basado en el riesgo, y que afecta de lleno a las entidades locales tanto si desarrollan sistemas de IA como si los utilizan o contratan.
En concreto, los distintos niveles de riesgo que reconoce la RIA son:
- Riesgo inadmisible: incluye prácticas prohibidas como la puntuación social, la manipulación subliminal o ciertos usos de biometría.
- Riesgo alto: abarca sistemas utilizados en ámbitos sensibles como la gestión de servicios públicos, el empleo, la educación, la seguridad o la toma de decisiones administrativas. Estos sistemas deben cumplir con una serie de requisitos estrictos, como por ejemplo la necesidad de supervisión humana o la trazabilidad de los datos.
- Riesgo específico de transparencia: se aplica a chatbots o contenidos generados por IA y se les impone principalmente obligaciones de información (por ejemplo, etiquetar los contenidos como generados por una IA).
- Riesgo mínimo: como filtros de correo no deseado o videojuegos basados en IA, sin obligaciones, aunque se recomienda adoptar códigos de conducta.
Un aspecto crucial es que, desde febrero de 2025, las entidades locales deben alfabetizar en IA a su personal, es decir, ofrecer formación para que quienes operan estos sistemas comprendan sus implicaciones técnicas, jurídicas y éticas. Además, deben revisar si alguno de sus sistemas incurre en las prácticas prohibidas por el RIA, como la manipulación subliminal o el social scoring (puntuación social).
Para las entidades locales, esto implica la necesidad de identificar qué sistemas de IA utilizan, evaluar su nivel de riesgo y cumplir con las obligaciones correspondientes.
IA, procedimiento administrativo y protección de datos
La guía recuerda que automatizar un proceso no equivale necesariamente a usar IA, pero que cuando se incorporan sistemas capaces de inferir, recomendar o decidir, el impacto jurídico es mucho mayor.
La incorporación de IA en procedimientos administrativos debe respetar principios como:
- Transparencia y explicabilidad de las decisiones.
- Identificación del órgano responsable.
- Posibilidad de impugnación.
- Supervisión humana efectiva.
Además, el uso de IA debe ser plenamente compatible con el Reglamento General de Protección de Datos (RGPD). Las entidades locales deben poder justificar las decisiones automatizadas, garantizar los derechos de las personas afectadas y extremar las precauciones cuando se tratan datos personales sensibles.
Gobernar los datos para gobernar la IA
La guía es tajante en un punto: no se puede implementar IA sin una sólida gobernanza de datos. La IA se alimenta de datos, y su calidad, disponibilidad y gestión ética determinarán el éxito o fracaso de cualquier iniciativa. El documento introduce el concepto de "dato único" y se refiere a la información unificada. En relación con esto, se ha visto que muchas organizaciones descubren deficiencias estructurales precisamente al intentar implementar IA, una idea que se abordó en el pódcast de datos.gob.es sobre datos e IA.
Para la gobernanza de datos en la IA en el contexto local, la guía define la importancia de:
- La privacidad desde el diseño.
- Valor estratégico de los datos.
- Responsabilidad ética institucional.
- Trazabilidad.
- Conocimiento compartido y gestión de la calidad.
Además, se recomienda la adopción de marcos internacionales reconocidos como DAMA-DMBOOK.
La guía también insiste en la importancia de la calidad, disponibilidad y correcta gestión de los datos para “garantizar un uso eficaz y responsable de la inteligencia artificial en nuestras administraciones locales". Para ello, es esencial:
• Adoptar estándares de interoperabilidad, como los ya existentes a nivel estatal y europeo.
• Utilizar APIs y sistemas de intercambio de datos seguros, que permitan compartir información de forma eficiente entre distintos organismos públicos.
• Aprovechar fuentes de datos abiertos, como las que proporciona el Portal de Datos Abiertos del Gobierno de España o las plataformas locales de datos públicos.
Cómo conocer el estado de madurez en IA
Otro de los aspectos más innovadores de la guía es la metodología FEMP.IA, que permite a las entidades locales autoevaluar su nivel de madurez organizativa para el despliegue de IA. Esta metodología distingue tres niveles progresivos que deberían adoptarse en orden:
- Nivel 1 - Administración Electrónica (AE): digitalización de áreas de negocio mediante soluciones corporativas basadas en el dato único.
- Nivel 2 - Robotización de Procesos Automatizados (RPA): automatización de procesos de gestión y actuaciones administrativas.
- Nivel 3 - Inteligencia Artificial: utilización de herramientas de análisis especializado que facilitan información obtenida automáticamente.
Esta aproximación gradual es fundamental, pues reconoce que no todas las entidades parten del mismo punto y que intentar saltar etapas puede resultar contraproducente.
La guía incide en que la IA debe verse como una herramienta de apoyo, no como un sustituto del juicio humano, especialmente en decisiones sensibles.
Requisitos para desplegar IA en una entidad local
El documento detalla de forma sistemática los requisitos necesarios para implantar IA con garantías:
- Normativos y éticos, asegurando el cumplimiento legal y el respeto a los derechos fundamentales.
- Organizativos, definiendo roles técnicos, jurídicos y de gobernanza.
- Tecnológicos, incluyendo infraestructura, integración con sistemas existentes, escalabilidad y ciberseguridad.
- Estratégicos, apostando por despliegues progresivos, pilotos y evaluación continua.
Más allá de la tecnología, la guía subraya la importancia de la ética, la transparencia y la confianza ciudadana. Todo ello es clave y apunta la idea de que el éxito no radica en avanzar rápido, sino en avanzar bien: con una base sólida, evitando improvisaciones y garantizando que la IA se aplique de manera ética, eficaz y orientada al interés general.
Asimismo, se destaca la relevancia de la colaboración público-privada y del intercambio de experiencias entre entidades locales, como vía para reducir riesgos, compartir conocimiento y optimizar recursos.
Casos reales y conclusiones
El documento se completa con numerosos casos de uso reales en ayuntamientos y diputaciones, que demuestran que la IA ya es una realidad tangible en ámbitos como la atención ciudadana, la gestión social, las licencias urbanísticas o los chatbots municipales.
En conclusión, la guía de la FEMP se presenta como un manual imprescindible para cualquier entidad local que quiera abordar la IA con responsabilidad. Su principal aportación no es solo explicar qué es la IA, sino ofrecer un marco práctico para implantarla con sentido, poniendo siempre en el centro a la ciudadanía, los derechos fundamentales y el buen gobierno.
El contenido masivo y superficial generado por IA no es solo un problema, también es un síntoma. La tecnología amplifica un modelo de consumo que premia la fluidez y agota nuestra capacidad de atención.
Escuchamos entrevistas, pódcasts y audios de nuestra familia al 2x. Vemos vídeos recortados en highlights, y basamos decisiones y criterios en artículos e informes que solo hemos leído resumidos con IA. Consumimos información en modo ultrarrápido, pero a nivel cognitivo le damos la misma validez que cuando la consumíamos más despacio, e incluso la aplicamos en la toma de decisiones. Lo que queda afectado por este proceso no es la memoria básica de contenidos, que parece mantenerse según los estudios controlados, sino la capacidad de conectar esos conocimientos con los que ya teníamos y elaborar con ellos ideas propias. Más que la superficialidad, inquieta que esta nueva modalidad de pensamiento resulte suficiente en tantos contextos.
¿Qué es nuevo y qué no?
Podemos pensar que la IA generativa no ha hecho más que intensificar una dinámica antigua en la que la producción de contenido es infinita, pero nuestra capacidad de atención es la misma. No podemos engañarnos tampoco, porque desde que existe Internet la infinitud no es novedad. Si dijéramos que el problema es que hay demasiado contenido, estaríamos quejándonos de una situación en la que vivimos desde hace más de veinte años. Tampoco es nueva la crisis de autoridad de la información oficial o la dificultad para distinguir fuentes fiables de las que no lo son.
Sin embargo, el AI slop, que es la inundación de contenido digital generado con IA en Internet, aporta una lógica propia y consideraciones nuevas, como la ruptura del vínculo entre esfuerzo y contenido, o que todo lo que se genera es un promedio estadístico de lo que ya existía. Este flujo uniforme y descontrolado tiene consecuencias: detrás del contenido generado en masa puede haber una intención orquestada de manipulación, un sesgo algorítmico, voluntario o no, que perjudique a determinados colectivos o frene avances sociales, y también una distorsión de la realidad aleatoria e impredecible.
¿Pero cuánto de lo que leo es IA?
En 2025 se ha estimado que una gran parte del contenido online incorpora texto sintético: un análisis de Ahrefs de casi un millón de páginas web publicadas en la primera mitad del año detectó que el 74,2 % de las nuevas páginas contenían señales de contenido generado con IA. Una investigación de Graphite del mismo año cita que, solo durante el primer año de ChatGPT, un 39% de todo el contenido online estaba ya generado con IA. Desde noviembre de 2024 esa cifra se ha mantenido estable en torno al 52%, lo que significa que desde entonces el contenido IA supera en cantidad al contenido humano.
No obstante, hay dos preguntas que deberíamos hacernos cuando nos encontramos estimaciones de este tipo:
1. ¿Existe un mecanismo fiable para distinguir un texto escrito de un texto generado? Si la respuesta es no, por muy llamativas y coherentes que sean las conclusiones, no podemos darles valor, porque tanto podrían ser ciertas como no serlo. Es un dato cuantitativo valioso, pero que aún no existe.
Con la información que tenemos actualmente, podemos afirmar que los detectores de "texto generado por IA" fallan con la misma frecuencia con la que fallaría un modelo aleatorio, por lo que no podemos atribuirles fiabilidad. En un estudio reciente citado por The Guardian, los detectores acertaron si el texto estaba generado con IA o no en menos de un 40% de los casos. Por otro lado, ante el primer párrafo de El Quijote, también determinados detectores han devuelto un 86% de probabilidad de que el texto estuviera creado por IA.
2. ¿Qué significa que un texto está generado con IA? Por otro lado, no siempre el proceso es completamente automático (lo que llamamos copiar y pegar) sino que se dan muchos grises en la escala: la IA inspira, organiza, asiste, reescribe o expande ideas, y negar, deslegitimar o penalizar esta escritura sería ignorar una realidad instalada.
Los dos matices anteriores no anulan el hecho de que existe el AI slop, pero este no tiene por qué ser un destino inevitable. Existen maneras de mitigar sus efectos en nuestras capacidades.
¿Cuáles son los antídotos?
Podemos no contribuir a la producción de contenido sintético, pero no podemos desacelerar lo que está ocurriendo, así que el reto consiste en revisar los criterios y los hábitos mentales con los que abordamos tanto la lectura como la escritura de contenidos.
1. Prioriza lo que hace clic: una de las pocas señales fiables que nos quedan es esa sensación de clic en el momento en que algo conecta con un conocimiento previo, una intuición que teníamos difusa o una experiencia propia, y la reorganiza o la hace nítida. Solemos decir también que “resuena”. Si algo hace clic, merece la pena seguirlo, confirmarlo, investigarlo y elaborarlo brevemente a nivel personal.
2. Busca la fricción con datos: anclar el contenido en datos abiertos y fuentes contrastables introduce una fricción saludable frente al AI slop. Reduce, sobre todo, la arbitrariedad y la sensación de contenido intercambiable, porque los datos obligan a interpretar y poner en contexto. Es una manera de poner piedras en el río excesivamente fluido que supone la generación de lenguaje, y funciona cuando leemos y cuando escribimos.
3. ¿Quién se responsabiliza? el texto existe fácilmente ahora, la cuestión es por qué existe o qué quiere conseguir, y quién se hace cargo en última instancia de ese objetivo. Busca la firma de personas u organizaciones, no tanto por la autoría sino por la responsabilidad. Desconfía de las firmas colectivas, también en traducciones y adaptaciones.
4. Cambia el foco del mérito: evalúa tus inercias al leer, porque quizá un día aprendiste a dar mérito a textos que sonaban convincentes, utilizaban determinadas estructuras o subían a un registro concreto. Desplaza el valor a elementos no generables como encontrar una buena historia, saber formular una idea difusa o atreverse a dar un punto de vista en un contexto polémico.
En la otra cara de la moneda, también es un hecho que el contenido creado con IA entra con ventaja en el flujo, pero con desventaja en la credibilidad. Esto significa que el auténtico riesgo ahora es que la IA pueda llegar a crear contenido de alto valor, pero las personas hayamos perdido la capacidad de concentración para valorarlo. A esto hay que añadirle el prejuicio instalado de que, si es con IA, no es un contenido válido. Proteger nuestras capacidades cognitivas y aprender a diferenciar entre un contenido comprimible y uno que no lo es no es por tanto un gesto nostálgico, sino una habilidad que a la larga puede mejorar la calidad del debate público y el sustrato del conocimiento común.
Contenido elaborado por Carmen Torrijos, experta en IA aplicada al lenguaje y la comunicación. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.
Los datos abiertos son una pieza central de la innovación digital en torno a la inteligencia artificial ya que permiten, entre otras cosas, entrenar modelos o evaluar algoritmos de aprendizaje automático. Pero entre “descargar un CSV de un portal” y acceder a un conjunto de datos listo para aplicar técnicas de aprendizaje automático hay, todavía, un abismo.
Buena parte de ese abismo tiene que ver con los metadatos, es decir cómo se describen los conjuntos de datos (a qué nivel de detalle y con qué estándares). Si los metadatos se limitan a título, descripción y licencia, el trabajo de comprensión y preparación de datos se hace más complejo y tedioso para la persona que diseña el modelo de aprendizaje automático. Si, en cambio, se usan estándares que faciliten la interoperabilidad, como DCAT, los datos se vuelven más FAIR (Findable, Accessible, Interoperable, Reusable) y, por tanto, más fáciles de reutilizar. No obstante, es necesario metadatos adicionales para que los datos sean más fáciles de integrar en flujos de aprendizaje automático.
Este artículo realiza un itinerario por las diversas iniciativas y estándares necesarios para dotar a los datos abiertos de metadatos útiles para la aplicación de técnicas de aprendizaje automático.
DCAT como columna vertebral de los portales de datos abiertos
El vocabulario DCAT (Data Catalog Vocabulary) fue diseñado por la W3C para facilitar la interoperabilidad entre catálogos de datos publicados en la Web. Describe catálogos, conjuntos de datos y distribuciones, siendo la base sobre la que se construyen muchos portales de datos abiertos.
En Europa, DCAT se concreta en el perfil de aplicación DCAT-AP, recomendado por la Comisión Europea y ampliamente adoptado para describir conjuntos de datos en el sector público, por ejemplo, en España con DCAT-AP-ES. Con DCAT-AP se responde a preguntas como:
- ¿Qué conjuntos de datos existen sobre un tema concreto?
- ¿Quién los publica, bajo qué licencia y en qué formatos?
- ¿Dónde están las URL de descarga o las API de acceso?
El uso de un estándar como DCAT es imprescindible para descubrir conjuntos de datos, pero es necesario ir un paso más allá con el fin de saber cómo se utilizan en modelos de aprendizaje automático o qué calidad tienen desde la perspectiva de estos modelos.
MLDCAT-AP: aprendizaje automático en el catálogo de un portal de datos abiertos
MLDCAT-AP (Machine Learning DCAT-AP) es un perfil de aplicación de DCAT desarrollado por SEMIC y la comunidad Interoperable Europe, en colaboración con OpenML, que extiende DCAT-AP al dominio del aprendizaje automático.
MLDCAT-AP incorpora clases y propiedades para describir:
- Modelos de aprendizaje automático y sus características.
- Conjuntos de datos utilizados en el entrenamiento y la evaluación.
- Métricas de calidad obtenidas sobre los conjuntos de datos.
- Publicaciones y documentación asociadas a los modelos de aprendizaje automático.
- Conceptos relacionados con riesgo, transparencia y cumplimiento del contexto regulatorio europeo del AI Act.
Con ello, un catálogo basado en MLDCAT-AP ya no solo responde a “qué datos hay”, sino también a:
- ¿Qué modelos se han entrenado con este conjunto de datos?
- ¿Cuál ha sido el rendimiento de ese modelo según determinadas métricas?
- ¿Dónde se describe este trabajo (artículos científicos, documentación, etc.)?
MLDCAT-AP representa un gran avance en trazabilidad y gobernanza, pero se mantiene la definición de metadatos a un nivel que todavía no considera la estructura interna de los conjuntos de datos ni qué significan exactamente sus campos. Para eso, se necesita bajar a nivel de la propia estructura de la distribución de conjunto de datos.
Metadatos a nivel de estructura interna del conjunto de datos
Cuando se quiere describir qué hay dentro de las distribuciones de los conjuntos de datos (campos, tipos, restricciones), una iniciativa interesante es Data Package, parte del ecosistema de Frictionless Data.
Un Data Package se define por un archivo JSON que describe un conjunto de datos. En este archivo se incluyen no sólo metadatos generales (como el nombre, título, descripción o licencia) y recursos (es decir, los ficheros de datos con su ruta o una URL de acceso a su correspondiente servicio), sino también se define un esquema con:
- Nombres de campos.
- Tipos de datos (integer, number, string, date, etc.).
- Restricciones, como rangos de valores válidos, claves primarias y ajenas, etc.
Desde la óptica del aprendizaje automático, esto se traduce en la posibilidad de realizar una validación estructural automática antes de usar los datos. Además, también permite una documentación precisa de la estructura interna de cada conjunto de datos y mayor facilidad para compartir y versionar conjuntos de datos.
En resumen, mientras que MLDCAT-AP indica qué conjuntos de datos existen y cómo encajan en el ámbito de modelos de aprendizaje automático, Data Package especifica exactamente “qué hay” dentro de los conjuntos de datos.
Croissant: metadatos que preparan datos abiertos para aprendizaje automático
Aun con el concurso de MLDCAT-AP y de Data Package, faltaría conectar los conceptos subyacentes en ambas iniciativas. Por una parte, el ámbito del aprendizaje automático (MLDCAT-AP) y por otro el de las estructuras internas de los propios datos (Data Package). Es decir, se puede estar usando los metadatos de MLDCAT-AP y de Data Package pero para solventar algunas limitaciones que adolecen ambos, es necesario complementarlo. Aquí entra en juego Croissant, un formato de metadatos para preparar los conjuntos de datos para la aplicación de aprendizaje automático. Croissant está desarrollado en el marco de MLCommons, con participación de industria y academia.
Específicamente, Croissant se implementa en JSON-LD y se construye sobre schema.org/Dataset, un vocabulario para describir conjuntos de datos en la Web. Croissant combina los siguientes metadatos:
- Metadatos generales del conjunto de datos.
- Descripción de recursos (archivos, tablas, etc.).
- Estructura de los datos.
- Capa semántica sobre aprendizaje automático (separación de datos de entrenamiento/validación/test, campos objetivo, etc.)
Cabe destacar que Croissant está diseñado para que distintos repositorios (como Kaggle, HuggingFace, etc.) puedan publicar conjuntos de datos en un formato que las librerías de aprendizaje automático (TensorFlow, PyTorch, etc.) puedan cargar de forma homogénea. También existe una extensión de CKAN para usar Croissant en portales de datos abiertos.
Otras iniciativas complementarias
Merece la pena mencionar brevemente otras iniciativas interesantes relacionadas con la posibilidad de disponer de metadatos que permitan preparar a los conjuntos de datos para la aplicación de aprendizaje automático (“ML-ready datasets”):
- schema.org/Dataset: usado en páginas web y repositorios para describir conjuntos de datos. Es la base sobre la que se apoya Croissant y está integrado, por ejemplo, en las directrices de datos estructurados de Google para mejorar la localización de conjuntos de datos en buscadores.
- CSV on the Web (CSVW): conjunto de recomendaciones del W3C para acompañar ficheros CSV con metadatos en JSON (incluyendo diccionarios de datos), muy alineado con las necesidades de documentación de datos tabulares que luego se usan en aprendizaje automático.
- Datasheets for Datasets y Dataset Cards: iniciativas que permiten desarrollar una documentación narrativa y estructurada para describir el contexto, la procedencia y las limitaciones de los conjuntos de datos. Estas iniciativas son ampliamente adoptadas en plataformas como Hugging Face.
Conclusiones
Existen diversas iniciativas que ayudan a realizar una definición de metadatos adecuada para el uso de aprendizaje automático con datos abiertos:
- DCAT-AP y MLDCAT-AP articulan el nivel de catálogo, modelos de aprendizaje automático y métricas.
- Data Package describe y valida la estructura y restricciones de los datos a nivel de recurso y campo.
- Croissant conecta estos metadatos con el flujo de aprendizaje automático, describiendo cómo los conjuntos de datos son ejemplos concretos para cada modelo.
- Iniciativas como CSVW o Dataset Cards complementan las anteriores y son ampliamente utilizadas en plataformas como HuggingFace.
Estas iniciativas pueden usarse de manera combinada. De hecho, si se adoptan de forma conjunta, se permite que los datos abiertos dejen de ser simplemente “ficheros descargables” y se conviertan en una materia prima preparada para el aprendizaje automático, reduciendo fricción, mejorando la calidad y aumentando la confianza en los sistemas de IA construidos sobre ellos.
Jose Norberto Mazón, Catedrático de Lenguajes y Sistemas Informáticos de la Universidad de Alicante. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.
Cuando se acaban de cumplir tres años desde que comenzó la aceleración del despliegue masivo de la Inteligencia Artificial con el lanzamiento de ChatGPT, un término nuevo emerge con fuerza: la IA agéntica (Agentic AI). En los últimos tres años hemos pasado de hablar de modelos de lenguaje (como por ejemplo, los LLM) y chatbots (o asistentes conversacionales) a diseñar los primeros sistemas capaces no solo de responder a nuestras preguntas, sino de actuar de forma autónoma para conseguir objetivos, combinando datos, herramientas y colaboraciones con otros agentes de IA o con personas humanas. Esto es, la conversación global sobre IA se está moviendo desde la capacidad para "conversar" hacia la capacidad para "actuar" de estos sistemas.
En el sector privado, informes recientes de grandes consultoras describen agentes de IA que resuelven de principio a fin incidencias de clientes, orquestan cadenas de suministro, optimizan inventarios en el sector retail o automatizan la elaboración de informes de negocio. En el sector público, esta conversación también comienza a tomar forma y cada vez más administraciones exploran cómo estos sistemas pueden ayudar a simplificar trámites o a mejorar la atención a la ciudadanía. Sin embargo, el despliegue parece que está siendo algo más lento porque lógicamente en la administración no solo debe tenerse en cuenta la excelencia técnica sino también el estricto cumplimiento del marco normativo, que en Europa lo marca el Reglamento de IA, para que los agentes autónomos sean, ante todo, aliados de la ciudadanía.
¿Qué es la IA agéntica (Agentic AI)?
Aunque se trate de un concepto reciente que aún está en evolución, varias administraciones y organismos empiezan a converger en una definición. Por ejemplo, el Gobierno del Reino Unido describe la IA agéntica como sistemas formados por agentes de IA que “pueden comportarse e interactuar de forma autónoma para lograr sus objetivos”. En este contexto un agente de IA sería una pieza especializada de software que puede tomar decisiones y operar de forma cooperativa o independiente para lograr los objetivos del sistema.
Podríamos pensar, por ejemplo, en un agente de IA en una administración local que recibe la solicitud de una persona para abrir un pequeño negocio. El agente, diseñado de acuerdo con el procedimiento administrativo correspondiente, comprobaría la normativa aplicable, consultaría datos urbanísticos y de actividad económica, verificaría requisitos, rellenaría borradores de documentos, propondría citas o trámites complementarios y prepararía un resumen para que el personal funcionario pudiera revisar y validar la solicitud. Esto es, no sustituiría la decisión humana, sino que automatizaría buena parte del trabajo que hay entre la solicitud realizada por el ciudadano y la resolución dictada por la administración.
Frente a un chatbot conversacional -que responde a una pregunta y, en general, termina ahí la interacción-, un agente de IA puede encadenar múltiples acciones, revisar resultados, corregir errores, colaborar con otros agentes de IA y seguir iterando hasta alcanzar la meta que se le ha definido. Esto no significa que los agentes autónomos decidan por su cuenta sin supervisión, sino que pueden hacerse cargo de buena parte de la tarea siempre siguiendo reglas y salvaguardas bien definidas.
Las características clave de un agente autónomo incluyen:
- Percepción y razonamiento: es la capacidad de un agente para comprender una solicitud compleja, interpretar el contexto y desglosar el problema en pasos lógicos que conduzcan a resolverlo.
- Planificación y acción: es la habilidad para ordenar esos pasos, decidir la secuencia en que se van a ejecutar y adaptar el plan cuando cambian los datos o aparecen nuevas restricciones.
- Uso de herramientas: un agente puede, por ejemplo, conectarse a diversas API, consultar bases de datos, catálogos de datos abiertos, abrir y leer documentos o enviar correos electrónicos según lo requieran las tareas que está intentando resolver.
- Memoria y contexto: es la capacidad del agente para mantener la memoria de las interacciones en procesos largos, recordando las acciones y respuestas pasadas y el estado actual de la solicitud que está resolviendo.
- Autonomía supervisada: un agente puede tomar decisiones dentro de unos límites previamente establecidos para avanzar hacia la meta sin necesidad de intervención humana en cada paso, pero permitiendo siempre la revisión y trazabilidad de las decisiones.
Podríamos resumir el cambio que supone con la siguiente analogía: si los LLM son el motor de razonamiento, los agentes de IA son sistemas que además de esa capacidad de “pensar” en las acciones que habría que hacer, tienen "manos" para interactuar con el mundo digital e incluso con el mundo físico y ejecutar esas mismas acciones.
El potencial de los agentes de IA en los servicios públicos
Los servicios públicos se organizan, en buena medida, alrededor de procesos de una cierta complejidad como son la tramitación de ayudas y subvenciones, la gestión de expedientes y licencias o la propia atención ciudadana a través de múltiples canales. Son procesos con muchos pasos, reglas y actores diferentes, donde abundan las tareas repetitivas y el trabajo manual de revisión de documentación.
Como puede verse en el eGovernment Benchmark de la Unión Europea, las iniciativas de administración electrónica de las últimas décadas han permitido avanzar hacia una mayor digitalización de los servicios públicos. Sin embargo, la nueva ola de tecnologías de IA, especialmente cuando se combinan modelos fundacionales con agentes, abre la puerta a un nuevo salto para automatizar y orquestar de forma inteligente buena parte de los procesos administrativos.
En este contexto, los agentes autónomos permitirían:
- Orquestar procesos de extremo a extremo como, por ejemplo, recopilar datos de distintas fuentes, proponer formularios ya cumplimentados, detectar incoherencias en la documentación aportada o generar borradores de resoluciones para su validación por el personal responsable.
- Actuar como “copilotos” de los empleados públicos, preparando borradores, resúmenes o propuestas de decisiones que luego se revisan y validan, asistiendo en la búsqueda de información relevante o señalando posibles riesgos o incidencias que requieren atención humana.
- Optimizar los procesos de atención ciudadana apoyando en tareas como la gestión de citas médicas, respondiendo consultas sobre el estado de expedientes, facilitando el pago de tributos o guiando a las personas en la elección del trámite más adecuado a su situación.
Diversos análisis sobre IA en el sector público apuntan a que este tipo de automatización inteligente, al igual que en el sector privado, puede reducir tiempos de espera, mejorar la calidad de las decisiones y liberar tiempo del personal para tareas de mayor valor añadido. Un informe reciente de PWC y Microsoft que explora el potencial de la IA agéntica para el sector público resume bien la idea, señalando que al incorporar la IA agéntica en los servicios públicos, los gobiernos pueden mejorar la capacidad de respuesta y aumentar la satisfacción ciudadana, siempre que existan las salvaguardas adecuadas.
Además, la implementación de agentes autónomos permite soñar con una transición desde una administración reactiva (que espera a que el ciudadano solicite un servicio) a una administración proactiva que se ofrece a hacer por nosotros parte de esas mismas acciones: desde avisarnos de que se ha abierto una ayuda para la que probablemente cumplamos los requisitos, hasta proponernos la renovación de una licencia antes de que caduque o recordarnos una cita médica.
Un ejemplo ilustrativo de esto último podría ser un agente de IA que, apoyado en datos sobre servicios disponibles y en la información que el propio ciudadano haya autorizado utilizar, detecte que se ha publicado una nueva ayuda para actuaciones de mejora de la eficiencia energética a través de la rehabilitación de viviendas y envíe un aviso personalizado a quienes podrían cumplir los requisitos. Incluso ofreciéndoles un borrador de solicitud ya pre-cumplimentado para su revisión y aceptación. La decisión final sigue siendo humana, pero el esfuerzo de buscar la información, entender las condiciones y preparar la documentación se podría reducir mucho.
El rol de los datos abiertos
Para que un agente de IA pueda actuar de forma útil y responsable necesita apalancarse sobre un entorno rico en datos de calidad y un sistema de gobernanza de datos sólido. Entre esos activos necesarios para desarrollar una buena estrategia de agentes autónomos, los datos abiertos tienen importancia al menos en tres dimensiones:
- Combustible para la toma de decisiones: los agentes de IA necesitan información sobre normativa vigente, catálogos de servicios, procedimientos administrativos, indicadores socioeconómicos y demográficos, datos de transporte, medio ambiente, planificación urbana, etc. Para ello, la calidad y estructura de los datos es de gran importancia ya que datos desactualizados, incompletos o mal documentados pueden llevar a los agentes a cometer errores costosos. En el sector público, esos errores pueden traducirse en decisiones injustas que en última instancia podrían llevar a la pérdida de confianza de la ciudadanía.
- Banco de pruebas para evaluar y auditar agentes: al igual que los datos abiertos son importantes para evaluar modelos de IA generativa, también pueden serlo para probar y auditar agentes autónomos. Por ejemplo, simulando expedientes ficticios con datos sintéticos basados en distribuciones reales para comprobar cómo actúa un agente en distintos escenarios. De este modo, universidades, organizaciones de la sociedad civil y la propia administración puedan examinar el comportamiento de los agentes y detectar problemas antes de escalar su uso.
- Transparencia y explicabilidad: los datos abiertos podrían ayudar a documentar de dónde proceden los datos que utiliza un agente, cómo se han transformado o qué versiones de los conjuntos de datos estaban vigentes cuando se tomó una decisión. Esta trazabilidad contribuye a la explicabilidad y la rendición de cuentas, especialmente cuando un agente de IA interviene en decisiones que afectan a los derechos de las personas o a su acceso a servicios públicos. Si la ciudadanía puede consultar, por ejemplo, los criterios y datos que se aplican para otorgar una ayuda, se refuerza la confianza en el sistema.
El panorama de la IA agéntica en España y en el resto del mundo
Aunque el concepto de IA agéntica es reciente, ya existen iniciativas en marcha en el sector público a nivel internacional y comienzan a abrirse paso también en el contexto europeo y español:
- La Government Technology Agency (GovTech) de Singapur ha publicado una guía Agentic AI Primer para orientar a desarrolladores y responsables públicos sobre cómo aplicar esta tecnología, destacando tanto sus ventajas como sus riesgos. Además, el gobierno está pilotando el uso de agentes en varios ámbitos para reducir la carga administrativa de los trabajadores sociales y apoyar a las empresas en procesos complejos de obtención de licencias. Todo ello en un entorno controlado (sandbox) para probar estas soluciones antes de escalarlas.
- El Gobierno de Reino Unido ha publicado una nota específica dentro de su documentación “AI Insights” para explicar qué es la IA agéntica y por qué es relevante para servicios gubernamentales. Además, ha anunciado una licitación para desarrollar un “GOV.UK Agentic AI Companion” que sirva de asistente inteligente para la ciudadanía desde el portal del gobierno.
- La Comisión Europea, en el marco de la estrategia Apply AI y de la iniciativa GenAI4EU, ha lanzado convocatorias para financiar proyectos piloto que introduzcan soluciones de IA generativa escalables y replicables en las administraciones públicas, plenamente integradas en sus flujos de trabajo. Estas convocatorias buscan precisamente acelerar el paso en la digitalización a través de IA (incluidos agentes especializados) para mejorar la toma de decisiones, simplificar procedimientos y hacer la administración más accesible.
En España, aunque la etiqueta “IA agéntica” todavía no se utiliza aún de forma amplia, ya se pueden identificar algunas experiencias que van en esa dirección. Por ejemplo, distintas administraciones están incorporando copilotos basados en IA generativa para apoyar a los empleados públicos en tareas de búsqueda de información, redacción y resumen de documentos, o gestión de expedientes, como muestran iniciativas de gobiernos autonómicos como el de Aragón y o entidades locales como el Ayuntamiento de Barcelona que empiezan a documentarse de forma pública.
El salto hacia agentes más autónomos en el sector público parece, por tanto, una evolución natural sobre la base de la administración electrónica existente. Pero esa evolución debe, al mismo tiempo, reforzar el compromiso con la transparencia, la equidad, la rendición de cuentas, la supervisión humana y el cumplimiento normativo que exige el Reglamento de IA y el resto del marco normativo y que deben guiar las actuaciones de la administración pública.
Mirando hacia el futuro: agentes de IA, datos abiertos y confianza ciudadana
La llegada de la IA agéntica ofrece de nuevo a la Administración pública nuevas herramientas para reducir la burocracia, personalizar la atención y optimizar sus siempre escasos recursos. Sin embargo, la tecnología es solo un medio, el fin último sigue siendo generar valor público reforzando la confianza de la ciudadanía.
En principio, España parte de una buena posición: dispone de una Estrategia de Inteligencia Artificial 2024 que apuesta por una IA transparente, ética y centrada en las personas, con líneas específicas para impulsar su uso en el sector público; cuenta con una infraestructura consolidada de datos abiertos; y ha creado la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) como organismo encargado de garantizar un uso ético y seguro de la IA, de acuerdo con el Reglamento Europeo de IA.
Estamos, por tanto, ante una nueva oportunidad de modernización que puede construir unos servicios públicos más eficientes, cercanos e incluso proactivos. Si somos capaces de adoptar la IA agéntica adecuadamente, los agentes que se desplieguen no serán una “caja negra” que actúa sin supervisión, sino “agentes públicos” digitales, transparentes y auditables, diseñados para trabajar con datos abiertos, explicar sus decisiones y dejar rastro de las acciones que realizan. Herramientas, en definitiva, inclusivas, centradas en las personas y alineadas con los valores del servicio público.
Contenido elaborado por Jose Luis Marín, Senior Consultant in Data, Strategy, Innovation & Digitalization. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.
El pasado 19 de noviembre, la Comisión Europea presentó la Estrategia Unión de Datos (Data Union Strategy), una hoja de ruta que busca consolidar un ecosistema europeo de datos robusto, seguro y competitivo. Esta estrategia se articula en torno a tres pilares fundamentales: ampliar el acceso a datos de calidad para la inteligencia artificial y la innovación, simplificar el marco normativo existente, y proteger la soberanía digital europea. En este post, explicaremos en detalle cada uno de estos pilares, así como el calendario de implementación del plan previsto para los próximos dos años.
Pilar 1: ampliar el acceso a datos de calidad para la IA y la innovación
El primer pilar de la estrategia se centra en garantizar que empresas, investigadores y administraciones públicas tengan acceso a datos de alta calidad que permitan desarrollar aplicaciones innovadoras, especialmente en el ámbito de la inteligencia artificial. Para ello, la Comisión propone una serie de iniciativas interconectadas que abarcan desde la creación de infraestructuras hasta el desarrollo de estándares y facilitadores técnicos. Como parte de este pilar se establecen una serie de acciones: la ampliación de espacios comunes europeos de datos, el desarrollo de los data labs, el impulso del Cloud and AI Development Act, la ampliación de activos de datos estratégicos y la elaboración de facilitadores para implementar estas medidas.
1.1 Ampliación de los Espacios Comunes Europeos de Datos (CEDS)
Los Espacios Comunes Europeos de Datos constituyen uno de los elementos centrales de esta estrategia:
-
Inversión prevista: 100 millones de euros para su despliegue.
-
Sectores prioritarios: salud, movilidad, energía, administración pública (legal) y medio ambiente.
-
Interoperabilidad: se apuesta por SIMPL para la interoperabilidad entre espacios de datos con el apoyo del Centro Europeo de Competencia en Datos (DSSC, por sus siglas en inglés Data Spaces Support Center).
-
Aplicaciones clave:
-
Espacio Europeo de Datos de Salud (EHDS): mención especial por su función como puente entre los sistemas de datos de salud y el desarrollo de la IA.
-
Nuevo Espacio de Datos de Defensa: para el desarrollo de sistemas de última generación, coordinado por la Agencia Europea de Defensa.
-
1.2 Laboratorios de datos (Data Labs): el nuevo ecosistema para conectar datos y desarrollo de IA
La estrategia plantea utiliza Data Labs como puntos de conexión entre el desarrollo de inteligencia artificial y los datos europeos.
Estos laboratorios emplean el data pooling, un proceso de combinación y compartición de datos públicos y restringidos provenientes de múltiples fuentes en un repositorio centralizado o entorno compartido. Todo esto facilita el acceso y uso de información. En concreto, los servicios que ofrecen los Data Labs son:
-
Facilita el acceso a los datos.
-
Infraestructura técnica y herramientas.
-
Data pooling.
-
Filtrado de datos y etiquetado
-
Guía regulatoria y formación.
-
Reducción de la brecha entre los espacios de datos y los ecosistemas de IA.
Plan de implementación:
-
Primera fase: los primeros Data Labs se establecerán en el marco de las AI Factories (gigafactorías de IA), ofreciendo servicios de datos para conectar el desarrollo de IA con los espacios de datos europeos.
-
Data Labs sectoriales: se establecerán de forma independiente en otros ámbitos para cubrir necesidades específicas, por ejemplo, en el sector energético.
-
Modelo autosostenible: se prevé que el modelo de Data Labs pueda desplegarse comercialmente, convirtiéndolo en un ecosistema autosostenible que conecta datos e IA.
1.3 Cloud and AI Development Act: impulso a la nube soberana
Para el impulso de la tecnología de nube, la Comisión propondrá en el primer trimestre de 2026 este nuevo reglamento. Actualmente hay una consulta pública abierta en la que se puede participar aquí.
1.4 Activos de datos estratégicos: sector público, recursos científicos, culturales y lingüísticos
Por un lado, en 2026 se propondrá ampliar la lista de los datos de alto valor High value datasets en inglés o HVDS para incluir datos legales, judiciales y administrativos, entre otros. Y, por otro lado, la Comisión mapeará bases existentes y financiará nuevas infraestructuras digitales.
1.5 Facilitadores horizontales: datos sintéticos, data pooling y estándares
La Comisión Europea elaborará guías y estándares sobre datos sintéticos y se financiará I+D avanzada en técnicas para su generación de a través de Horizon Europe.
Otro tema que la UE quiere impulsar es el data pooling, como explicamos anteriormente. Compartir datos de etapas tempranas del ciclo productivo puede generar beneficios colectivos, pero persisten barreras por incertidumbre legal y temor a infringir normas de competencia. ¿Su propósito? Convertir el data pooling en una opción confiable y legalmente segura para acelerar avances en sectores críticos.
Finalmente, en materia de estandarización, se solicitará a las organizaciones europeas de normalización (CEN/CENELEC) el desarrollo de nuevos estándares técnicos en dos ámbitos clave: la calidad del dato y el etiquetado. Estos estándares permitirán establecer criterios comunes sobre cómo deben ser los datos para garantizar su fiabilidad y cómo deben etiquetarse para facilitar su identificación y uso en diferentes contextos.
Pilar 2: Simplificación Normativa
El segundo pilar aborda uno de los desafíos más señalados por empresas y organizaciones: la complejidad del marco regulatorio europeo en materia de datos. La estrategia propone una serie de medidas destinadas a simplificar y consolidar la legislación existente.
2.1 Derogaciones y consolidación normativa: hacia un marco más coherente
Se quieren eliminar normativas cuyas funciones ya están cubiertas por legislación más reciente, evitando así duplicidades y contradicciones. En primer lugar, se derogará el Reglamento de Libre Flujo de Datos no Personales (FFoNPD), ya que sus funciones están ahora cubiertas por la Data Act (Ley de Datos). No obstante, se preservará explícitamente la prohibición de localización injustificada de datos, un principio fundamental para el mercado único digital.
Del mismo modo, la Data Governance Act (Reglamento europeo de gobernanza de datos o DGA) será eliminada como norma independiente, migrando sus provisiones esenciales a la Data Act. Este movimiento simplifica el marco regulatorio y, además, alivia la carga administrativa: las obligaciones para los intermediarios de datos pasarán a ser más ligeras y de carácter voluntario.
En cuanto al sector público, la estrategia plantea una consolidación importante. Las normas sobre intercambio de datos públicos, actualmente dispersas entre la DGA y la Directiva de Datos Abiertos (Open Data Directive), se fusionarán en un único capítulo dentro de la Data Act. Esta unificación facilitará tanto la aplicación como la comprensión del marco legal por parte de las administraciones públicas.
2.2 Reforma de cookies: equilibrio entre protección y usabilidad
Otro detalle relevante es la regulación de cookies que experimentará una modernización significativa, integrándose en el marco del Reglamento General de Protección de Datos (RGPD). La reforma busca un equilibrio: por un lado, se legalizarán usos de bajo riesgo que actualmente generan incertidumbre legal; por otro, se simplificarán los banners de consentimiento mediante sistemas de "un solo clic" (one-click). El objetivo es claro: reducir la denominada "fatiga del usuario" ante las solicitudes repetitivas de consentimiento que todos conocemos al navegar por Internet.
2.3 Ajustes al RGPD para facilitar el desarrollo de IA
El Reglamento General de Protección de Datos también será objeto de una reforma focalizada, diseñada específicamente para liberar datos de forma responsable en beneficio del desarrollo de la inteligencia artificial. Esta intervención quirúrgica aborda tres aspectos concretos:
-
Aclara cuándo puede aplicarse el interés legítimo para el entrenamiento de modelos de IA.
-
Define con mayor precisión la distinción entre datos anónimos y seudonimizados, especialmente en relación con el riesgo de reidentificación.
-
Armoniza las evaluaciones de impacto en protección de datos, facilitando su aplicación coherente en toda la Unión.
2. 4 Implementación y Apoyo a la Data Act
La Data Act, recientemente aprobada, será objeto de ajustes para mejorar su aplicación. Por un lado, se refina el alcance del intercambio de datos de empresas a gobiernos (B2G), limitándolo estrictamente a situaciones de emergencia. Por otro lado, se amplía el paraguas de protección: las condiciones favorables que actualmente disfrutan las pequeñas y medianas empresas (PYMES) se extenderán también a las empresas medianas o small mid-caps, aquellas que tienen entre 250 y 749 empleados.
Para facilitar la implementación práctica de la norma, ya se ha publicado un modelo de cláusulas contractuales tipo para el intercambio de datos, proporcionando así una plantilla que las organizaciones pueden utilizar directamente. Además, durante el primer trimestre de 2026 se publicarán dos guías adicionales: una sobre el concepto de "compensación razonable" en los intercambios de datos, y otra destinada a clarificar las definiciones clave de la Data Act que puedan generar dudas interpretativas.
Consciente de que las PYMES pueden tener dificultades para navegar este nuevo marco legal, se creará un Helpdesk Legal en el cuarto trimestre de 2025. Este servicio de asistencia ofrecerá asesoramiento directo sobre la aplicación de la Data Act, dando prioridad precisamente a las pequeñas y medianas empresas que carecen de departamentos jurídicos especializados.
2.5 Evolución de la gobernanza: hacia un ecosistema más coordinado
La arquitectura de gobernanza del ecosistema europeo de datos también experimenta cambios significativos. El European Data Innovation Board (EDIB) evoluciona desde un órgano principalmente consultivo hacia un foro de debates más técnicos y estratégicos, incorporando tanto a los Estados miembros como a representantes de la industria. Para ello, se modificará su articulado con dos objetivos: permitir la inclusión en los debates de las autoridades competentes en materia de Data Act, y dotar de mayor flexibilidad a la Comisión Europea en la composición y funcionamiento del organismo.
Complementariamente, se articulan dos mecanismos adicionales de retroalimentación y anticipación. La Apply AI Alliance canalizará el feedback sectorial, recogiendo las experiencias y necesidades específicas de cada industria. Por su parte, el AI Observatory actuará como radar de tendencias, identificando desarrollos emergentes en el ámbito de la inteligencia artificial y traduciéndolos en recomendaciones de políticas públicas. De este modo, se cierra un círculo virtuoso donde la política se nutre constantemente de la realidad del terreno.
Pilar 3: Protección de la soberanía del dato europeo
El tercer pilar se centra en garantizar que los datos europeos reciban un trato justo y seguro, tanto dentro como fuera de las fronteras de la Unión. La intención es que solo se compartan datos con países de la misma visión regulatoria.
3.1 Medidas específicas para proteger los datos europeos
-
Publicación de guías para evaluar el trato justo de datos de la UE en el extranjero (segundo trimestre 2026):
-
Publicación de toolbox contra prácticas injustas (segundo trimestre 2026):
-
La localización injustificada.
-
La exclusión.
-
Las salvaguardas débiles.
-
La fuga de datos.
-
-
Adopción de medidas para proteger los datos no personales sensibles.
Todas estas medidas se plantean implementar desde el último cuatrimestre de 2025 y durante todo 2026 en un despliegue progresivo que permitirá una adopción gradual y coordinada de las diferentes medidas, tal y como establece la Data Union Strategy.
En resumen, la Estrategia Unión de Datos representa un esfuerzo integral por consolidar el liderazgo europeo en la economía del dato. Para ello se impulsará el data pooling y los espacios de datos de los Estados miembro, se apostará por los Data Labs y las gigafactorías de IA y se incentivará la simplificación normativa.