Blog

La información medioambiental accesible, actualizada e interoperable ya no es solo un recurso técnico: es una herramienta de seguridad, bienestar y poder ciudadano frente a la emergencia climática.

Cada vez que una persona asmática consulta el nivel de partículas en suspensión antes de salir a correr, o cuando un ayuntamiento decide cerrar un parque infantil por un episodio de contaminación, hay datos abiertos detrás de esa decisión. Los datos medioambientales y climáticos abiertos —sobre calidad del aire, agua, biodiversidad o fenómenos extremos— han dejado de ser patrimonio exclusivo de científicos y científicas e instituciones para convertirse en una infraestructura cívica global: accesible, reutilizable y, cada vez más, generada por la propia ciudadanía.

La pregunta ya no es si estos datos existen. Existen y en cantidades sin precedentes. La pregunta es: ¿quién los usa y para qué? Este artículo recorre ese ecosistema de información, desde las plataformas globales hasta los repositorios locales, pasando por proyectos ciudadanos que han transformado nuestro entorno.

El giro ciudadano: de consumidores a productores de datos

Durante décadas, los datos medioambientales procedían principalmente de agencias estatales, satélites gubernamentales y grandes laboratorios. Ese panorama empezó a transformarse cuando los sensores se abarataron, los teléfonos inteligentes se masificaron y las comunidades organizadas entendieron que medir su entorno también era una forma de protegerlo y de protegerse. De esta forma, la información generada por la ciudadanía se suma a la de los organismos públicos, ampliando y enriqueciendo la comprensión colectiva del medio ambiente. Algunos ejemplos son:

  • iNaturalist, la plataforma de ciencia ciudadana para documentar la biodiversidad, acumula más de 200 millones de observaciones, realizadas por 3,3 millones de participantes en todo el mundo. Sus datos, integrados en GBIF (Global Biodiversity Information Facility), se utilizan en la investigación de conservación, en el seguimiento de los impactos del cambio climático y en las políticas de biodiversidad en decenas de países.
  • IQAir AirVisual es otra red mundial de calidad del aire, con más de 30.000 estaciones y datos en tiempo real de más de 100 países, que incluye mapas, previsiones de 7 días y recomendaciones para grupos vulnerables.
  • GLOBE Observer de la NASA lleva desde 2016 permitiendo a cualquier persona registrar desde su móvil observaciones sobre nubes, temperatura, cobertura del suelo y hábitats de mosquitos —un indicador crítico para detectar focos de enfermedades vectoriales agravadas por el calentamiento global.
  • Meteoclimatic es una red colaborativa de estaciones meteorológicas automáticas que comparten datos en tiempo real, centrada en la península Ibérica y zonas cercanas.

Estos proyectos ponen de manifiesto que la ciudadanía ya no solo consume datos: también los produce, los valida y los pone a disposición pública.

Casos que cambian políticas: del dato ciudadano a la decisión pública

Uno de los prejuicios más persistentes sobre la ciencia ciudadana es que sus datos son demasiado imprecisos como para tener un impacto real o siquiera para considerarse ciencia. Varios proyectos recientes cuestionan ese argumento y están impulsando que la creencia cambie.

El proyecto europeo COMPAIR, financiado por el programa Horizonte Europa entre 2021 y 2024, desplegó sensores ciudadanos de calidad del aire en cinco ciudades: Atenas, Berlín, Flandes, Plovdiv y Sofía. Los sensores ciudadanos son dispositivos de medición ambiental de bajo coste (aire, ruido, temperatura, agua, etc.) que la propia ciudadanía instala, mantiene y utiliza para generar datos abiertos sobre su entorno inmediato. Estos sensores se instalaron en barrios y espacios utilizados por comunidades romaníes, personas mayores y escolares. Esta elección pretendía visibilizar exposiciones al riesgo que suelen quedar fuera del radar (por ejemplo, rutas escolares con tráfico intenso o barrios periférico insuficientemente  monitorizados) y aportar datos adicionales que permitieran a las administraciones diseñar medidas dirigidas a quienes respiran el aire más contaminado. En Sofía, por ejemplo, la publicación de mapas de contaminación en los accesos a los colegios derivó en un aumento documentado del uso del transporte público escolar; un proyecto de datos ciudadanos que cambió un comportamiento colectivo.

Los datos ciudadanos, además, cuando respetan las condiciones metodológicas y legales, pueden ser admisibles ante los tribunales y contribuir a mejorar las políticas. Es precisamente ese tipo de uso el que desarrolla el proyecto Sensing for Justice (SensJus): una iniciativa Marie Curie —un prestigioso programa europeo de financiación para la investigación— que utiliza redes de sensores ciudadanos como prueba en litigios ambientales y en mediaciones extrajudiciales, con casos de éxito documentados en Estados Unidos e Italia.

Proyectos situados en contextos más cercanos

El activismo de datos medioambientales o climáticos no es un fenómeno lejano. España cuenta con una red creciente de iniciativas que llevan la medición ambiental a escala de barrio, río y tejado.

Smart Citizen, creado por el Fab Lab Barcelona del Instituto de Arquitectura Avanzada de Cataluña (IAAC), es uno de los proyectos de referencia mundial en citizen sensing: combina un kit de sensores de bajo coste —calidad del aire, temperatura, humedad, ruido, luz— con una plataforma de datos abierta en tiempo real. Con más de 9.000 usuarios y usuarias registrados/as y más de 1.900 sensores desplegados en más de 40 países, demuestra que la monitorización ambiental ciudadana puede tener alcance global a partir de una iniciativa local. SensaCitizens, por su parte, es una red española de monitores ambientales de bajo coste, con tecnología LoRaWAN, orientada a generar datos útiles para políticas públicas locales sobre la calidad del aire y el confort urbano.

En el ámbito de la salud cotidiana destaca Planttes, una app desarrollada por la Universidad Autónoma de Barcelona que permite a la ciudadanía mapear en tiempo real las plantas alergénicas de su entorno e indicar su estado fenológico. El resultado es un mapa de riesgo de alergia a nivel de calle que complementa la información oficial de pólenes.

La vigilancia fluvial, por su parte, se manifiesta en el Proyecto Ríos de Cantabria, activo desde 2008, que involucra a voluntarios que adoptan tramos de río de unos 500 metros y realizan inspecciones bianuales para monitorizar el estado ecológico del río. Con 282 tramos inspeccionados y más de 300 acciones documentadas, sus datos alimentan las decisiones de la Administración en materia de conservación de ecosistemas.

En el ámbito urbano también existen diversas iniciativas. Vitoria-Gasteiz participó en el proyecto europeo CITI-SENSE —junto a otras ocho ciudades, como Barcelona, Oslo y Viena— con una iniciativa específica de diseño participativo de espacios públicos, que combinaba sensores de ruido, calidad del aire y confort térmico. En total, el proyecto generó más de 9,4 millones de observaciones en las ciudades participantes.

En el ámbito ciudadano y local, el recién presentado SolData Spain (Universidad Autónoma de Madrid) ofrece un geoportal de acceso abierto para analizar la evolución de la energía solar en España durante casi tres décadas, al cruzar datos de irradiación satelital con registros meteorológicos históricos.

El siguiente visual resume los proyectos mencionados hasta ahora:

Infografía titulada “Datos abiertos y ciencia ciudadana para luchas contra el cambio climático”. Presenta proyectos ciudadanos para generar datos, divididos en dos columnas.  En la sección “Internacionales” aparecen:  iNaturalist: plataforma de ciencia ciudadana sobre biodiversidad. IQAir AirVisual: red mundial de calidad del aire. GLOBE Observer de la NASA: observaciones de mosquitos. Meteoclimatic: red colaborativa de estaciones meteorológicas.  En la sección “Participación española” aparecen:  Smart Citizen: monitorización ambiental ciudadana para calidad del aire y confort urbano. Planttes: mapeo en tiempo real de plantas alergénicas. Proyecto Ríos de Cantabria: vigilancia fluvial para conservar ecosistemas. CITI-SENSE: diseño participativo de espacios públicos con sensores de ruido, aire y temperatura. SolData Spain: análisis de la evolución de la energía solar en España.  Abajo, otra sección titulada “Proyectos que ponen en valor los datos ciudadanos” incluye:  COMPAIR: sensores ciudadanos de calidad del aire en zonas poco monitorizadas. Sensing for Justice (SensJus): redes de sensores ciudadanos usadas como prueba en litigios ambientales y mediaciones.  Nota al pie explica que los sensores ciudadanos son dispositivos de medición ambiental de bajo coste instalados y utilizados por la ciudadanía. Aparece el logotipo de datos.gob.es.

Figura 1. Datos abiertos y ciencia ciudadana para luchas contra el cambio climático. Fuente: elaboración propia - datos.gob.es

La empresa también actúa: adaptación climática con datos abiertos

La crisis climática no solo es un problema ambiental y social, sino también un riesgo operativo para las empresas. Según el informe Utility Transformation Profile de la Smart Electric Power Alliance (2023), el 62% de las utilities eléctricas encuestadas han desarrollado un plan público de reducción de carbono —mitigación—, pero las medidas de adaptación climática siguen siendo escasas y rara vez cuantificadas. No obstante, encontramos algunos ejemplos:

Meteoflow, de Iberdrola, es una plataforma de predicción meteorológica, reconocida por el International Research Centre on Artificial Intelligence (IRCAI) vinculada a la UNESCO, entre los mejores proyectos de IA para la sostenibilidad. Su función es optimizar la producción de sus parques eólicos y solares anticipando las condiciones meteorológicas, aunque también incorpora módulos de alerta ante fenómenos extremos que le permiten gestionar riesgos. Para ello utiliza información meteorológica de acceso abierto junto a datos propios, tanto históricos como de producción en tiempo real.

Otro ejemplo es Solarmap de dotGIS, que combina datos abiertos de cartografía (CNIG/INSPIRE), de radiación solar (AEMET/Copernicus) y de big data geoespacial para calcular la rentabilidad por tejado de instalar paneles solares en cualquier punto de España.

Se trata de iniciativas que tienen un impacto en la resiliencia operativa de las empresas y un potencial beneficio para el sistema energético colectivo, pero cuyo alcance transformador crece cuando sus resultados trascienden la lógica de protección de los activos corporativos para integrarse en la infraestructura pública compartida. En el sector privado, los datos (abiertos o no) pueden contribuir a reducir riesgos colectivos —como evitar apagones o anticipar impactos sobre los ecosistemas—, de modo que su impacto no se limita a la protección de activos corporativos. Su potencial cívico se multiplica cuando los resultados, metodologías y conjuntos de datos a los que sea posible acceder se integran en infraestructuras de datos compartidas con otros actores públicos y sociales.

Hacia dónde vamos: tres tendencias que redefinen la seguridad

El paisaje de los datos medioambientales y climáticos abiertos está cambiando, y tres tendencias marcan el horizonte próximo.

  • De la mitigación a la adaptación. Durante años, la política climática se centró en reducir emisiones. Ese foco se está desplazando hacia la adaptación: anticipar riesgos, reducir vulnerabilidades y proteger a las comunidades frente a cambios ya irreversibles. Euskadi es un ejemplo de este giro: la Estrategia de Cambio Climático de Euskadi 2050 (KLIMA 2050) establece la adaptación como eje transversal con objetivos por sector —salud, agua, biodiversidad, energía—, y Vitoria-Gasteiz lidera compromisos en el marco de la Misión Europea de Ciudades Climáticamente Neutras. El salto es también es un avance en datos abiertos:: además de medir y publicar datos abiertos sobre las emisiones, las estrategias de adaptación empiezan a abrir y documentar datos sobre vulnerabilidades (olas de calor, inundaciones, salud pública) y capacidades de respuesta institucional y comunitaria, de forma que puedan ser reutilizados por administraciones, empresas y ciudadanía.
  • La ciudadanía como centinela cívica. La ciudadanía actúa cada vez más como centinela cívica (civic sentinel): recopila, contrasta y comparte datos ambientales que complementan las mediciones oficiales. Cuando el vecindario  de una ciudad detectan niveles de contaminación que las estaciones oficiales no registran, o cuando una comunidad indígena documenta cambios en su ecosistema que los satélites no capturan, se genera una segunda capa de información crítica para la gestión de riesgos. Proyectos como OpenTEK / LICCI del ICTA-UAB integran saberes indígenas de Nepal, Tailandia, Vietnam y países de América Latina como fuentes científicamente legítimas de datos sobre la variabilidad climática, y los ponen a disposición bajo principios FAIR y CARE, buscando que sean lo más abiertos y reutilizables posible sin comprometer la soberanía de las comunidades que los generan.
  • Estándares FAIR y espacios de datos europeos. La Unión Europea impulsa el Green Deal Data Space y la iniciativa AD4GD para integrar datos ambientales abiertos bajo estándares FAIR (findable, accessible, interoperable, reusable), que faciliten su uso combinado por múltiples actores. En este marco, el Informe de Prospectiva Estratégica 2025 de la UE identifica la transición climática y la seguridad como los dos ejes que ejercen mayor presión sobre Europa, y subraya la necesidad de infraestructuras de datos compartidas basadas en esos principios para responder con resiliencia.

Los datos abiertos medioambientales y climáticos no son solo una cuestión técnica ni una aspiración de transparencia burocrática. Son, cada vez más, una condición para que las comunidades puedan anticipar riesgos, exigir responsabilidades y tomar decisiones colectivas bien fundamentadas frente al mayor desafío. La infraestructura existe. La ciudadanía que la usa, también, por lo que hay que seguir impulsando para lograr que su uso sea universal y equitativo.

Anexo: ¿Dónde están los datos? Una guía práctica de repositorios

Para quien quiera explorar, reutilizar o combinar datos medioambientales y climáticos abiertos, el ecosistema de repositorios es amplio y cada vez más accesible. Aquí una selección organizada por escala:

A escala europea:

  • data.europa.eu: catálogo europeo de datos, donde se pueden encontrar, entre otros, datos sobre aire, agua, biodiversidad, clima y energía, con casos de uso documentados
  • Copernicus C3S: datos climáticos históricos y proyecciones; variables esenciales del clima.
  • Copernicus CAMS: datos sobre calidad del aire y composición atmosférica en tiempo real.
  • ESA CCI Open Data: variables climáticas esenciales sobre glaciares, nivel del mar, gases de efecto invernadero, etc.
  • European Environment Agency (EEA): indicadores ambientales, mapas de riesgo climático, biodiversidad y calidad del agua.
  • INSPIRE : es el punto de acceso central para localizar, visualizar y acceder a la información geográfica y a los datos espaciales armonizados de los países miembros de la Unión Europea.

Puedes encontrar más repositorios de interés en este artículo 10 repositorios de datos públicos relacionados con el clima.

A escala estatal:

  • datos.gob.es: portal nacional de datos abiertos con una sección sobre medioambiente.
  • AEMET OpenData: series climatológicas históricas, datos meteorológicos en tiempo real, API REST, etc.
  • MITECO Datos Abiertosdatos sobre calidad del aire, agua y emisiones.
  • Geoportal IDEE: datos geoespaciales y cartografía ambiental nacional, entre otros.

Contenido elaborado por Miren Gutiérrez, Doctora e investigadora en la Universidad de Deusto, experta en activismo de datos, justicia de datos, alfabetización de datos y desinformación de género. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.

calendar icon
Evento

Solo unos meses después del éxito de su primera entrega, el Ayuntamiento de Madrid ha abierto la convocatoria de la segunda edición de los Premios a la Reutilización de Datos Abiertos. Se trata de una iniciativa que busca reconocer y promover proyectos innovadores que utilicen los conjuntos de datos publicados en el portal datos.madrid.es. Con una dotación total de 15.000 euros, estos premios consolidan el compromiso municipal con la cultura del dato, la transparencia y la creación de valor social y económico a partir de la información pública.

En este artículo te contamos algunas de las claves que debes tener en cuenta para participar.

Dos categorías de premios a considerar

La convocatoria establece dos categorías, cada una con varios premios:

1) Servicios web, aplicaciones y visualizaciones: premia proyectos que generen servicios, visualizaciones o aplicaciones web o para dispositivos móviles.

  • Primer premio: 4.000 €
  • Segundo premio: 3.000 €
  • Tercer premio: 1.500 €
  • Premio para estudiante: 1.500 €

2) Estudios, investigaciones e ideas: se centra en proyectos de investigación, análisis o descripción de ideas para crear servicios, estudios, visualizaciones, aplicaciones web o móviles. En esta categoría también pueden participar trabajos universitarios de fin de grado y de fin de máster (TFG-TFM).

  • Primer premio: 2.500 €
  • Segundo premio: 1.500 €
  • Tercer premio: 1.000 €

En ambas categorías es necesario que se utilice al menos un conjunto de datos del portal municipal, pudiendo combinarse con fuentes públicas o privadas de cualquier ámbito territorial. Los proyectos pueden ser recientes o haber finalizado en los dos años previos al cierre de la convocatoria.

Los premios pueden declararse desiertos si no se alcanza la calidad mínima. En ese caso, los importes sobrantes se redistribuirán proporcionalmente entre el resto de premiados.

Requisitos para participar

La convocatoria está abierta a personas físicas y jurídicas autoras de los proyectos o iniciativas. El objetivo es que cualquier persona o entidad con interés en la reutilización de datos pueda presentar su propuesta, independientemente de su nivel técnico. Por ello, pueden participar tanto profesionales y empresas, personas investigadoras, periodistas y desarrolladores, como aficionados y amateurs interesados en el análisis y visualización de datos.

En el caso del premio para estudiante, solo podrán participar aquellas personas físicas matriculadas en cursos oficiales 2023/24, 2024/25 o 2025/26.

Por el contrario, quedan excluidos de todas las categorías:

  • Proyectos ya premiados, subvencionados o contratados por el Ayuntamiento de Madrid.
  • Proyectos que no utilicen ningún conjunto de datos del portal municipal.

Fases del proceso

En el portal municipal se detallan las fases de la convocatoria, que incluyen:

  1. Publicación de la convocatoria. El pasado 3 de marzo se publicaron las bases reguladoras en el Boletín Oficial del Ayuntamiento de Madrid.
  2. Presentación de candidaturas. El plazo para presentar las solicitudes abarca del 4 de marzo al 4 de mayo (ambos incluidos). Se pueden presentar online  o presencialmente, como se explica más adelante.
  3. Análisis y subsanación. Hasta el 3 de junio, se llevará a cabo la revisión de la documentación presentada. En caso necesario, se contactará con los solicitantes para la subsanación de errores.

  4. Valoración y deliberación. Un jurado evaluará todos los proyectos admitidos, según los criterios establecidos en las bases de la convocatoria. Se tendrá en cuenta su utilidad, valor económico, valor social y contribución a la transparencia; su grado de innovación y creatividad; la variedad de conjuntos de datos utilizados del Portal de Datos Abiertos de Madrid; y su calidad técnica. Esta fase se extenderá hasta el 15 septiembre.

  5. Resolución. En los meses de septiembre y octubre se llevará a cabo la propuesta de concesión y publicación oficial de la resolución.

  6. Entrega de premios. Los galardones se entregarán en un acto público, estimado para el mes de noviembre.

La página oficial irá actualizando fechas y documentación a medida que avance el proceso.

Cómo se presentan las candidaturas

Como se mencionó anteriormente, las candidaturas se pueden presentar de manera telemática o presencial:

Las personas físicas podrán presentar la solicitud de ambas formas, mientras que las personas jurídicas solo podrán presentar la solicitud de forma telemática.

En ambos casos, las candidaturas deben incluir:

  • Formulario oficial de solicitud, a descargar en la sede electrónica del Ayuntamiento de Madrid.
  • Memoria del proyecto, en base a un modelo a descargar en la citada sede electrónica.  Este documento incluirá el título, la autoría y una descripción detallada, así como la relación de conjuntos de datos utilizados, los objetivos, el público beneficiario, el impacto previsto, el grado de innovación y la tecnología empleada.
  • Declaración responsable.
  • Acuerdo de colaboración, en caso de presentarse como agrupación.

Inspírate con los proyectos ganadores de la primera edición

La segunda edición de los Premios a la Reutilización de Datos Abiertos llega precedida por el éxito de la convocatoria anterior. En 2025, el Ayuntamiento de Madrid celebró la primera edición de estos galardones, que reunió 65 candidaturas de gran calidad y diversidad. Entre ellas destacaron propuestas impulsadas por estudiantes universitarios, startups, equipos multidisciplinares y ciudadanía comprometida con el uso inteligente de los datos públicos.

Los proyectos premiados demostraron que los datos abiertos pueden convertirse en herramientas reales para mejorar la vida urbana, impulsar la transparencia y generar conocimiento útil para la ciudad. En este artículo te resumimos en qué consistían estos proyectos.

En resumen, los II Premios a la Reutilización de Datos Abiertos 2026 son una oportunidad para demostrar cómo los datos públicos pueden convertirse en innovación real. Una invitación a desarrollar proyectos que impulsen un Madrid más inteligente, transparente y participativo.

calendar icon
Noticia

El pasado miércoles 4 de marzo, la Cátedra Cajasiete Big Data, Open Data y Blockchain de la Universidad de La Laguna celebró un webinar para presentar las ideas ganadoras del l Concurso Datos Abiertos Cabildo de Tenerife: Ideas de Reutilización. Un evento para poner en valor el potencial que tiene la información pública cuando se pone al servicio de la ciudadanía. La grabación de la presentación está disponible aquí.

En este post repasaremos en qué consiste cada uno de los proyectos ganadores -que son todavía ideas pendientes de desarrollo en apps y a qué retos darían respuesta.

Cultiva+ Tenerife: agricultura de precisión para el campo tinerfeño

El proyecto ganador del primer premio nace de una necesidad muy concreta que conoce bien cualquier agricultor de la isla: tomar decisiones acertadas en el momento adecuado. ¿Qué cultivo es más rentable esta temporada? ¿Cuáles son las condiciones climáticas previstas para las próximas semanas? ¿Hay alguna feria o evento del sector que convenga no perderse?

Cultiva+ Tenerife es una aplicación diseñada específicamente para el sector agrícola que integra datos abiertos del Cabildo para responder a estas preguntas de forma sencilla e intuitiva.

En concreto, va dirigido tanto a trabajadores ya establecidos en el sector como a nuevos agricultores. En el primer caso, la app facilitaría el trabajo diario a través de recomendaciones de riego y otras cuestiones que mejoren la producción; mientras que para nuevos agricultores la aplicación ayudaría a seleccionar la mejor parcela para empezar una actividad agraria según tipo de suelo, condiciones climáticas, etc.

Diapositiva titulada “Agricultura de Precisión” que muestra dos tipos de usuarios de una plataforma agrícola.  A la izquierda: “Agricultores establecidos”, enfocado en la retención y facilitación del trabajo diario. Incluye:  Indicar parcela: ubicación, tipo de suelo, condiciones agroclimáticas y precios de mercado.  Recomendaciones: variedades adaptadas, ventana temporal, calendario de riego y optimización de la producción.  A la derecha: “Nuevos agricultores”, enfocado en atraer y facilitar el comienzo. Incluye:  Seleccionar parcela: ubicación, tipo de suelo, condiciones agroclimáticas, variedades y rentabilidad.  Marketplace: oferta-demanda, compraventa y bolsa de trabajo.  En la esquina inferior izquierda aparece el texto: “I Concurso Datos Abiertos – Cabildo de Tenerife – Ideas de Reutilización, 2024.”

Figura 1. Posibles utilidades de la aplicación Cultiva+ Tenerife según el tipo de usuario. Fuente: presentación de Cultiva+Tenerife en el Webinar “De los datos a la innovación: Ideas de reutilización premiadas en el I Concurso de Datos Abiertos del Cabildo de Tenerife, Universidad de la Laguna”.

La aplicación recogería de forma intuitiva y clara información como:

  • Información de precios: el agricultor puede consultar la evolución de los precios de mercado de distintos productos, lo que le permite planificar qué cultivar en función de la rentabilidad esperada.
  • Condiciones climatológicas: la app cruza datos meteorológicos con las necesidades específicas de cada tipo de cultivo, ayudando a anticipar riegos, protecciones o cosechas.
  • Agenda de actividades de interés: ferias agrícolas, jornadas técnicas, convocatorias de ayudas... toda la información relevante para el sector, centralizada en un solo lugar.

    Diapositiva titulada “Esquema de Aplicación” que muestra el flujo de funcionamiento de una aplicación móvil para agricultura.  En la parte izquierda aparecen las pantallas iniciales del usuario: inicio de sesión, registro y perfil principal o panel, conectadas por flechas que indican el proceso de acceso a la aplicación.  Debajo se muestra una pantalla de reportes, con gráficos circulares y de barras que representan el estado de la cosecha, hectáreas y ventas estimadas.  A la derecha aparece la vista de parcelas, representada por un mapa donde se pueden visualizar distintos cultivos.  Finalmente, en el extremo derecho, se muestra una pantalla de análisis de parcelas, que incluye un mapa de ubicación y una tabla con datos agrícolas y climáticos (como fechas y valores de medición) para evaluar el rendimiento del cultivo.  En la esquina inferior izquierda aparece el texto: “I Concurso Datos Abiertos – Cabildo de Tenerife – Ideas de Reutilización, 2024.” El diseño utiliza fondo claro con elementos decorativos amarillos y líneas que conectan cada etapa del flujo de la aplicación.

Figura 2. Estructura visual de la aplicación Cultiva+Tenerife. Fuente: presentación de Cultiva+Tenerife en el Webinar “De los datos a la innovación: Ideas de reutilización premiadas en el I Concurso de Datos Abiertos del Cabildo de Tenerife, Universidad de la Laguna”.

Algo que se destacó como valioso de este proyecto en el webinar es su enfoque en un colectivo que históricamente ha tenido menos acceso a herramientas digitales: los agricultores y agricultoras de Tenerife. La propuesta no busca complicar su día a día con tecnología innecesaria, sino simplificar decisiones que hoy se toman muchas veces a ojo o con información incompleta. La agricultura de precisión ya no es solo cosa de grandes explotaciones: con datos abiertos y una buena aplicación, puede estar al alcance de cualquier productor local.

Análisis de tendencias y modelos sobre el turismo en Tenerife: cuando los datos revelan una crisis

El segundo proyecto ganador aborda uno de los temas más complejos y urgentes de la realidad tinerfeña: la relación entre el turismo, la vivienda y el mercado laboral. Una ecuación con múltiples variables que afecta directamente a la calidad de vida de los residentes y que, hasta ahora, era difícil de analizar de forma rigurosa sin acceso a datos fiables.

El punto de partida del proyecto es revelador: en junio de 2024, el 35 % de los nuevos contratos laborales firmados en Tenerife correspondieron al sector de la hostelería. Un dato que ilustra a la perfección la dependencia estructural de la economía isleña respecto al turismo, pero que también abre preguntas incómodas: ¿hasta qué punto el crecimiento turístico está transformando el mercado de la vivienda? ¿Está desplazando a los residentes habituales de determinadas zonas? ¿Cómo evolucionará la llegada de turistas en los próximos años?

Este proyecto propone dar respuesta a estas preguntas a través de un modelo de análisis y predicción construido con herramientas de ciencia de datos. Su desarrolladora plantea utilizar datos como el número de turistas alojados en Tenerife según categoría y zona de establecimiento, disponible en datos.tenerife.es, para construir modelos con Python y NumPy que permitan identificar tendencias y proyectar escenarios futuros.

Los objetivos del proyecto son ambiciosos pero concretos:

  • Analizar la relación entre demanda turística y oferta de alojamientos, identificando qué zonas de la isla sufren mayor presión y en qué momentos del año.
  • Desarrollar un modelo predictivo capaz de estimar la llegada futura de turistas y su impacto en el sector de la vivienda turística.
  • Contribuir a mitigar la crisis habitacional aportando datos y análisis que permitan entender cómo el turismo está afectando a la disponibilidad de vivienda para los residentes.
  • Apoyar la planificación empresarial y urbanística, ofreciendo a empresas, inversores y administraciones una herramienta de análisis que facilite la toma de decisiones estratégicas.

Se trata, en definitiva, de poner la inteligencia de los datos al servicio de uno de los debates más actuales que tiene Tenerife sobre la mesa.

La universidad como puente entre los datos y la sociedad

La elección de la Cátedra Cajasiete Big Data, Open Data y Blockchain de la Universidad de La Laguna como espacio para dar visibilidad a los ganadores es en sí misma un mensaje: la Universidad tiene un papel clave en la construcción del ecosistema de datos abiertos en Tenerife.

Esta cátedra lleva años trabajando en la frontera entre la investigación académica y la aplicación práctica de tecnologías como el análisis de datos masivos, la cadena de bloques o la reutilización de información pública. Su implicación en este concurso y en la difusión de sus resultados refuerza la idea de que los datos abiertos son también un recurso de valor para la formación, la investigación y el desarrollo económico local.

El éxito de esta primera convocatoria ha confirmado que había demanda real de este tipo de iniciativas. Tanto es así que el Cabildo ya ha lanzado el II Concurso de Datos Abiertos: Desarrollo de APP, que da continuidad al proceso llevando las ideas al siguiente nivel: el desarrollo de aplicaciones funcionales.

Si en la primera edición se premiaron ideas y propuestas conceptuales, en esta segunda convocatoria el reto es construir soluciones reales, con código, interfaz de usuario y funcionalidades demostradas. La dotación económica es de 6.000 euros repartidos en tres premios.

Proyectos como Cultiva+ Tenerife o el Análisis del impacto turístico en la vivienda demuestran que hay ideas con potencial para convertirse en herramientas útiles y sostenibles. Esta segunda fase es la oportunidad de materializarlas.

calendar icon
Blog

Voy a subirte un fichero CSV. Quiero que lo analices y me resumas las conclusiones más relevantes que puedas extraer de los datos”. Hace unos años, el análisis de datos era territorio de quien sabía escribir código y utilizar entornos técnicos complejos, y una petición así habría requerido programación o habilidades avanzadas de Excel. Hoy, poder analizar en poco tiempo ficheros de datos con herramientas de IA nos aporta una gran autonomía profesional. Formular preguntas, contrastar ideas preliminares y explorar de primera mano la información cambia nuestra relación con el conocimiento, sobre todo, porque dejamos de depender de intermediarios para obtener respuestas. Ganar la capacidad de analizar datos con IA de manera independiente acelera los procesos, pero también puede provocarnos un exceso de confianza en las conclusiones.

A partir del ejemplo de un fichero de datos en bruto, vamos a revisar posibilidades, precauciones y pautas básicas para explorar la información sin asumir conclusiones demasiado rápido.

El fichero:

Para mostrar un ejemplo de análisis de datos con IA utilizaremos un fichero del Instituto Nacional de Estadística (INE) que recoge información sobre flujos turísticos en Europa, en concreto sobre ocupación en alojamientos de turismo rural. El fichero de datos contiene información desde enero de 2001 hasta diciembre de 2025. Contiene desagregaciones por sexo, edad y comunidad o ciudad autónoma, lo que permite realizar análisis comparativos a lo largo del tiempo. En el momento de escribir este artículo, la última actualización de este conjunto de datos fue el 28 de enero de 2026.

Captura de pantalla de la página del Instituto Nacional de Estadística (INE) correspondiente a un dataset.  En la parte superior aparece el título del conjunto de datos:  “Encuesta de ocupación en alojamientos de turismo rural”  Debajo se muestra una línea con un icono y la opción de acceso mediante API junto al nombre del dataset:  “Viajeros y pernoctaciones por comunidades y ciudades autónomas”  Sobre esta línea aparece un cuadro emergente informativo (tooltip) con el siguiente texto:  “Última modificación: 28/01/2026 Dimensiones: Comunidades y Ciudades Autónomas, Viajeros y pernoctaciones, Residencia Periodo: 2001ene. - 2025dic.”  A la izquierda de las filas aparecen varios iconos circulares y etiquetas “API” que indican opciones de acceso a los datos. En el fondo se distingue parte del texto de la página relacionado con la encuesta y sus dimensiones, aunque parcialmente cubierto por el cuadro emergente.

Figura 1. Información del dataset. Fuente: Instituto Nacional de Estadística (INE).

1. Exploración inicial

Para esta primera exploración vamos a utilizar una versión gratuita de Claude, el chat multitarea basado en IA desarrollado por Anthropic. Es uno de los modelos de lenguaje más avanzados en benchmarks de razonamiento y análisis, lo que lo hace especialmente adecuado para este ejercicio, y es la opción más utilizada actualmente por la comunidad para realizar tareas que requieren código.

Pensemos que nos enfrentamos al fichero de datos por primera vez. Sabemos a grandes rasgos qué contiene, pero desconocemos la estructura de la información. Nuestro primer prompt, por tanto, debería centrarse en describirla:

PROMPT: Quiero trabajar con un fichero de datos sobre ocupación en alojamientos de turismo rural. Explícame qué estructura tiene el fichero: qué variables contiene, qué mide cada una y qué posibles relaciones existen entre ellas. Señala también posibles valores ausentes o elementos que requieran aclaración.

Captura de pantalla de  la exploración inicial del fichero de datos realizada por Claude. Incluye el apartado “Descripción general”, donde se indica que el fichero contiene 36.000 filas (más la cabecera) con datos mensuales sobre viajeros y pernoctaciones en alojamientos de turismo rural en España, procedentes presumiblemente del INE (Instituto Nacional de Estadística). Cubre desde enero de 2001 hasta diciembre de 2025, con desagregación territorial y por origen de los visitantes. Debajo aparece la sección “Variables (columnas)”, que explica varias columnas del dataset: Totales territoriales, Comunidades y Ciudades Autónomas, Viajeros y pernoctaciones, Residencia: Nivel 1 y Residencia: Nivel 2, con descripciones de qué mide cada variable y los valores posibles (por ejemplo, viajeros, pernoctaciones, residentes en España o residentes en el extranjero). A continuación se recogen los detalles de cada apartado. Totales Territoriales — Solo tiene un valor en todo el fichero: "Total Nacional". Esta columna identifica el ámbito máximo de agregación, pero en la práctica no aporta variación. Probablemente existe porque la fuente original permite otros ámbitos (provincias, municipios) que aquí no están incluidos.  Comunidades y Ciudades Autónomas — Identifica el territorio concreto: las 17 comunidades autónomas más Ceuta y Melilla (19 territorios en total). Cuando esta columna está vacía (NaN), la fila corresponde al agregado del conjunto de España, es decir, al "Total Nacional" sin desglose territorial. Hay 1.800 filas en esta situación.  Viajeros y pernoctaciones — Indica qué magnitud se mide. Solo tiene dos valores: Viajeros (número de personas que se alojan) y Pernoctaciones (número de noches que pasan esos viajeros). Cada fila recoge una de las dos métricas, por lo que ambas coexisten en filas separadas para los mismos territorios y periodos.  Residencia: Nivel 1 — Solo contiene el valor "Total" en todas las filas. Es un nivel de agregación superior que indica que los datos no están desglosados por tipo de residencia a este nivel. No aporta variación útil tal como viene en el fichero. Residencia: Nivel 2 — Desglosa la procedencia del viajero en tres posibilidades: el agregado (NaN, equivalente a

Figura 2. Exploración inicial del fichero de datos con Claude. Fuente: Claude.

Una vez que Claude nos ha dado la idea general y la explicación de las variables, es buena práctica abrir el fichero y hacer una comprobación rápida. El objetivo es evaluar que, como mínimo, el número de filas, el número de columnas, los nombres de las variables, el período temporal y el tipo de datos coinciden con lo que nos ha dicho el modelo.

Si detectamos algún error en este punto, el LLM puede no estar leyendo correctamente los datos. Si después de intentarlo en otra conversación el error persiste, es señal de que hay algo en el fichero que dificulta su lectura automática. En este caso, lo más recomendable es no proseguir con el análisis, ya que las conclusiones serán muy aparentes, pero estarán basadas en datos mal interpretados.

2. Gestión de anomalías

En segundo lugar, si hemos descubierto anomalías, lo habitual es documentarlas y decidir cómo manejarlas antes de seguir con el análisis. Podemos pedir al modelo que nos sugiera qué hacer, pero las decisiones finales serán nuestras. Por ejemplo:

  • Valores faltantes: si hay celdas vacías, tenemos que decidir si rellenarlas con un valor “promedio” de la columna o simplemente eliminar esas filas.
  • Duplicados: tenemos que eliminar filas repetidas o que no aportan información nueva.
  • Errores de formato o inconsistencias: debemos corregirlos para que las variables sean coherentes y comparables. Por ejemplo, fechas representadas en distintos formatos.
  • Outliers: si aparece un número que no tiene sentido o es exageradamente distinto del resto, tenemos que decidir si corregirlo, ignorarlo o tratarlo tal y como está.

Ejemplo de análisis de valores faltantes con Claude. Se le pregunta a Claude “Enséñame un ejemplo de los valores ausentes en Total para Ceuta y Melilla” y su respuesta es: Aquí lo tienes. Las filas nulas de Ceuta y Melilla tienen exactamente la misma estructura: la columna Total está vacía en todos los periodos y para todas las combinaciones de métrica y origen, sin excepción. Son 1.800 filas nulas por cada ciudad (300 meses × 2 métricas × 3 niveles de residencia = 1.800), y ese patrón es perfectamente uniforme: no hay ni un solo mes con dato registrado para ninguna de las dos ciudades. Esto confirma que no se trata de datos perdidos puntualmente, sino de una ausencia total y sistemática. El INE simplemente no recoge turismo rural en Ceuta y Melilla, y las filas existen en el fichero porque la estructura de la tabla las genera por construcción al cruzar todos los territorios con todos los periodos.

 Figura 3. Ejemplo de análisis de valores faltantes con Claude. Fuente: Claude.

En el caso de nuestro fichero, por ejemplo, hemos detectado que en Ceuta y Melilla los valores ausentes en la variable Total son estructurales, no hay turismo rural registrado en esas ciudades, por lo que podríamos excluirlas del análisis.

Antes de tomar la decisión, una buena práctica en este punto es pedir al LLM los pros y contras de la modificación en los datos. Su respuesta puede darnos alguna pista de cuál es la mejor opción, o indicarnos algún inconveniente que no habíamos tenido en cuenta.

Ejemplo de análisis de Claude sobre la posibilidad de eliminar o no valores. Se le pregunta a Claude “¿Tiene sentido eliminar Ceuta y Melilla del análisis?” y responde: Depende del objetivo del análisis, pero en la mayoría de los casos sí tiene sentido eliminarlas, por varias razones. La más obvia es la que ya vimos: no aportan ningún dato útil. Con 3.600 filas completamente vacías, su presencia solo añade ruido y puede complicar cálculos agregados o visualizaciones sin ningún beneficio informativo. Además, su exclusión está conceptualmente justificada. Ceuta y Melilla son ciudades autónomas de carácter urbano y portuario, sin el tipo de entorno rural que caracteriza a este tipo de alojamiento. No es que les falten datos: es que el fenómeno que mide la estadística sencillamente no existe ahí de forma apreciable. Incluirlas distorsionaría cualquier comparación entre territorios, especialmente si calculas medias, rankings o representaciones en mapa. Dicho esto, hay situaciones en las que podría tener sentido mantenerlas. Si el análisis es puramente descriptivo del fichero original (por ejemplo, un informe de calidad de datos), eliminarlas ocultaría información relevante sobre la cobertura territorial. Y si en algún momento el INE empezara a registrar datos para esas ciudades, tenerlas en la estructura facilitaría la incorporación futura.

Figura 4. Análisis de Claude sobre la posibilidad de eliminar o no valores. Fuente: Claude.

Si decidimos seguir adelante y excluir las ciudades de Ceuta y Melilla del análisis, Claude puede ayudarnos a efectuar esta modificación directamente sobre el fichero. El prompt sería el siguiente:

PROMPT: Elimina del fichero todas las filas correspondientes a Ceuta y Melilla, de manera que el resto de los datos se mantenga intacto. Explica también los pasos que estás siguiendo para que pueda revisarlos.

Captura de la respuesta de Cloud ante el promt anterior.:“Ejecutó 2 comandos, leyó un archivo > Estos son los pasos que he seguido: 1. Carga del fichero original sin modificarlo, manteniendo el separador de tabulación y la codificación UTF-8 con BOM que usa el fichero del INE. 2. Filtrado usando la condición inversa: se conservan todas las filas cuyo valor en Comunidades y Ciudades Autónomas no sea '18 Ceuta' ni '19 Melilla'. El resto de filas, incluidas las del Total Nacional (donde esa columna está vacía), se mantienen intactas. 3. Verificación antes de guardar, comprobando tres cosas: que la diferencia de filas es exactamente 3.600 (las esperadas: 1.800 de Ceuta + 1.800 de Melilla), que los 17 territorios restantes son los correctos, y que los nulos en Total han desaparecido por completo, lo que confirma que todos los nulos del fichero procedían exclusivamente de esas dos ciudades. 4. Guardado en un fichero nuevo, manteniendo el mismo formato (TSV, UTF-8 con BOM) para que sea compatible con las mismas herramientas que el original. El resultado es un fichero de 32.400 filas, sin ningún valor ausente en Total. Viajeros y pernoctaciones sin ceuta melilla Tabla · CSV Descargar

Figura 5. Paso a paso en la modificación de datos en Claude. Fuente: Claude.

En este punto, Claude nos ofrece descargar de nuevo el fichero modificado, así que una buena práctica de comprobación sería validar de forma manual que la operación se hizo bien. Por ejemplo, revisar el número de filas en un fichero y otro o cotejar algunas filas al azar con el primer fichero para asegurarnos de que los datos no se han corrompido.

3. Primeras preguntas y visualizaciones

Si el resultado hasta aquí es satisfactorio, ya podemos empezar a explorar los datos para hacernos preguntas iniciales y buscar patrones interesantes. Lo ideal al empezar la exploración es hacer preguntas grandes, claras y fáciles de responder con los datos, porque nos dan una primera visión.

PROMPT: Trabaja con el fichero sin Ceuta y Melilla a partir de ahora. ¿Cuáles han sido las cinco comunidades con más turismo rural en el período total?

Captura de pantalla de una respuesta generada por Cloud. En la parte superior aparece la indicación:  “Ejecutó 2 comandos >”  Debajo se lee el siguiente texto:  “Tomando como referencia el total acumulado de viajeros a lo largo de todo el período (enero 2001 – diciembre 2025) y usando el agregado sin distinción de origen (residentes en España + extranjeros), el ranking es el siguiente:”  A continuación aparece una tabla con tres columnas: #, Comunidad, Viajeros totales.  Filas de la tabla:  1 — Castilla y León — 14.745.928 2 — Cataluña — 8.568.320 3 — Andalucía — 5.682.985 4 — Castilla-La Mancha — 5.256.132 5 — Illes Balears — 4.953.850  Debajo de la tabla aparece el siguiente párrafo explicativo:  “Castilla y León destaca de forma muy clara, casi duplicando a Cataluña, la segunda. Su posición de liderazgo tiene sentido dado que es la comunidad con mayor superficie rural de España y cuenta con una oferta consolidada de casas rurales desde hace décadas. Llama la atención la presencia de Illes Balears en el top 5, ya que habitualmente se asocia más al turismo de sol y playa, lo que sugiere que también tiene un segmento rural relevante.”

Figura 6. Respuesta de Claude a las cinco comunidades con más turismo rural en el período. Fuente: Claude.

Por último, podemos pedirle a Claude que nos ayude a visualizar los datos. En lugar de hacer el esfuerzo de indicarle un tipo de gráfico concreto, le damos libertad para elegir el formato que mejor muestre la información.

PROMPT: ¿Puedes visualizar esta información en un gráfico? Elige el formato más adecuado para representar los datos.

Captura de pantalla de una interfaz dividida en dos paneles que muestra la respuesta de Cloud a la petición de visualizar datos en un gráfico.  Panel izquierdo (conversación / explicación)  En la parte superior aparece una etiqueta:  “Estructura de datos de ocupación en turismo rural”  Debajo aparece el mensaje del usuario:  “¿Puedes visualizar esta información en un gráfico? Elige el formato más adecuado para representar los datos.”  A continuación, el asistente responde:  “Visualizo un gráfico de barras horizontales, que es el formato más adecuado para comparar magnitudes entre categorías nominales como las comunidades autónomas. Las barras horizontales permiten leer los nombres completos y facilitan comparar visualmente las distancias entre valores, algo que un gráfico de tarta o líneas haría tan bien aquí.  Cada barra se escala proporcionalmente respecto al máximo (Castilla y León) y se animan al cargar para que la comparación resulte más intuitiva.”  Debajo aparece un bloque descargable con un icono de archivo y el texto:  “Top5 turismo rural” Código · HTML  A la derecha del bloque hay un botón:  “Descargar”  En la parte inferior izquierda del panel aparece un pequeño icono de carga (spinner).  Panel derecho (vista previa del gráfico)  En la parte superior derecha hay una barra con el nombre del archivo:  “Top5 turismo rural · HTML”  A la derecha aparece un botón:  “Copiar”  Debajo se muestra la visualización:  Texto pequeño en la parte superior:  “ENCUESTA DE OCUPACIÓN EN ALOJAMIENTOS DE TURISMO RURAL · INE”  Título grande:  “Top 5 comunidades en turismo rural”  Subtítulo:  “Total acumulado de viajeros · 2001–2025”  Debajo aparece un gráfico de barras horizontales con cinco comunidades y sus valores aproximados:  Castilla y León — barra larga de color rojo oscuro — 14,7M  Cataluña — barra verde — 8,6M  Andalucía — barra marrón — 5,7M  Castilla-La Mancha — barra verde claro — 5,3M  Illes Balears — barra naranja claro — 4,9M  En la parte inferior aparece un pequeño texto de nota:  “Datos agregados de viajeros en alojamientos de turismo rural (residentes en España + extranjeros). Fuente: Encuesta de Ocupación en Alojamientos de Turismo Rural, INE.”  En la esquina inferior derecha se lee:  “España · 2001–2025”.

Figura 7. Gráfico elaborado por Cloude para representar la información. Fuente: Claude.

Aquí, la pantalla se desdobla: a la izquierda, podemos continuar con la conversación o descargar el fichero, mientras que a la derecha podemos visualizar el gráfico directamente. Claude ha generado una gráfica de barras horizontales muy visual y lista para usar. Los colores diferencian las comunidades y se indica correctamente el período y el tipo de datos.

¿Qué ocurre si le pedimos cambiar la paleta de color del gráfico por una inadecuada? En este caso, por ejemplo, vamos a pedirle una serie de tonos pastel que apenas se diferencian.

PROMPT: ¿Puedes cambiar la paleta de colores del gráfico por esta otra? #E8D1C5, #EDDCD2, #FFF1E6, #F0EFEB, #EEDDD3

Captura de pantalla de una interfaz dividida en dos paneles que muestra la respuesta de Cloud a la solicitud de cambiar la paleta de colores de un gráfico.  Panel izquierdo (conversación)  En la parte superior aparece una etiqueta:  “Estructura de datos de ocupación en turismo rural”  Debajo aparece el mensaje del usuario dentro de un globo de conversación:  “¿Puedes cambiar la paleta de colores del gráfico por esta otra? #E8D1C5, #EDDCD2, #FFF1E6, #F0EFEB, #EEDDD3”  A continuación aparece la respuesta del asistente:  “Usaré los colores de la nueva paleta en suave y claros, lo que puede hacer que las barras sean difíciles de distinguir del fondo. Para mantener la legibilidad, voy a oscurecer ligeramente el fondo y ajustar el color del texto de las etiquetas de valor para que contrasten bien.  Hecho. He aplicado los cinco colores que indicaste a las barras. Como la paleta es muy clara y pálida, he cambiado también el fondo a un tono oscuro para que las barras resalten y el gráfico sea legible, manteniendo el resto del diseño intacto.”  Debajo aparece un bloque descargable con un icono de archivo y el texto:  “Top5 turismo rural” Código · HTML  A la derecha del bloque hay un botón:  “Descargar”  En la parte inferior izquierda del panel aparecen varios puntos indicadores de estado y un pequeño icono de carga (spinner).  Panel derecho (vista previa del gráfico)  En la parte superior hay una barra con el nombre del archivo:  “Top5 turismo rural · HTML”  A la derecha aparecen botones de acción, incluido:  “Copiar”  Debajo se muestra la visualización con fondo oscuro.  Texto pequeño en la parte superior del gráfico:  “ENCUESTA DE OCUPACIÓN EN ALOJAMIENTOS DE TURISMO RURAL · INE”  Título principal:  “Top 5 comunidades en turismo rural”  Subtítulo:  “Total acumulado de viajeros · 2001–2025”  Debajo aparece un gráfico de barras horizontales con cinco comunidades y valores a la derecha de cada barra. Las barras utilizan tonos claros de la paleta solicitada.  Elementos del gráfico:  Castilla y León — barra larga de tono claro — 14,7M  Cataluña — barra clara — 8,6M  Andalucía — barra clara — 5,7M  Castilla-La Mancha — barra clara — 5,3M  Illes Balears — barra clara — 5,0M  En la parte inferior aparece un texto explicativo pequeño:  “Datos agregados de viajeros en alojamientos de turismo rural (residentes en España + extranjeros). Fuente: Encuesta de Ocupación en Alojamientos de Turismo Rural, INE.”  En la esquina inferior derecha del gráfico se lee:  “España · 2001–2025”.

Figura 8. Ajustes realizados en el gráfico por Claude para representar la información. Fuente: Claude.

Ante el reto, Claude ajusta por sí mismo el gráfico de manera inteligente, oscurece el fondo y cambia el texto de las etiquetas para mantener legibilidad y contraste.

 

Todo el ejercicio anterior se ha realizado con Claude Sonnet 4.6, que no es el modelo de mayor calidad de Anthropic. Sus versiones superiores, como Claude Opus 4.6, tienen mayor capacidad de razonamiento, comprensión profunda y resultados más finos. Además, existen muchas otras herramientas para trabajar con datos y visualizaciones basadas en IA, como JuliusQuadratic. Aunque en ellas las posibilidades son casi infinitas, cuando trabajamos con datos sigue siendo fundamental mantener una metodología y un criterio propios.

Contextualizar en la vida real los datos que estamos analizando y conectarlos con otros conocimientos no es una tarea que se pueda delegar; necesitamos tener una mínima idea previa de qué queremos conseguir con el análisis para poder transmitirla al sistema. Esto nos permitirá hacer mejores preguntas, interpretar adecuadamente los resultados y por tanto hacer un prompting más eficaz. 

Contenido elaborado por Carmen Torrijos, experta en IA aplicada al lenguaje y la comunicación. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.

calendar icon
Aplicación

Gasofinder es una aplicación web moderna y eficiente diseñada para ayudar a los usuarios a encontrar las gasolineras más económicas y cercanas a su ubicación en tiempo real. Utilizando datos oficiales y un mapa interactivo, la aplicación permite ahorrar dinero en cada repostaje. En concreto, ofrece

  • Mapa Interactivo:

    • Visualización Clara: utiliza mapas de OpenStreetMap con un diseño limpio (Carto Voyager).
    • Marcadores Inteligentes:
      • 🟢 Verde: precios bajos.
      • 🟡 Amarillo: precios medios.
      • 🔴 Rojo: precios altos.
      • Iconos Especiales: Identifica rápidamente la gasolinera más barata (⭐) y la más cara (⚠️) de la zona visible.
    • Ahorro y Precios con datos en tiempo real: obtiene precios actualizados directamente del Ministerio para la Transición Ecológica. -
      • Cálculo de Llenado: introduce la capacidad de tu depósito (por defecto 55L) para ver cuánto te costará llenarlo.
      • Estimación de Ahorro: muestra cuánto ahorras en comparación con la opción más cara de la zona.
      • Termómetro de Precios: una barra visual que indica si el precio de una estación es bueno, regular o malo en comparación con los mínimos y máximos locales.
      • Personalización y Filtros
        • Tipo de Combustible: filtra por Gasóleo A, Gasolina 95 E5, Gasolina 98 E5 o Gasóleo Premium.
        • Tamaño del Depósito: ajustable para cálculos personalizados.
        • Enlace a Puntos de Recarga: acceso directo al mapa oficial de puntos de recarga eléctrica.
        • Navegación y Ubicación - Geolocalización: detecta tu ubicación automáticamente (primero aproxima y luego precisa).
        • Rutas: calcula automáticamente la distancia y el tiempo de viaje a la gasolinera seleccionada.
        • Integración con GPS: abre la ubicación directamente en Google Maps, Waze o Apple Maps con un solo clic.
        • Modo Bloqueo: permite "fijar" una gasolinera seleccionada para que no cambie automáticamente mientras mueves el mapa. 

     

 Aclaración de Iconos 

Ubicación(📍) Muestra tu posición actual. 

Estrella (⭐) La opción más económica visible. 

Alerta (⚠️) La opción más costosa visible.

calendar icon
Empresa reutilizadora

Centraldecomunicacion.es es una plataforma española especializada en bases de datos de empresas y listados de empresas listos para su uso en prospección comercial B2B, análisis de mercado, segmentación por sector/provincia y campañas de crecimiento. Trabajan con señales públicas y presencia digital verificable para construir registros empresariales que sean accionables: ubicación, actividad, reputación online y canales de contacto cuando están disponibles. Los datos se entregan en formatos compatibles (Excel/CSV) para integrarse en flujos de trabajo habituales (CRM, email marketing, BI/Excel, automatizaciones). 

En las bases se incluyen campos como: nombre, categoría/sector, descripción, dirección completa, localidad/provincia, coordenadas, URL de Google Maps, además de teléfono, email corporativo, web y redes sociales cuando aparecen públicamente. También se incorporan señales de reputación como rating, número de reseñas y, en algunos casos, texto de reseñas, así como horarios. 

Un diferenciador clave es el enfoque de calidad: se publican metodologías y herramientas de verificación (incluyendo verificación de emails) para reducir rebote y mejorar la utilidad real del dato. Además, se ofrecen recursos abiertos como el listado de códigos postales y utilidades relacionadas con categorización/segmentación.

calendar icon
Documentación

Introducción

Cada año se producen en España decenas de miles de accidentes, en los que miles de personas resultan heridas de diversa consideración, y que ocurren en circunstancias muy diversas, tanto de tipo de vía, como por el tipo de accidente.

Muchas de las estadísticas relacionadas con estos parámetros están recogidas en las bases de datos de la Dirección General de Tráfico (DGT) y algunas de ellas en el catálogo albergado en datos.gob.es.  

En este ejercicio examinaremos el contenido de la base de datos de siniestralidad de la DGT para el año 2024 con el fin de realizar una serie de visualizaciones básicas que nos permitan ver de forma rápida e intuitiva cuáles son los hechos a destacar respecto a la incidencia de accidentes y sus consecuencias en ese año.  

Para ello vamos a desarrollar código en Python que nos permita la lectura y cálculo de métricas básicas respecto al número total de víctimas, las particularidades de las infraestructuras así como las diferentes casuísticas de los accidentes. Y una vez tengamos disponibles esos datos, los visualizaremos utilizando la librería de Javascript D3.js, que nos permite tanto la representación de datos en su forma más tradicional como en diseños más contemporáneos, habituales en la prensa, favoreciendo así una narrativa fluída en estilo y coherente en contenido. 

En el entorno de Python utilizaremos librerías de uso común y frecuente como son Numpy, para el cálculo básico - sumas, máximos y mínimos-, y Pandas, para estructurar los datos de forma intuitiva, facilitando tanto su organización como su transformación. Igualmente trabajaremos con Datetime, tanto para el formateo de los datos de entrada en tipos de fecha estándares dentro del mundo de la programación en Python, como para agregar los datos de forma fácil e intuitiva. De esta forma aprenderemos a abrir cualquier tipo de fichero de datos en formato .CSV, a estructurarlo de forma ordenada y a realizar transformaciones y operaciones básicas de forma sencilla.  

En el entorno de Javascript desarrollaremos notebooks en D3.js gracias al uso de Observable, una iniciativa abierta y gratuita, para poder ejecutar código de Javascript directamente en un interfaz web, y sin tener que recurrir a servidores locales o complejas instalaciones. En diferentes notebooks crearemos visualizaciones clásicas -como las series temporales en ejes cartesianos o mapas- junto con otras propuestas tales como distribuciones de burbujas o elementos apilados por categorías. 

En la Figura 1 se pueden ver las principales etapas de este ejercicio, desde la lectura de los datos dentro del fichero de la DGT, hasta las operaciones y las variables de salida en formato JSON, que nos servirán a su vez en un entorno Javascript para poder desarrollar las visualizaciones en D3.js.

Pasos a seguir para realizar el ejercicio, desde CSV a visualización en Javascript. Flujo de trabajo. 1. Datos de siniestralidad de la DGT en 2024. 2. Lectura, estructuración y cálculo de métricas (usando Python, Numpy, Pandas y Datetime). 3. Conversión de las métricas en JSON. 4. Visualización en Javascript (Observable y D3.js)

Figura 1. Pasos en los cuales se estructura este ejercicio, con punto de partida en la base de datos de la DGT, el procesado y manipulación de esos datos en Python, la creación de ficheros de salida en formato JSON y su uso en Javascript para visualizar los resultados. 

El acceso al repositorio de Github, el notebook de Google Colab y los notebooks de Observable se pueden realizar a través de los siguientes enlaces:

Accede al repositorio del laboratorio de datos en GitHub

Accede al notebook de GoogleColab

Accede a los notebooks de Observable

Proceso de Desarrollo 

1. Lectura del fichero de datos 

El primer paso será leer el fichero de la DGT que contiene todos los registros de accidentes del año 2024. Este paso nos permitirá identificar los campos de interés y sobre todo en qué formato se encuentran. Podremos identificar si se precisa de alguna transformación sobre todo en la información de la fecha, tal y como está estructurada en el fichero de origen.  

Igualmente veremos cómo traducir los códigos de muchas de las categorías que nos ofrece la DGT, de modo que podamos hacer una interpretación real más allá de los números de categorías como tipo de accidente, tipo de vía o titularidad de la vía.  

Una vez entendemos la estructura y contenido de los datos podemos empezar a operar con ellos.  

2. Cálculo de métricas 

La librería Pandas de Python nos permite operar con las diferentes columnas de datos y realizar cálculos básicos que serán suficientemente representativos para entender mínimamente la casuística de los accidentes en las carreteras españolas.  

En este apartado se realizarán tres tipos de cálculos.  

  • El primero de ellos será el cálculo del número total de víctimas por hora del día para cada uno de los días de la semana. La base de datos de la DGT viene estructurada por día de la semana, de forma que utilizaremos también esa escala temporal para representar los datos en una serie. Cabe hacer notar que por víctima se considera toda aquella persona que ha fallecido o que sea diagnosticada como herida grave o leve.
  • El segundo cálculo será la suma total de accidentes para diferentes categorías, tales como la titularidad de la vía, el tipo de accidente o el tipo de vía. Esto nos permitirá ver cuáles son las condiciones en las cuales los accidentes son más frecuentes.
  • El tercer cálculo será el de número de accidentes por municipio. En este caso realizaremos el cálculo restringido a la provincia de Valencia como ejemplo, y que sería aplicable a cualquier provincia o municipio de nuestro interés. En este caso observaremos las diferencias entre los núcleos urbanos y no urbanos, así como aquellos municipios por los que pasan las principales vías de comunicación.

3. Diseño de las visualizaciones  

Una vez hemos calculado las métricas de interés, desarrollaremos cinco ejercicios de visualización en D3.js. Para ello exportaremos en formato JSON el resultado de las métricas y crearemos notebooks en Observable. En concreto realizamos las siguientes visualizaciones:  

  • Serie temporal con el número total de víctimas en cada hora y día de la semana, con un menú desplegable interactivo para seleccionar el día de la semana de interés. A mayores de la curva que describe el número de víctimas dibujaremos sobre el fondo de la gráfica la incertidumbre de todos los días de la semana, de forma que la serie temporal diaria queda enmarcada en el contexto de toda la semana como referencia.
  • Mapa de la provincia de Valencia con el número total de accidentes por municipio.
  • Diagrama de burbujas, con las diferentes magnitudes de los diferentes tipos de accidentes con el número total de accidentes en cada caso escrita de forma detallada.
  • Diagrama de puntos apilados, donde acumulamos círculos o cualquier otra forma geométrica para las diferentes titularidades de la vía y su número total de accidentes dentro del marco de cada titularidad.
  • Diagrama de sierra, con la altura de cada montaña correspondiente al número de accidentes en cada tipo de vía en escala logarítmica. 

Visualización de las métricas  

El resultado de este ejercicio se podrá ver de forma gráfica y explícita en forma de visualizaciones realizadas para el formato web y accesibles desde una interfaz también web, tanto para su desarrollo como para su posterior publicación.  Todo el conjunto de visualizaciones se encuentra en el repositorio de Datos.gob.es en Observable: 

Accede a los notebooks de Observable

En la Figura 2 tenemos el resultado de la serie temporal del total de víctimas respecto a la hora del día para diferentes días de la semana. La serie temporal está enmarcada dentro de la incertidumbre del total de días de la semana, para dar una idea del margen de variabilidad que podemos tener dependiendo de la hora del día.  

Serie temporal del total de víctimas en accidentes por hora del día para todos los días de la semana en 2024. En el fondo en color azul claro se indica la incertidumbre asociada a todos los días de la semana como contexto, con menú desplegable para seleccionar el día de la semana.

Figura 2. Serie temporal del total de víctimas en accidentes por hora del día para todos los días de la semana en 2024. En el fondo en color azul claro se indica la incertidumbre asociada a todos los días de la semana como contexto, con menú desplegable para seleccionar el día de la semana.

En la Figura 3 podemos observar el mapa de la provincia de Valencia con una intensidad de color proporcional al número de accidentes en cada municipio. Aquellos municipios en los cuales no se han registrado accidentes aparecen en color blanco. De forma intuitiva se puede adivinar el trazado de las principales carreteras que atraviesan la provincia, tanto la carretera hacia el este de la ciudad de Valencia en dirección Madrid como la carretera del interior hacia el sur de la ciudad en dirección a Alicante.  

Mapa del número de accidentes por municipio en la provincia de Valencia en 2024.

Figura 3. Mapa del número de accidentes por municipio en la provincia de Valencia en 2024. 

En la Figura 4 vemos una forma geométrica, el círculo, asociada a los tipos de accidente, con el detalle del número de accidentes asociada a cada categoría. En este tipo de visualización emerge de forma natural aquellos accidentes más frecuentes en torno al centro del diagrama, mientras que aquellos minoritarios o residuales ocupan el perímetro del diagrama para dar igualmente una forma redonda al conjunto de formas.

Diagrama de burbujas del número de accidentes por tipo de accidente en 2024.

Figura 4. Diagrama de burbujas del número de accidentes por tipo de accidente en 2024. 

En la Figura 5 se puede contemplar el tradicional diagrama de barras pero esta vez descompuesto en unidades más pequeñas, para afinar la cantidad de accidentes asociada a la titularidad de la vía donde han sucedido. Este tipo de diagramas permite discernir pequeñas diferencias entre magnitudes parecidas, preservando el mensaje general que obtenemos de un cálculo de estas características.  

Diagrama de barras con discretización de puntos para el número de accidentes por titularidad de la vía en el 2024.

Figura 5. Diagrama de barras con discretización de puntos para el número de accidentes por titularidad de la vía en el 2024. 

En la Figura 6 creamos una serie de formas geométricas que replican una cordillera o sierra donde los diferentes picos apuntan a la diferencia de número de accidentes por tipo de vía. Dada la diferencia en órdenes de magnitud establecemos una escala logarítmica, que permita comparar en el mismo diagrama diferentes casuísticas. 

Diagrama en cordillera para los diferentes órdenes de magnitud del número de accidentes por tipo de vía en el 2024.

Figura 6. Diagrama en cordillera para los diferentes órdenes de magnitud del número de accidentes por tipo de vía en el 2024. 

Lecciones aprendidas 

A través de estos pasos aprenderemos toda una serie de habilidades transversales que nos permiten trabajar con aquellos conjunto de datos que se nos presentan en formato CSV en columnas, un formato muy popular para el cual podremos realizar tanto su análisis como su visualización. Estas lecciones son en concreto:  

  • Universalidad de lectura y estructuración de datos: el uso de herramientas como Python, con sus librerías Numpy y Pandas, permiten acceder a los datos en detalle y estructurarlos de forma ordenada e intuitiva con pocas líneas de código.
  • Cálculos sencillos en Pandas: la propia librería de Python permite cálculos sencillos pero esenciales para la interpretación preliminar de resultados.
  • Formato Datetime: a través de esta librería de Python podemos familiarizarnos con el estándar del formato de fecha, y así realizar todo tipo de transformaciones, filtros y selecciones que más nos interesen en cualquier intervalo temporal.
  • Formato JSON: una vez que decidimos dar espacio a nuestras visualizaciones en la web, aprender la estructura y uso del formato JSON es de gran utilidad dado su amplio uso en todo tipo de aplicaciones y arquitecturas web.
  • Espectro de posibilidades de D3.js: esta librería de Javascript nos permite explorar de lo más tradicional y conservador a lo más creativo gracias a sus principios basados en las formas más básicas, sin plantillas, templates o diagramas predefinidos. 

Conclusiones y próximos pasos 

Hemos aprendido a leer y a estructurar datos según los estándares de los formatos más utilizados en el mundo del análisis y visualización. Este ejercicio también sirve como módulo introductorio al mundo de D3.js, una herramienta muy versátil, vigente y popular dentro del mundo del storytelling y la visualización de datos a todos los niveles.  

Para poder avanzar en este ejercicio se recomienda:  

  • Para los analistas y desarrolladores, se puede prescindir de la librería Pandas y estructurar los datos con objetos más elementales de Python como arrays y matrices, buscando qué funciones y qué operadores permiten realizar las mismas tareas que hace Pandas pero de una forma más fundamental, sobre todo si pensamos en entornos de producción para los cuales necesitamos el menor número de librerías posibles para aligerar la aplicación.
  • Para los creadores de visualizaciones, la información sobre los municipios puede proyectarse igualmente sobre bases cartográficas ya existentes como OpenStreetMap y de esta forma vincular la incidencia de accidentes a características orográficas o infraestructuras ya reflejadas en esas bases cartográficas. Para las magnitudes de los números de accidentes se pueden explorar diagramas de tipo Treemap o diagramas de Voronoi y ver si transmiten el mismo mensaje que los que presentamos en este ejercicio.   

Ámbitos de aplicación 

Los pasos descritos en este ejercicio pueden pasar a formar parte de cualquier caja de herramientas de uso habitual para los siguientes perfiles:  

  • Analistas de datos: aquí se encuentran los pasos básicos para la descripción de un fichero de datos en formato CSV y los cálculos básicos a realizar tanto en el campo de la fecha como de operaciones entre variables de diferentes columnas. Estas herramientas pueden servir para introducirse en el mundo del análisis de datos y ayuda en esos primeros pasos a la hora de enfrentarse a un dataset.
  • Científicos y personal investigador: la universalidad de las herramientas aquí descritas aplican a una gran variedad de origen de datos, como el que se experimenta en las ciencias experimentales y de observaciones o medidas de todo tipo. Estas herramientas permiten un análisis rápido a la vez que riguroso sin importar el campo de conocimiento en el que se trabaje.
  • Desarrolladores web: la exportación de datos en formato JSON así como el código en Javascript que se ofrece en los notebooks de Observable son fácilmente integrables en todo tipo de entornos (Svelte, React, Angular, Vue) y permite la creación de visualizaciones en una web de forma sencilla e intuitiva.
  • Periodistas: abarcar todo el proceso de vida de un fichero de datos, desde su lectura a su visualización, otorga al periodista o investigador independencia a la hora de evaluar e interpretar los datos por sí mismo sin depender de recursos técnicos ajenos. La creación del mapa por municipios abre la puerta a utilizar cualquier otro dato similar, como por ejemplo procesos electorales, con el mismo formato de salida para mostrar variabilidad geográfica respecto a cualquier tipo de magnitud.
  • Diseñadores Gráficos: el manejo de herramientas de visualización con un amplio grado de libertad permite a los diseñadores cultivar toda su creatividad dentro del rigor y la exactitud que los datos necesitan. 
calendar icon
Aplicación

Visor web que muestra en un único mapa los despliegues de fibra de todos los programas PEBA y UNICO, a partir de los datos disponibles en abierto. Cada área tiene el color de fondo del operador adjudicado, y el borde es de un color diferente para cada programa. Para el caso del plan PEBA 2013-2019, como los despliegues se asignan a entidades singulares de población, se muestra un marcador con la ubicación obtenida del CNIG. Además, cuando no se hace zoom sobre el mapa, se muestra un mapa de calor en el que se puede ver la distribución por zonas de los despliegues.

Esta visualización permite evitar tener que comparar en diferentes visores cartográficos si lo que nos interesa es ver qué operadores llegan a qué zonas o simplemente tener una visión global de qué despliegues quedan pendientes en mi zona, y además permite consultar aspectos como la fecha de finalización actualizada, que antes solamente estaban disponibles en los diferentes Excel de cada programa. También creo que podría ser útil de cara a análisis de cómo se reparten las zonas entre los diferentes programas (por ejemplo, si una zona cubierta en el UNICO 2021 luego tiene zonas cercanas en UNICO 2022 cubiertas por ejemplo por otro operador), o incluso posibles solapes (por ejemplo debido a zonas que quedaron sin ejecutar en anteriores programas)

calendar icon
Documentación

Los agentes de IA (como los de Google ADK, LangChain, etc.) son "cerebros". Pero un cerebro sin "manos" no puede actuar en el mundo real (consultar APIs, buscar en bases de datos, etc.). Esas "manos" son las herramientas.

El desafío es: ¿cómo conectas el cerebro con las manos de forma estándar, desacoplada y escalable? La respuesta es el Model Context Protocol (MCP).

Como ejercicio práctico, construiremos un sistema de agente conversacional que permite explorar el Catálogo Nacional de datos abiertos albergado en datos.gob.es mediante preguntas en lenguaje natural, facilitando así el acceso a datos públicos.

En este ejercicio práctico, el objetivo principal es ilustrar, paso a paso, cómo construir un servidor de herramientas independiente que hable el protocolo MCP.

Para hacer este ejercicio tangible y no solo teórico, usaremos, FastMCP para construir el servidor. Para probar que nuestro servidor funciona, crearemos un agente simple con Google ADK que lo consuma. El caso de uso (consultar la API de datos.gob.es) ilustra esta conexión entre herramientas y agentes. El verdadero aprendizaje es la arquitectura, que podrías reutilizar para cualquier API o base de datos.

A continuación se muestran las tecnologías que usaremos y un esquema de cómo están realizados entre sí los diferentes componentes

  • FastMCP (mcp.server.fastmcp): implementación ligera del protocolo MCP que permite crear servidores de herramientas con muy poco código mediante decoradores Python. Es el 'protagonista' del ejercicio.
  • Google ADK (Agent Development Kit): framework para definir el agente de IA, su prompt y conectarlo a las herramientas. Es el 'cliente' que prueba nuestro servidor.
  • FastAPI: para servir el agente como una API REST con interfaz web interactiva.
  • httpx: para realizar llamadas asíncronas a la API externa de datos.gob.es.
  • Docker y Docker Compose: para paquetizar y orquestar los dos microservicios, permitiendo que se ejecuten y comuniquen de forma aislada.

Diagrama que indica el flujo de preguntas, respuestas y llamadas entre cliente, servidor MCP y la fuente de los datos

Figura 1. Arquitectura desacoplada con comunicación MCP.

El diagrama ilustra una arquitectura desacoplada dividida en cuatro componentes principales que se comunican mediante el protocolo MCP. Cuando el usuario realiza una consulta en lenguaje natural, el Agente ADK (basado en Google Gemini) procesa la intención y se comunica con el servidor MCP a través del Protocolo MCP, que actúa como intermediario estandarizado. El servidor MCP expone cuatro herramientas especializadas (buscar datasets, listar temáticas, buscar por temática y obtener detalles) que encapsulan toda la lógica de negocio para interactuar con la API externa de datos.gob.es. Una vez que las herramientas ejecutan las consultas necesarias y reciben los datos del catálogo nacional, el resultado se propaga de vuelta al agente, que finalmente genera una respuesta comprensible para el usuario, completando así el ciclo de comunicación entre el "cerebro" (agente) y las "manos" (herramientas).

Accede al repositorio del laboratorio de datos en GitHub

Ejecuta el código de pre-procesamiento de datos sobre Google Colab

La arquitectura: servidor MCP y agente consumidor

La clave de este ejercicio es entender la relación cliente-servidor:

  1. El Servidor (Backend): es el protagonista de este ejercicio. Su único trabajo es definir la lógica de negocio (las "herramientas") y exponerlas al mundo exterior usando el "contrato" estándar de MCP. Es el responsable de encapsular toda la lógica de comunicación con la API de datos.gob.es.
  2. El Agente (Frontend): es el "cliente" o "consumidor" de nuestro servidor. Su rol en este ejercicio es probar que nuestro servidor MCP funciona. Lo usamos para conectarnos, descubrir las herramientas que el servidor ofrece y llamarlas.
  3. El Protocolo MCP: es el "lenguaje" o "contrato" que permite que el agente y el servidor se entiendan sin necesidad de conocer los detalles internos del otro.

Proceso de desarrollo

El núcleo del ejercicio se divide en tres partes: crear el servidor, crear un cliente para probarlo y ejecutarlos.

1. El servidor de herramientas (el backend con MCP)

Aquí es donde reside la lógica de negocio y el foco de este tutorial. En el archivo principal (server.py), definimos funciones Python simples y usamos el decorador @mcp.tool de FastMCP para exponerlas como 'herramientas' consumibles.

La description que añadimos al decorador es crucial, ya que es la documentación que cualquier cliente MCP (incluyendo nuestro agente ADK) leerá para saber cuándo y cómo usar cada herramienta.

Las herramientas que definiremos en el ejercicio son:

  • buscar_datasets(titulo: str): para buscar datasets por palabras clave en el título.
  • listar_tematicas(): para descubrir qué categorías de datos existen.
  • buscar_por_tematica(tematica_id: str): para encontrar datasets de un tema específico.
  • obtener_detalle_dataset(dataset_id: str): para obtener la información completa de un dataset.

2. El agente consumidor (el frontend con Google ADK)

Una vez construido nuestro servidor MCP, necesitamos una forma de probarlo. Aquí es donde entra Google ADK. Lo usamos para crear un "agente consumidor" simple.

La magia de la conexión ocurre en el argumento tools. En lugar de definir las herramientas localmente, simplemente le pasamos la URL de nuestro servidor MCP. El agente, al iniciarse, consultará esa URL, leerá el "contrato" MCP y sabrá automáticamente qué herramientas tiene disponibles y cómo usarlas.

# Ejemplo de configuración en agent.py
root_agent = LlmAgent(
   ...
   instruction="Eres un asistente especializado en datos.gob.es...",
   tools=[
       MCPToolset(
           connection_params=StreamableHTTPConnectionParams(
               url="http://mcp-server:8000/mcp",
           ),
       )
   ]
)

3. Orquestación con Docker Compose

Finalmente, para ejecutar nuestro Servidor MCP y el agente consumidor juntos, usamos docker-compose.yml. Docker Compose se encarga de construir las imágenes de cada servicio, crear una red privada para que se comuniquen (por eso el agente puede llamar a http://mcp-server:8000) y exponer los puertos necesarios.

Probando el servidor MCP en acción

Una vez que ejecutamos docker-compose up --build, podemos acceder a la interfaz web del agente (http://localhost:8080).

El objetivo de esta prueba no es solo ver si el bot responde bien, sino verificar que nuestro servidor MCP funciona correctamente y que el agente ADK (nuestro cliente de prueba) puede descubrir y usar las herramientas que este expone.

En esta captura se pregunta al agente por las herramientas y temáticas disponibles. También da un ejemplo preguntando por los datasets de medio ambiente

Figura 2. Pantalla del agente demostrando sus herramientas.

El verdadero poder del desacoplamiento se ve cuando el agente encadena lógicamente las herramientas que nuestro servidor le proveyó.

En esta otra captura, pregunta al agente por datos sobre calidad del aire, y sobre datasets de transporte con detalles del primer resultado, demostrando su efectividad

Figura 3. Pantalla del agente demostrando el uso conjunto de las herramientas.

¿Qué puedes aprender?

El objetivo de este ejercicio es aprender los fundamentos de una arquitectura de agentes moderna, centrándonos en el servidor de herramientas. En concreto:

  • Cómo construir un servidor MCP: cómo crear un servidor de herramientas desde cero que hable MCP, usando decoradores como @mcp.tool.
  • El patrón de una arquitectura desacoplada: el patrón fundamental de separar el 'cerebro' (LLM) de las 'herramientas' (lógica de negocio).
  • Descubrimiento dinámico de herramientas: cómo un agente (en este caso, de ADK) puede conectarse dinámicamente a un servidor MCP para descubrir y consumir herramientas.
  • Integración de API externas: el proceso de 'envolver' una API compleja (como la de datos.gob.es) en funciones simples dentro de un servidor de herramientas.
  • Orquestación con Docker: cómo gestionar un proyecto de microservicios para desarrollo.

Conclusiones y futuro

Hemos construido un servidor de herramientas MCP robusto y funcional. El verdadero valor de este ejercicio es el cómo: una arquitectura escalable centrada en un servidor de herramientas que habla un protocolo estándar.

Esta arquitectura basada en MCP es increíblemente flexible. El caso de datos.gob.es es solo un ejemplo. Podríamos fácilmente:

  • Cambiar el caso de uso: reemplazar el server.py por uno que conecte a una base de datos interna o a la API de Spotify, y cualquier agente que hable MCP (no solo ADK) podría consumirlo.
  • Cambiar el "cerebro": cambiar el agente ADK por un agente de LangChain o cualquier otro cliente MCP, y nuestro servidor de herramientas seguiría funcionando sin cambios.

Para aquellos interesados en llevar este análisis al siguiente nivel, las posibilidades se centran en mejorar el servidor MCP:

  • Implementar más herramientas: añadir filtros por formato, publicador o fecha al servidor MCP.
  • Integrar caché: usar Redis en el servidor MCP para cachear las respuestas de la API y mejorar la velocidad.
  • Añadir persistencia: guardar el historial de chat en una base de datos (esto sí sería en el lado del agente).

Más allá de estas mejoras técnicas, esta arquitectura abre la puerta a múltiples aplicaciones en contextos muy diversos. 

  • Periodistas y académicos pueden disponer de asistentes de investigación que les ayuden a descubrir conjuntos de datos relevantes en segundos.
  • Organizaciones de transparencia pueden construir herramientas de monitorización que detecten automáticamente nuevas publicaciones de datos de contratación pública o presupuestos.
  • Consultoras y equipos de inteligencia de negocio pueden desarrollar sistemas que crucen información de múltiples fuentes gubernamentales para elaborar informes sectoriales.
  • Incluso en el ámbito educativo, esta arquitectura sirve como base didáctica para enseñar conceptos avanzados de programación asíncrona, integración de API y diseño de agentes de IA.

El patrón que hemos construido —un servidor de herramientas desacoplado que habla un protocolo estándar— es la base sobre la que puedes desarrollar soluciones adaptadas a tus necesidades específicas, independientemente del dominio o la fuente de datos con la que trabajes.
 

calendar icon
Evento

El Cabildo Insular de Tenerife ha convocado el II Concurso de Datos Abiertos: Desarrollo de APP, una iniciativa que premia la creación de aplicaciones web y móviles que aprovechen los conjuntos de datos disponibles en su portal datos.tenerife.es. Esta convocatoria representa una nueva oportunidad para desarrolladores, emprendedores y entidades innovadoras que quieran transformar información pública en soluciones digitales de valor para la sociedad. En este post, te contamos los detalles sobre la competición.

Un ecosistema en crecimiento: de las ideas a las aplicaciones

Esta iniciativa se enmarca en el proyecto de Datos Abiertos del Cabildo de Tenerife, que promueve la transparencia, la participación ciudadana y la generación de valor económico y social a través de la reutilización de información pública.

El Cabildo ha diseñado una estrategia en dos fases:

Este enfoque progresivo permite construir un ecosistema de innovación que acompaña a los participantes desde la conceptualización hasta el desarrollo completo de soluciones digitales.

El objetivo es fomentar la creación de productos y servicios digitales que generen impacto social y económico, mientras se identifican nuevas oportunidades de innovación y emprendimiento en el ámbito de los datos abiertos.

Premios y dotación económica

Este concurso cuenta con una dotación total de 6.000 euros distribuidos en tres premios:

  • Primer premio: 3.000 euros

  • Segundo premio: 2.000 euros

  • Tercer premio: 1.000 euros

¿Quién puede participar?

La convocatoria está abierta a:

  • Personas físicas: desarrolladores individuales, diseñadores, estudiantes o cualquier persona interesada en la reutilización de datos abiertos.

  • Personas jurídicas: startups, empresas de tecnología, cooperativas, asociaciones u otras entidades.

Siempre y cuando presenten el desarrollo de una aplicación basada en datos abiertos del Cabildo de Tenerife. Una misma persona, física o jurídica, puede presentar tantas candidaturas como desee, tanto de forma individual como conjunta. 

¿Qué tipo de aplicaciones se pueden presentar?

Las propuestas deben ser aplicaciones web o móviles que utilicen al menos un conjunto de datos del portal datos.tenerife.es. Algunas ideas que pueden servir de inspiración son:

  • Aplicaciones para optimizar el transporte y la movilidad en la isla.

  • Herramientas de visualización de datos turísticos o medioambientales.

  • Servicios de información ciudadana en tiempo real.

  • Soluciones para mejorar la accesibilidad y la participación social.

  • Plataformas de análisis de datos económicos o demográficos.

Criterios de evaluación: ¿qué valora el jurado?

El jurado evaluará las propuestas considerando los siguientes criterios:

  • Uso de datos abiertos: grado de aprovechamiento e integración de los conjuntos de datos disponibles en el portal.

  • Impacto y utilidad: valor que aporta la aplicación a la sociedad, capacidad para resolver problemas reales o mejorar servicios existentes.

  • Innovación y creatividad: originalidad de la propuesta y carácter innovador de la solución planteada.

  • Calidad técnica: solidez del código, buenas prácticas de programación, escalabilidad y mantenibilidad de la aplicación.

  • Diseño y usabilidad: experiencia de usuario (UX), diseño visual atractivo e intuitivo, garantía de accesibilidad digital en dispositivos Android e iOS.

¿Cómo participar?: plazos y forma de presentación: 

Las solicitudes pueden presentarse hasta el 10 de marzo de 2026, tres meses desde la publicación de la convocatoria en el Boletín Oficial de la Provincia.

Sobre la documentación requerida, las propuestas deben presentarse en formato digital e incluir:

  • Descripción técnica detallada de la aplicación.

  • Memoria justificativa del uso de los datos abiertos.

  • Especificación de entornos tecnológicos utilizados.

  • Vídeo demostrativo del funcionamiento de la aplicación.

  • Código fuente completo.

  • Ficha técnica resumen.

Desde la institución organizadora recomiendan la presentación telemática a través de la Sede Electrónica del Cabildo de Tenerife, aunque también es posible la presentación presencial en los registros oficiales habilitados. Las bases completas y el modelo oficial de solicitud están disponibles en la Sede Electrónica del Cabildo.

Con esta segunda convocatoria, el Cabildo de Tenerife consolida su apuesta por la transparencia, la reutilización de información pública y la creación de un ecosistema de innovación digital. Iniciativas como esta demuestran cómo los datos abiertos pueden convertirse en catalizadores del emprendimiento, la participación ciudadana y el desarrollo económico local.

calendar icon