Documentación

La ciencia de datos se ha consolidado como un pilar de la toma de decisiones basada en evidencias en sectores públicos y privados. En este contexto, surge la necesidad de una guía práctica y universal que trascienda modas tecnológicas y proporcione principios sólidos y aplicables. La presente guía ofrece un decálogo de buenas prácticas que acompaña al científico de datos a lo largo de todo el ciclo de vida de un proyecto, desde la conceptualización del problema hasta la evaluación ética del impacto.

  1. Comprender el problema antes de mirar los datos. La clave inicial es definir claramente el contexto, objetivos, restricciones e indicadores de éxito. Un framing sólido evita errores posteriores.
  2. Conocer los datos en profundidad. Más allá de las variables, implica analizar su origen, trazabilidad y posibles sesgos. La auditoría de datos es esencial para garantizar representatividad y fiabilidad.
  3. Cuidar la calidad. Sin datos limpios no hay ciencia. Técnicas de EDA, imputación, normalización y control de métricas de calidad permiten construir bases sólidas y reproducibles.
  4. Documentar y versionar. La reproducibilidad es condición científica. Notebooks, pipelines, control de versiones y prácticas de MLOps aseguran trazabilidad y replicabilidad de procesos y modelos.
  5. Elegir el modelo adecuado. No siempre gana la sofisticación: la decisión debe equilibrar rendimiento, interpretabilidad, costes y restricciones operativas.
  6. Medir con sentido. Las métricas deben alinearse con los objetivos. Validación cruzada, control del data drift y separación rigurosa de datos de entrenamiento, validación y test son imprescindibles para garantizar generalización.
  7. Visualizar para comunicar. La visualización no es un adorno, sino un lenguaje para comprender y persuadir. Storytelling con datos y diseño claro son herramientas críticas para conectar con audiencias diversas.
  8. Jugar en equipo. La ciencia de datos es colaborativa: requiere ingenieros de datos, expertos de dominio y responsables de negocio. El científico de datos debe actuar como facilitador y traductor entre lo técnico y lo estratégico.
  9. Mantenerse actualizado (y crítico). El ecosistema evoluciona constantemente. Es necesario combinar aprendizaje continuo con criterio selectivo, priorizando fundamentos sólidos frente a modas pasajeras.
  10. Ser ético. Los modelos tienen impacto real. Es imprescindible evaluar sesgos, proteger la privacidad, garantizar la explicabilidad y anticipar usos indebidos. La ética es brújula y condición de legitimidad.

Título: Decálogo del científico de datos  Comprender el problema antes de mirar los datos.  Conocer los datos en profundidad.  Cuidar la calidad.  Documentar y versionar.  Elegir el modelo adecuado.  Medir con sentido.  Visualizar para comunicar.  Jugar en equipo.  Mantenerse actualizado (y crítico).   Ser ético.  Fuente: informe “Decálogo del científico de datos”, datos.gob.es.

Finalmente, el informe incluye un bonus-track sobre Python y R, destacando que ambos lenguajes son aliados complementarios: Python domina en producción y despliegue, mientras que R ofrece rigor estadístico y visualización avanzada. Conocer ambos multiplica la versatilidad del científico de datos.

El Decálogo del científico de datos constituye una guía práctica, atemporal y de aplicación transversal que ayuda a profesionales y organizaciones a convertir los datos en decisiones informadas, confiables y responsables. Su objetivo es reforzar la calidad técnica, la colaboración y la ética en una disciplina en plena expansión y con gran impacto social.

calendar icon
Noticia

Los datos abiertos son un combustible fundamental en la innovación digital contemporánea, creando ecosistemas de información que democratizan el acceso al conocimiento y potencian el desarrollo de soluciones tecnológicas avanzadas.

Sin embargo, la mera disponibilidad de datos no es suficiente. La construcción de ecosistemas robustos y sostenibles requiere marcos normativos claros, principios éticos sólidos y metodologías de gestión que garanticen tanto la innovación como la protección de derechos fundamentales. Por ello, la documentación especializada que orienta estos procesos se convierte en un recurso estratégico para gobiernos, organizaciones y empresas que buscan participar responsablemente en la economía digital.

En este post, recopilamos informes recientes, elaborados por organizaciones de referencia tanto del ámbito público como privado, que ofrecen estas orientaciones clave. Estos documentos no solo analizan los desafíos actuales de los ecosistemas de datos abiertos, sino que proporcionan herramientas prácticas y marcos de trabajo concretos para su implementación efectiva.

Estado y evolución del mercado del open data

Conocer cómo es y qué cambios ha habido en el ecosistema de los datos abiertos a nivel europeo y nacional es importante para tomar decisiones informadas y adaptarse a las necesidades de la industria. En este sentido, la Comisión Europea publica, periódicamente, un informe sobre los mercados de datos, que se actualiza regularmente. La última versión es de diciembre de 2024, aunque periódicamente se van publicando casos de uso que ejemplifican el potencial de los datos en Europa (el último de febrero de 2025).

Por otro lado, desde una perspectiva regulatoria europea, el último informe anual sobre la implementación de la Ley de Mercados Digitales (DMA) aborda una visión integral de las medidas adoptadas para garantizar la equidad y competitividad en el sector digital. Este documento es interesante para comprender cómo se está configurando el marco normativo que afecta directamente a los ecosistemas de datos abiertos.

A nivel nacional, el informe sectorial de ASEDIE sobre la "Economía del Dato en su ámbito infomediario" 2025 proporciona evidencia cuantitativa del valor económico generado por los ecosistemas de datos abiertos en España.

La importancia de los datos abiertos en la IA

Está claro que la intersección entre datos abiertos e inteligencia artificial es una realidad que plantea desafíos éticos y normativos complejos que requieren respuestas colaborativas y multisectoriales. En este contexto, el desarrollo de marcos que guíen el uso responsable de la IA se convierte en una prioridad estratégica, especialmente cuando estas tecnologías se nutren de ecosistemas de datos públicos y privados para generar valor social y económico. Estos son algunos informes que abordan este objetivo:

  • IA generativa y datos abiertos: directrices y buenas prácticas: el Departamento de Comercio de EE. UU. ha publicado una guía con principios y buenas prácticas sobre cómo aplicar inteligencia artificial generativa de forma ética y efectiva en el contexto de los datos abiertos. El documento ofrece pautas para optimizar la calidad y la estructura de los datos abiertos con el fin de hacerlos útiles para estos sistemas, incluyendo la transparencia y gobernanza.
  • Guía de buenas prácticas para el uso de la inteligencia artificial ética: esta guía muestra un enfoque integral que combina principios éticos sólidos con preceptos normativos claros y aplicables. Además del marco teórico, la guía sirve de herramienta práctica para implementar sistemas de IA de manera responsable, considerando tanto los beneficios potenciales como los riesgos asociados. La colaboración entre actores públicos y privados garantiza que las recomendaciones sean tanto técnicamente viables como socialmente responsables.
  • Enhancing Access to and Sharing of Data in the Age of AI: este análisis de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) aborda uno de los principales obstáculos para el desarrollo de la inteligencia artificial: el acceso limitado a datos de calidad y modelos efectivos. A través de ejemplos, se identifican estrategias específicas que los gobiernos pueden implementar para mejorar significativamente el acceso y la compartición de datos y ciertos modelos de IA.
  • A Blueprint to Unlock New Data Commons for AI: Open Data Policy Lab ha elaborado una guía práctica que se centra en la creación y gestión de bienes comunes de dato (data commons) específicamente diseñados para habilitar casos de uso de inteligencia artificial de interés público. La guía ofrece metodologías concretas sobre cómo gestionar datos de manera que se facilite la creación de estos bienes comunes de dato, incluyendo aspectos de gobernanza, sostenibilidad técnica y alineación con objetivos de interés público.
  • Guía práctica sobre colaboraciones basadas en datos: la iniciativa Data for Children Collaborative ha publicado una guía paso a paso para desarrollar colaboraciones de datos efectivas, con un enfoque en impacto social. Incluye ejemplos reales, modelos de gobernanza y herramientas prácticas para impulsar alianzas sostenibles.

En resumen, estos informes definen el camino hacia ecosistemas de datos más maduros, éticos y colaborativos. Desde las cifras de crecimiento del sector infomediario español hasta los marcos regulatorios europeos, pasando por las guías prácticas para la implementación de IA responsable, todos estos documentos comparten una visión común: el futuro de los datos abiertos depende de nuestra capacidad para construir puentes entre el sector público y privado, entre la innovación tecnológica y la responsabilidad social.

calendar icon
Documentación

La Agencia Española de Protección de Datos ha publicado recientemente la traducción al español de la Guía sobre generación de datos sintéticos, elaborada originalmente por la Autoridad de Protección de Datos de Singapur. Este documento ofrece orientación técnica y práctica para personas responsables, encargadas y delegadas de protección de datos sobre cómo implementar esta tecnología que permite simular datos reales manteniendo sus características estadísticas sin comprometer información personal.

La guía destaca cómo los datos sintéticos pueden impulsar la economía del dato, acelerar la innovación y mitigar riesgos en brechas de seguridad. Para ello, presenta casos prácticos, recomendaciones y buenas prácticas orientadas a reducir los riesgos de reidentificación. En este post, analizamos los aspectos clave de la Guía destacando casos de uso principales y ejemplos de aplicación práctica.

¿Qué son los datos sintéticos? Concepto y beneficios

Los datos sintéticos son datos artificiales generados mediante modelos matemáticos específicamente diseñados para sistemas de inteligencia artificial (IA) o aprendizaje automático (ML). Estos datos se crean entrenando un modelo con un conjunto de datos de origen para imitar sus características y estructura, pero sin replicar exactamente los registros originales.

Los datos sintéticos de alta calidad conservan las propiedades estadísticas y los patrones de los datos originales. Por lo tanto, permiten realizar análisis que produzcan resultados similares a los que se obtendrían con los datos reales. Sin embargo, al ser artificiales, reducen significativamente los riesgos asociados con la exposición de información sensible o personal.

Para profundizar en este tema, tienes disponible este Informe monográfico sobre datos sintéticos: ¿Qué son y para qué se usan? con información detallada sobre los fundamentos teóricos, metodologías y aplicaciones prácticas de esta tecnología.

La implementación de datos sintéticos ofrece múltiples ventajas para las organizaciones, por ejemplo:

  • Protección de la privacidad: permiten realizar análisis de datos manteniendo la confidencialidad de la información personal o comercialmente sensible.
  • Cumplimiento normativo: facilitan el seguimiento de regulaciones de protección de datos mientras se maximiza el valor de los activos de información.
  • Reducción de riesgos: minimizan las posibilidades de brechas de datos y sus consecuencias.
  • Impulso a la innovación: aceleran el desarrollo de soluciones basadas en datos sin comprometer la privacidad.
  • Mejora en la colaboración: posibilitan compartir información valiosa entre organizaciones y departamentos de forma segura.

Pasos para generar datos sintéticos

Para implementar correctamente esta tecnología, la Guía sobre generación de datos sintéticos recomienda seguir un enfoque estructurado en cinco pasos:

  1. Conocer los datos: comprender claramente el propósito de los datos sintéticos y las características de los datos de origen que deben preservarse, estableciendo objetivos precisos respecto al umbral de riesgo aceptable y la utilidad esperada.
  2. Preparar los datos: identificar las ideas clave que deben conservarse, seleccionar los atributos relevantes, eliminar o seudonimizar identificadores directos, y estandarizar los formatos y estructuras en un diccionario de datos bien documentado.
  3. Generar datos sintéticos: seleccionar los métodos más adecuados según el caso de uso, evaluar la calidad mediante comprobaciones de integridad, fidelidad y utilidad, y ajustar iterativamente el proceso para lograr el equilibrio deseado.
  4. Evaluar riesgos de reidentificación: aplicar técnicas basadas en ataques para determinar la posibilidad de inferir información sobre individuos o su pertenencia al conjunto original, asegurando que los niveles de riesgo sean aceptables.
  5. Gestionar riesgos residuales: implementar controles técnicos, de gobernanza y contractuales para mitigar los riesgos identificados, documentando adecuadamente todo el proceso.

Aplicaciones prácticas y casos de éxito

Para obtener todas estas ventajas, los datos sintéticos pueden aplicarse en diversos escenarios que responden a necesidades específicas de las organizaciones. La Guía menciona, por ejemplo:

1. Generación de conjuntos de datos para entrenar modelos de IA/ML: los datos sintéticos resuelven el problema de la escasez de datos etiquetados (es decir, que se pueden utilizar) para entrenar modelos de IA. Cuando los datos reales son limitados, los datos sintéticos pueden ser una alternativa rentable. Además, permiten simular eventos extraordinarios o incrementar la representación de grupos minoritarios en los conjuntos de entrenamiento. Una aplicación interesante para mejorar el rendimiento y la representatividad de todos los grupos sociales en los modelos de IA.

2. Análisis de datos y colaboración: este tipo de datos facilitan el intercambio de información para análisis, especialmente en sectores como la salud, donde los datos originales son particularmente sensibles. Tanto en este sector como en otros, proporcionan a las partes interesadas una muestra representativa de los datos reales sin exponer información confidencial, permitiendo evaluar la calidad y potencial de los datos antes de establecer acuerdos formales.

3. Pruebas de software: son muy útiles para el desarrollo de sistemas y la realización de pruebas de software porque permiten utilizar datos realistas, pero no reales en entornos de desarrollo, evitando así posibles brechas de datos personales en caso de comprometerse el entorno de desarrollo.

La aplicación práctica de datos sintéticos ya está demostrando resultados positivos en diversos sectores:

I. Sector financiero: detección de fraudes. J.P. Morgan ha utilizado con éxito datos sintéticos para entrenar modelos de detección de fraude, creando conjuntos de datos con un mayor porcentaje de casos fraudulentos que permitieron mejorar significativamente la capacidad de los modelos para identificar comportamientos anómalos.

II. Sector tecnológico: investigación sobre sesgos en IA. Mastercard colaboró con investigadores para desarrollar métodos de prueba de sesgos en IA mediante datos sintéticos que mantenían las relaciones reales de los datos originales, pero eran lo suficientemente privados como para compartirse con investigadores externos, permitiendo avances que no habrían sido posibles sin esta tecnología.

III. Sector salud: salvaguarda de datos de pacientes. Johnson & Johnson implementó datos sintéticos generados por IA como alternativa a las técnicas tradicionales de anonimización para procesar datos sanitarios, logrando una mejora significativa en la calidad del análisis al representar eficazmente a la población objetivo mientras se protegía la privacidad de los pacientes.

El equilibrio entre utilidad y protección

Es importante destacar que los datos sintéticos no están inherentemente libres de riesgos. La semejanza con los datos originales podría, en determinadas circunstancias, permitir la filtración de información sobre individuos o datos confidenciales. Por ello, resulta crucial encontrar un equilibrio entre la utilidad de los datos y su protección.

Este equilibrio puede lograrse mediante la implementación de buenas prácticas durante el proceso de generación de datos sintéticos, incorporando medidas de protección como:

  • Preparación adecuada de los datos: eliminación de valores atípicos, seudonimización de identificadores directos y generalización de datos granulares.
  • Evaluación de riesgos de reidentificación: análisis de la posibilidad de que se puedan vincular los datos sintéticos con individuos reales.
  • Implementación de controles técnicos: añadir ruido a los datos, reducir la granularidad o aplicar técnicas de privacidad diferencial.

Los datos sintéticos representan una oportunidad excepcional para impulsar la innovación basada en datos mientras se respeta la privacidad y se cumple con las normativas de protección de datos. Su capacidad para generar información estadísticamente representativa pero artificial los convierte en una herramienta versátil para múltiples aplicaciones, desde el entrenamiento de modelos de IA hasta la colaboración entre organizaciones y el desarrollo de software.

Al implementar adecuadamente las buenas prácticas y controles descritos en Guía sobre generación de datos sintéticos que ha traducido la AEPD, las organizaciones pueden aprovechar los beneficios de los datos sintéticos minimizando los riesgos asociados, posicionándose a la vanguardia de la transformación digital responsable. La adopción de tecnologías de mejora de la privacidad como los datos sintéticos no solo representa una medida defensiva, sino un paso proactivo hacia una cultura organizacional que valora tanto la innovación como la protección de datos, aspectos fundamentales para el éxito en la economía digital del futuro.

calendar icon
Noticia

¿Cómo pueden las administraciones públicas aprovechar el valor de los datos? Esta pregunta no es sencilla de abordar, su respuesta viene condicionada por varios factores que tienen que ver con el contexto de cada administración, los datos con los que cuente y los objetivos específicos que se planteen.

No obstante, existen guías de referencia que pueden ayudar a definir un camino hacia la acción. Una de ellas es la que publica la Comisión Europea a través de la Oficina de Publicaciones de la UE, Data Innovation Toolkit, que surge como una brújula estratégica para navegar este complejo ecosistema de innovación de datos.

Esta herramienta no es un simple manual ya que incluye plantillas para que la implementación del proceso sea más sencilla. Orientada a perfiles diversos como pueden ser analistas noveles o experimentados responsables políticos e innovadores tecnológicos, Data Innovation Toolkit es un recurso útil que acompaña en el proceso, paso a paso.

Su objetivo es democratizar la innovación basada en datos proporcionando un marco estructurado que trasciende la mera recopilación de información. En este post, analizaremos los contenidos de la guía europea, así como las referencias que proporciona para plantear un buen uso innovador de los datos.

Estructura que abarca el ciclo de vida de los datos

La guía está organizada en cuatro pasos principales, que abordan todo el ciclo de vida de los datos.

  1. Planificación

La primera parte de la guía se centra en establecer unos cimientos sólidos para cualquier proyecto de innovación con datos. Antes de abordar cualquier proceso, es importante definir objetivos. Para ello, el Data Innovation Toolkit sugiere realizar una reflexión profunda que requiere alinear las necesidades específicas del proyecto con los objetivos estratégicos de la organización. En este paso, también es clave el mapeo de stakeholders o identificación de actores. Esto implica comprender en profundidad los intereses, expectativas y posibles contribuciones de cada actor involucrado. Esta comprensión permite diseñar estrategias de engagement que maximicen la colaboración y minimicen los potenciales conflictos.

Para crear un equipo adecuado de innovación en datos, podemos utilizar la matriz RACI (Responsible, Accountable, Consulted, Informed, por sus siglas en inglés), y así definir con precisión los roles y responsabilidades. No se trata solo de reunir profesionales, sino de construir equipos multidisciplinares donde cada miembro comprenda exactamente su función y contribución al proyecto. Para ayudar en esta tarea la guía facilita:

  • Herramienta de definición de retos: para identificar y articular las cuestiones clave que pretenden resolver, resumiéndolas en una única declaración.
  • Herramienta de mapeo de stakeholders: para visualizar la red de individuos y organizaciones implicadas, evaluando su influencia e intereses.
  • Herramienta de definición de equipos: para facilitar la identificación de personas de su organización que puedan ayudarle.
  • Herramienta para definir roles: para, una vez definidos los perfiles necesarios, determinar sus responsabilidades y su papel en el proyecto de datos de forma más detallada, utilizando una matriz RACI.
  • Herramienta para definir Personas: las Personas son un concepto que se usa para definir tipos específicos de usuarios, denominados arquetipos de comportamiento. Esta guía ayuda a crear estos perfiles detallados, que representan a los usuarios o clientes que estarán involucrados en el proyecto.
  • Herramienta para el mapeo de Data Journey: para realizar una representación sintética que describa paso a paso cómo puede interactuar un usuario con sus datos. El proceso se representa desde la perspectiva del usuario, describiendo lo que ocurre en cada fase de la interacción y los puntos de contacto.
  1. Recopilación y procesamiento

Una vez constituido el equipo e identificados los objetivos, se realiza una clasificación de los datos que va más allá de la tradicional división entre cuantitativos y cualitativos.

Ámbito cuantitativo:

  • Los datos discretos, como el número de quejas en un servicio público, no solo representan una cifra, sino una oportunidad para identificar sistemáticamente áreas de mejora. Permiten a las administraciones mapear problemas recurrentes y diseñar intervenciones específicas. Los datos continuos, como los tiempos de respuesta en trámites administrativos, ofrecen una radiografía de la eficiencia operativa. No se trata solo de medir, sino de comprender los factores que influyen en la variabilidad de estos tiempos y diseñar procesos más ágiles y eficientes.

Ámbito cualitativo:

  • Los datos nominales (de nombres) posibilitan la categorización de servicios públicos, permitiendo una comprensión más estructurada de la diversidad de intervenciones administrativas.

  • Los datos ordinales (de números), como las valoraciones de satisfacción, se convierten en una herramienta de priorización para la mejora continua.

En el documento están disponibles una serie de checklist para revisar este aspecto:

  • Checklist de data gaps: para identificar si existe algún vacío en los datos que vamos a utilizar y, si es así, cómo solventarlo.

  • Plantilla de data collection: para alinear el conjunto de datos al objetivo del análisis innovador.

  • Checklist de data collection: para asegurar el acceso a las fuentes de datos necesarias para ejecutar el proyecto.

  • Checklist de calidad de los datos: para repasar el nivel de calidad del conjunto de datos.

  • Cartas de procesamiento de datos: para revisar que los datos se están procesando de manera segura, eficiente y cumpliendo con las regulaciones.

  1. Compartir y analizar

En este punto, el Data Innovation Toolkit propone cuatro estrategias de análisis que transforman los datos en conocimiento accionable.

  1. El análisis descriptivo: va más allá de la simple visualización de datos históricos, permitiendo construir narrativas que expliquen la evolución de los fenómenos estudiados.

  2. El análisis diagnóstico: profundiza en la investigación de causas, desentrañando los patrones ocultos que explican los comportamientos observados.

  3. El análisis predictivo: se convierte en una herramienta de planificación estratégica, permitiendo a las administraciones prepararse para escenarios futuros.

  4. El análisis prescriptivo: da un paso más, no solo proyectando tendencias, sino recomendando acciones concretas basadas en el modelado de datos.

Además del análisis, la dimensión ética es fundamental. Por ello, la guía establece protocolos estrictos para garantizar transferencias de datos seguras, cumplimiento normativo, transparencia y consentimiento informado. En este apartado, se ofrecen las siguientes checklist:

  • Plantilla de compartición de datos: para asegurar que se comparte de manera segura, legal y transparente.
  • Checklist de compartición de datos: para realizar todos los pasos necesarios para compartir los datos de manera segura, ética y alcanzando todos los objetivos definidos.
  • Plantilla de análisis de datos: para dirigir un análisis adecuado que permita obtener insights útiles y significativos para el proyecto.
  1. Uso y evaluación

La última etapa se centra en convertir los insights en acciones reales. La comunicación de resultados, la definición de indicadores clave (KPI), la medición de impacto y las estrategias de escalabilidad se convierten en herramientas para la mejora continua.

Un recurso colaborativo en continua mejora

En resumen, el toolkit ofrece una transformación integral: desde la toma de decisiones basada en evidencia hasta la personalización de servicios públicos, pasando por el aumento de la transparencia y la optimización de recursos. También puedes revisar las checklist disponibles en este apartado que son:

  • Checklist de uso de datos: para revisar que los datos y las conclusiones obtenidas se utilizan de manera eficaz, responsable y orientado a los objetivos óptimos.
  • Innovación de datos mediante herramienta de KPI: para definir los KPI que medirán el éxito del proceso.
  • Herramientas de medición de impacto y evaluación del éxito: para valorar el éxito y el impacto de la innovación en el proyecto de datos.
  • Plan de escalabilidad de la innovación en datos: para identificar estrategias para escalar el proyecto de manera eficaz.

Además, este repositorio de recursos de innovación y datos es un catálogo dinámico de conocimiento que incluye artículos especializados, guías de implementación, casos de estudio y materiales de aprendizaje.

Puedes acceder aquí a la lista de materiales que proporciona el Data Innovation Toolkit

E incluso ponerte en contacto con el equipo de desarrollo por si tienes alguna duda o quieres contribuir al repositorio:

Parar concluir, llegar a aprovechar el valor de los datos con una perspectiva innovadora no es un salto mágico, sino un proceso gradual y complejo. En este camino, el Data Innovation Toolkit puede ser de utilidad ya que ofrece un marco estructurado. La implementación efectiva requerirá inversión en capacitación, adaptación cultural y compromiso a largo plazo.

calendar icon
Blog

Vivimos un momento histórico en el que los datos son un activo clave, del que dependen cada día multitud de pequeñas y grandes decisiones de empresas, organismos públicos, entidades sociales y ciudadanos. Por ello, es importante conocer de donde proviene cada dato, para garantizar que las cuestiones que afectan a nuestra vida están basadas en información veraz.

¿Qué es la citación de datos?

Cuando hablamos de “citar” nos referimos al proceso de indicar qué fuentes externas se han utilizado para crear contenidos. Una cuestión ampliamente recomendable que afecta a todos los datos, incluidos los datos públicos como está recogido en nuestro ordenamiento jurídico. En el caso de los datos ofrecidos por las adminstraciones, el Real Decreto 1495/2011 incluye la necesidad del reutilizador de citar la fuente de origen de la información.

Para ayudar a los usuarios en esta tarea, la Oficina de Publicaciones de la Unión Europea editó Data Citation: A guide to best practice, donde se habla de la importancia de la citación de datos y se recogen recomendaciones de buenas prácticas, así como los retos a superar para citar conjuntos de datos de manera correcta.

¿Por qué es importante la citación de datos?

La guía menciona las razones más relevantes por las que es recomendable llevar a cabo esta práctica:

  • El crédito. Crear conjuntos de datos conlleva trabajo. Citar al autor o autores les permite recibir feedback y saber que su trabajo es útil, lo que les anima a seguir trabajando en nuevos conjuntos de datos.
  • La transparencia. Cuando los datos se citan, el lector puede acudir a ellos para revisarlos, comprender mejor su alcance y evaluar su idoneidad.
  • La integridad. Los usuarios no deben de caer en el plagio. No deben atribuirse el mérito de la creación de conjuntos de datos que no son suyos..
  • La reproducibilidad. La citación de los datos permite que una tercera persona pueda intentar reproducir los mismos resultados, utilizando la misma información.
  • La reutilización. La citación de datos facilita que cada vez más conjuntos de datos se den a conocer y, por tanto, aumente su uso.
  • Minería de textos. Los datos no solo son consumidos por humanos, también pueden serlo por máquinas. Una correcta citación ayudará a las máquinas a comprender mejor el contexto de los conjuntos de datos, amplificando los beneficios de su reutilización.

Buenas prácticas generales

De entre todas las buenas prácticas generales incluidas en la guía, a continuación destacamos algunas de las más relevantes:

  • Sé preciso. Es necesario que los datos citados estén definidos con exactitud. La citación de datos debe indicar qué datos concretos se han utilizado de cada conjunto de datos. También es importante señalar si han sido procesados y si provienen directamente del creador o de algún agregador (como un observatorio que ha tomado datos de diversas fuentes). 
  • Utiliza "identificadores persistentes" (persistent identifiers  o PID). Al igual que cada libro que encontramos en una biblioteca tiene su identificador, los conjuntos de datos también pueden (y deben) tenerlo. Los identificadores persistentes son esquemas formales que proporcionan una nomenclatura común, que identifican de manera única los conjuntos de datos, evitando ambigüedades. A la hora de citar conjuntos de datos, es necesario localizarlos y escribirlos como un hipervínculo accionable, sobre el que se puede hacer clic para acceder al conjunto de datos citado y a sus metadatos.  Existen diferentes familias de PID, pero la guía destaca dos de las más comunes: el sistema Handle y el identificador de objeto digital (DOI).
  • Indica el momento en el que se ha accedido a los datos. Esta cuestión es de gran importancia cuando trabajamos con datos dinámicos (que se actualizan y cambian periódicamente) o continuos (sobre los que se añaden datos adicionales sin modificar los antiguos). En estos casos, es importante citar la fecha de acceso. Además, si es necesario, el usuario puede añadir “snapshots” o instantáneas del conjunto de datos, es decir, copias tomadas en momentos concretos.
  • Consulta los metadatos del conjunto de datos utilizado y las funcionalidades del portal en que se ubica. En los metadatos se encuentra gran cantidad de la información necesaria para la cita.
    Además, los portales de datos pueden incluir herramientas que ayuden a la citación. Es el caso del Portal de datos abiertos de la Unión Europea en cuyo menú superior se puede encontrar el botón de citación.

  • Apóyate en herramientas de software. La mayoría de los programas informáticos utilizados para crear documentos permiten crear y formatear citas automáticamente, asegurando su formato. Además, existen herramientas específicas de gestión de citas como BibTeX o Mendeley, que permiten crear bases de datos de citas teniendo en cuenta sus peculiaridades, una función de gran utilidad cuando es necesario citar numerosos conjuntos de datos en múltiples documentos.

Cómo citar correctamente

La segunda parte del informe contiene el material técnico de referencia para crear citas que cumplan las recomendaciones indicadas. Abarca los elementos que debe incluir una cita y cómo ordenarlos para distintos fines.

Entre los elementos que debe incluir una cita se encuentran:

  • Autor, puede referir tanto al individuo que ha creado el conjunto de datos (autor personal) como a la organización responsable (autor corporativo).
  • Título del dataset.
  • Versión/edición.
  • Publicador, que es la entidad que hace disponible el conjunto de datos y puede coincidir o no con el autor (en caso de que coincidan no es necesario repetirlo).
  • Fecha de publicación, donde se indica el año en que se creó. Es importante incluir entre paréntesis el momento de la última actualización.
  • Fecha de citación, que expresa la fecha en la que el creador de la cita accedió a los datos, incluyendo la hora si es necesario. Para los formatos de fechas y horas, la guía recomienda acudir a la especificación DCAT, ya que ofrece una precisión mayor en términos de interoperabilidad.
  • Identificador persistente.

Respeto al orden de toda esa información, existen diferentes directrices en relación con la estructura general de las citas. La guía muestra las diferentes formas más adecuadas de citar según el tipo de documento en el que aparece la cita (documentos periodísticos, online, etc.), incluyendo ejemplos y recomendación. Entre otros, destaca el ejemplo del Libro de estilo interinstitucional (ISG), que edita la Oficina de Publicaciones de la UE. Este libro de estilo no contiene orientaciones específicas sobre cómo citar datos, pero sí una estructura general para citas que puede aplicarse a los conjuntos de datos, recogida en la siguiente imagen.

La guía finaliza con una serie de anexos con listas de control, diagramas y ejemplos.

Si quieres saber más sobre este documento, te recomendamos ver este seminario online donde se resumen los puntos más importantes.

En definitiva, citar correctamente los conjuntos de datos mejora la calidad y la transparencia del proceso de reutilización de los datos, estimulándolo al mismo tiempo. Por tanto, fomentar la citación correcta de los datos es una práctica no solo recomendable, sino cada vez más necesaria.

calendar icon
Blog

La Guía de Gobierno Abierto para Empleadas y Empleados Públicos es un manual para orientar al personal de las administraciones públicas de todos los niveles (local, regional y estatal) sobre el concepto y las condiciones necesarias para lograr un “gobierno abierto inclusivo en un entorno digital. Concretamente, el documento busca que la administración asuma el gobierno abierto como un elemento transversal de la sociedad, fomentando su conexión con los Objetivos de Desarrollo Sostenible.

Se trata de una guía exhaustiva, práctica y bien estructurada, que facilita la comprensión y la implementación de los principios del gobierno abierto, dando a conocer ejemplos y buenas prácticas que impulsen el desarrollo de las competencias necesarias para facilitar la sostenibilidad del gobierno abierto a largo plazo.

¿Qué es el gobierno abierto?

La guía adopta la definición más aceptada de gobierno abierto, basada en tres ejes:

  1. Transparencia y acceso a la información (eje visión): Hace referencia al acceso abierto a la información pública para facilitar una mayor rendición de cuentas.
  2. Participación ciudadana (eje voz): Ofrece la posibilidad de que la ciudadanía sea escuchada e intervenga para mejorar los procesos de decisión y cocreación en las políticas públicas.
  3. Colaboración (eje valor): Se centra en la cooperación dentro de la administración o de manera externa, con la ciudadanía u organizaciones de la sociedad civil, a través de la innovación para generar una mayor coproducción en el diseño y puesta en marcha de los servicios públicos.

Este manual define dichos ejes y los descompone en sus elementos más relevantes para su mejor comprensión y aplicación. Según la guía, los elementos básicos de la administración abierta son:

  • Una integridad transversal a toda acción pública.
  • Los datos son “la materia prima de gobiernos y administraciones públicas” y, por ese motivo, deben ponerse a disposición de “cualquier actor”, respetando los límites que establece la ley.  El uso de tecnologías de la información y comunicación (digitales) se concibe como un “espacio de expansión de la acción pública”, sin desatender las brechas digitales.
  • La ciudadanía se sitúa en el centro de la administración abierta, porque no es solo objeto de la acción pública, sino que también “debe gozar de un papel protagonista en todas las dinámicas de transparencia, participación y colaboración”.
  • La sostenibilidad de las iniciativas de la administración.

Adaptación de un visual de la Guía de Gobierno Abierto para Empleadas y Empleados Públicos. Fuente: https://funcionpublica.hacienda.gob.es/Secretaria-de-Estado-de-Funcion-Publica/Actualidad/ultimas-noticias/Noticias/2023/04/2023_04_11.html

Beneficios del Gobierno abierto

Con todo ello, se consiguen una serie de beneficios:

  • Más calidad institucional y más legitimidad
  • Aumento de la confianza en las instituciones
  • Políticas más específicas para atender a la ciudadanía
  • Más equidad de acceso a la formulación de políticas
  • Más innovación en las actuaciones públicas

¿Cómo puedo utilizar la guía?

La guía es muy útil, ya que, para explicar algunos conceptos, plantea retos para que las propias personas funcionarias puedan reflexionar sobre ellos e incluso ponerlos en marcha. Asimismo, los autores proponen casos que van ofreciendo un panorama del gobierno abierto en el mundo y su evolución, tanto de los conceptos relacionados con éste como de las leyes, normativas, planes relevantes y ámbitos de aplicación (incluidos la Ley 19/2023 de transparencia, la agenda España Digital 2025,  Carta Derechos Digitales y el Reglamento General de Protección de Datos, conocido como RGPD). Como ejemplo, entre los casos que menciona, se incluyen el Plan de Inclusión Social Elkar-EKIN de la de Diputación Foral de Gipuzkoa y Frena La Curva,  una iniciativa puesta en marcha por miembros de la Dirección General de Participa­ción Ciudadana y el LAAAB del Gobierno de Aragón durante el COVID-19.

La guía también incluye un test de autodiagnóstico en rendición de cuentas, fomento de la colaboración, referencias bibliográficas y propuestas de mejora.

Además, ofrece diagramas y resúmenes para explicar y esquematizar cada concepto, así como pautas específicas para ponerlos en práctica. Por ejemplo, se incluye la pregunta ¿dónde están los límites en el acceso a la información pública? Para responderla, la guía cita en qué casos se puede dar acceso a información que haga referencia a la ideología, creencias, afiliación religiosa o sindical de una persona (pág. 26). Con una adaptación a contextos concretos, el manual muy bien podría servir de base para organizar talleres de formación para personas funcionarias por la cantidad de asuntos relevantes que aborda y su organización.

Los autores hacen bien en incluir también advertencias y críticas constructivas a la situación del gobierno abierto en las instituciones. Aunque no hacen señalamientos directos, hablan de:

  • Cajas negras: Se critican por ser sistemas cerrados. Se afirma que las cajas negras se deben abrir y transparentar y se debe “incrementar la representación de sectores tradicionalmente excluidos de las decisiones públicas”.
  • Lenguaje administrativo: Es un reto para una real transparencia, ya que, según un estudio que menciona la guía, de 760 textos oficiales, un 78% de ellos no eran claros. Entre lo más difícil de entender se encuentran las solicitudes de becas, ayudas y subvenciones, y los trámites vinculados con el empleo.
  • La existencia de una falta de transparencia en algunos municipios, según apunta otro estudio mencionado en la guía. El índice de gobierno abierto global, elaborado por World Justice Project, coloca España en el puesto 24, por detrás de países como Estonia (14), Chile (18), Costa Rica (19) o Uruguay (21) y por delante de Italia (28), Grecia (36) o Rumanía (51), entre 102 países. Open Knowledge Foundation ha dejado de actualizar su Global Open Data Index, específicamente sobre datos abiertos.

En resumen, la administración pública se concibe como un paso hacia un Estado abierto, con la incorporación de los valores de lo abierto a todos los poderes del Estado, incluidos los poderes legislativo y judicial, además del gubernamental.

Otras cuestiones adicionales que se podrían tener en cuenta

Para aquellos que quieran seguir el camino hacia un gobierno abierto, existen una serie de cuestiones a tener en cuenta:

  • La guía se puede adaptar a diferentes ámbitos y escalas de lo público. Pero la administración pública no es homogénea ni las personas que la componen tienen las mismas responsabilidades, motivaciones, conocimientos o posturas ante el gobierno abierto. En un examen sobre el uso por parte de la ciudadanía de datos abiertos de la administración vasca, se concluía que un obstáculo para la transparencia es la falta de aceptación o colaboración en algunos sectores de la propia administración. Un paso hacia adelante, por tanto, podría ser hacer campañas internas para la difusión de las ventajas para la administración de integrar perspectivas ciudadanas y generar esos espacios para integrar sus aportaciones.
  • Aunque el modelo de caja negra está desapareciendo de la administración pública, que está sometida a gran escrutinio, este ha vuelto de la mano de sistemas algorítmicos cerrados y opacos aplicados a la administración de lo público. Hay muchos estudios en la literatura científica –por ejemplo, este— que alertan de que sistemas de caja opaca erróneos pueden estar funcionando en la administración pública sin que nadie se dé cuenta hasta que se generan resultados dañinos. Este es un asunto que necesita revisión.
  • Para su adaptación a contextos concretos, habría que poder definir más concretamente qué es la participación, colaboración y cocreación. Como indica la guía, no solo implican la transparencia, sino poner en práctica iniciativas de colaboración o de innovación. Pero además es necesario hacerse una serie de preguntas adicionales ¿qué es una iniciativa de colaboración o innovación?, ¿qué metodologías existen?, ¿cómo se organiza y mide su éxito?
  • La guía resalta la necesidad de incluir a la ciudadanía en el gobierno abierto. Cuando se habla de la inclusión y participación, sobre todo se menciona a la sociedad civil organizada y la academia, por ejemplo, en el Foro de Gobierno Abierto. Pero existen posibilidades de mejora para impulsar una participación y colaboración de las personas a título individual, sobre todo, si se trata de personas con poco acceso a la tecnología. La guía menciona brechas digitales de género, territoriales, por razón de edad o discapacidad, pero no las explora. Sin embargo, cuando se ha plataformizado el acceso a muchos servicios, ayudas y asistencia públicas (sobre todo después de la pandemia de COVID-19), dichas brechas digitales afectan a muchas personas, especialmente personas ancianas, de bajos recursos y a mujeres. Dado que una guía generalista no puede abordar todos los asuntos relevantes en detalle, este merecería una guía aparte.

Cada vez más las instituciones públicas acuden a la decisión algorítmica para una toma de decisiones eficaz, rápida e inclusiva. Por ello, resulta también cada vez más relevante la formación de la propia administración en materia de gobierno abierto en un entorno digitalizado, datificado y plataformizado. Esta guía es un gran primer paso para aquellos que quieren aproximarse a la materia.


Contenido elaborado por Miren Gutiérrez, Doctora e investigadora en la Universidad de Deusto, experta en activismo de datos, justicia de datos, alfabetización de datos y desinformación de género. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor

calendar icon
Noticia

A la hora de poner en marcha una iniciativa de datos abiertos, es necesario que todas las personas implicadas en su desarrollo sean conscientes de los beneficios de la apertura de datos, y que tengan claros los procesos y flujos de trabajo necesarios para alcanzar las metas marcadas. Solo así se podrá conseguir una iniciativa con datos actualizados y que cumplan los parámetros de calidad necesarios.

Esa idea la tenían clara en la Iniciativa Alba Smart, y por ello han creado diversos materiales que no solo sirven para dotar de conocimiento a todos los implicados, sino también para motivar y concienciar a jefes de servicio y concejales sobre la necesidad (y obligatoriedad) de publicar cuanta información sea posible para uso de la ciudadanía.

¿Qué es Alba Smart?

El proyecto Alba Smart está desarrollado, de manera conjunta, por los ayuntamientos de Almendralejo y Badajoz con el objetivo de avanzar en su desarrollo como ciudades inteligentes. Entre las áreas que abarca se encuentra el control de flujos de movilidad turística, la creación de un hub de innovación, la instalación de puntos de acceso wifi en edificios públicos, la puesta en marcha de un wifi social o la gestión de aparcamientos y flotas.

En el marco de este proyecto se ha desarrollado una plataforma para unificar la información de dispositivos y sistemas, facilitando así la gestión de los servicios públicos de una manera más eficiente. Alba Smart también incorpora un cuadro de mando integral, así como un portal de datos abiertos para cada ayuntamiento (aquí tienes disponible el de Almendralejo y el de Badajoz).

La iniciativa Alba Smart cuenta con la colaboración de Red.es a través del Plan Nacional de Ciudades Inteligentes.

Actividades para impulsar los datos abiertos

Dentro del contexto de Alba Smart, encontramos un grupo de trabajo de Datos Abiertos del ayuntamiento de Badajoz, que ha puesto en marcha diversas actividades enfocadas a la divulgación del open data en el marco de una entidad local.

Una de las primeras acciones que han llevado a cabo es la elaboración de una WIKI interna en la que han ido documentando todos los materiales que les han sido de utilidad. Esta WIKI facilita la compartición de contenido interno, de tal forma que todos los usuarios tienen a su disposición materiales de interés para dar respuesta a preguntas como: qué es el open data, qué roles, tareas y procesos implica, por qué es necesario adoptar este tipo de políticas, etc.

Además, en la parte pública de la web de Badajoz, tanto de Transparencia como de Datos Abiertos, han compartido una serie de documentos incluidos en esta WIKI que también pueden ser del interés de otras iniciativas locales:

Contenidos relacionados con la Transparencia

En la web se incluye un apartado-resumen con contenidos sobre TRANSPARENCIA. Entre otras cuestiones, incluye un listado de indicadores ITA2017 y su asignación a cada Servicio del Ayuntamiento.

En este apartado también se recoge el marco normativo que aplica al territorio, así como referencias externas.

Contenidos relacionados con los datos abiertos

También incluye un apartado-resumen sobre DATOS ABIERTOS , donde se recoge la normativa a aplicar y enlaces de interés, además de:

  • El listado de 40 conjuntos de datos recomendados por la FEMP en 2019. Este documento recoge una serie de dataset que deberían publicar todas las entidades locales de España con el fin de homogeneizar la publicación de datos abiertos y facilitar su gestión. El listado generado por Alba Smart incluye información sobre el servicio del ayuntamiento responsable de la apertura de cada conjunto de datos.
  • Un resumen del plan de implantación seguido por el ayuntamiento, donde se incluye el flujo de trabajo a seguir, haciendo hincapié en la necesidad de que se ejecute de manera continuada: identificando nuevas fuentes de información, revisando procesos internos, etc.
  • Una serie de vídeos formativos, de elaboración propia, para ayudar a los compañeros en la preparación y publicación de datos. Incluyen tutoriales sobre cómo organizar los datos, su catalogación o el proceso de revisión y aprobación, entre otros.
  • El listado de vocabularios que utilizan como referencia, los cuales permiten organizar, categorizar y etiquetar sistemáticamente la información.

Entre sus próximos pasos se encuentra la presentación de los conjuntos de datos en el visualizador de mapas del ayuntamiento. Los datos del portal ya se vuelcan en el GIS corporativo para facilitar esta función en el futuro.

Con todas estas acciones se pretende garantizar la sostenibilidad del portal, facilitando su actualización continua por parte de un equipo de trabajo que tienen bien claro los procedimientos de trabajo.

calendar icon
Noticia

La Fundación COTEC para la innovación ha publicado recientemente una Guía para la apertura y compartición de datos en el entorno empresarial, con recomendaciones y buenas prácticas para impulsar la reutilización de datos en el sector privado. El objetivo es doble: por un lado, acercar a las empresas las oportunidades que supone la apertura o compartición de los datos que tiene en su poder, y por otro, acompañar a las organizaciones en este proceso.

La guía se articula en torno a 5 pasos a seguir a la hora de poner en marcha una iniciativa de compartición/apertura de datos:

  1. Experimentación y concienciación, donde se identifica el potencial de los datos de la empresa.
  2. Definición de una estrategia sólida  que incluya, entre otros aspectos, los objetivos y las decisiones que deben tomarse a nivel organizativo.
  3. Preparación técnica, donde se abordan los aspectos relacionados con la gestión de los datos y la infraestructura tecnológica que se va a utilizar.
  4. Puesta en práctica del ciclo de vida de los datos, que a su vez se subdivide en las siguientes fases:  recoger, preparar, compartir o publicar y mantener.
  5. Monitorización de la iniciativa, donde se analiza el nivel de éxito y se proponen acciones para la mejora continua.

La guía también analiza otros aspectos relevantes a tener en cuenta, como los modelos de relación y financiación, el marco legal y los roles o habilidades necesarios para poner en marcha una iniciativa de este tipo. El documento finaliza con un glosario explicativo de términos y siglas.

Para ilustrar los numerosos beneficios que la apertura de datos puede traer a las empresas privadas, la guía incluye numerosos ejemplos de compañías que han puesto en marcha iniciativas para compartir sus datos con terceros o han encontrado un nuevo nicho de negocio basado en estos datos. Dichos ejemplos muestran el potencial que ofrecen estos procesos, tanto para las empresas proveedoras de datos como para las reutilizadoras.

El Grupo de Trabajo de Cotec en Datos Abiertos se puso en marcha en septiembre de 2018 y ha sido coordinado por Cristina Oyón y Amaia Martínez del Departamento de Iniciativas Estratégicas de SPRI, la Agencia Vasca de Desarrollo Empresarial del Gobierno Vasco. En este grupo han participado la Agencia de Desarrollo Económico de La Rioja (ADER), Alianza 4 Universidades, Banco Santander, Bankia, BBVA, Clarke Modet, la Consejería de Empleo, Empresa y Comercio de la Junta de Andalucía, Ecoembalajes España (Ecoembes), EDP España, Fundación Vodafone, F. Iniciativas, Indra, el Instituto Valenciano de Competitividad Empresarial (IVACE), Orange, Primafrío, Suez Advanced Solutions España, Tecnalia y Telefónica.

calendar icon
Noticia

 

La Federación de Municipios y Provincias de España (FEMP) presentó  el pasado viernes 7 de julio la  “Guía estratégica Datos Abiertos- Conjuntos de datos mínimos a publicar” que condensa acciones, pautas y recomendaciones para que ayuntamientos y entidades locales publiquen sus datos de forma útil y eficaz para su uso y reutilización por parte de ciudadanos, organizaciones, empresas u otras administraciones.

El documento ha sido elaborado por Grupo de Datos Abiertos de la Red de Entidades Locales por la Transparencia y la Participación Ciudadana de la Federación, integrado por responsables técnicos de diversos ayuntamientos y otras entidades, y ofrece un itinerario de trabajo para la apertura de datos y su reutilización para las administraciones locales.

En concreto, esta Guía detalla el mapa tipo de un portal de datos abiertos (componentes básicos, condiciones de uso o términos de reutilización), el marco legal para la reutilización de la información del sector público, el modelo de apertura de datos (protocolo y recomendaciones), así como el plan tecnológico (herramientas, plataformas y formatos), junto a los sistemas de medición (indicadores para medir iniciativas de datos abiertos, índices, popularidad y utilidad de los datos, etcétera).

Asimismo, incorpora un Plan de Formación y Difusión que contempla formación para el personal técnico que trabaja con datos, formación para la ciudadanía, y fija también las competencias básicas y la formación para los ciudadanos.

El equipo de trabajo que ha elaborado este documento ha apostado por definir conceptos y por diferenciar entre transparencia y datos abiertos, entre canal y herramienta y entre datos e información. En el apartado destinado a mostrar cómo es el mapa tipo de un portal de datos abiertos, se detallan los componentes básicos que debe tener un portal y se añaden una serie de recomendaciones.También establece el conjunto de datos mínimos a publicar por cada ayuntamiento. En concreto, se detalla una serie de componentes imprescindibles que debe tener un portal (catálogo, buscador, filtrado, condiciones de uso, servicios API, etcétera), así como una serie de componentes recomendables (servicio SPARQL). Esta clasificación de obligatorios/básicos y recomendables se ha realizado de acuerdo a los resultados de una encuesta realizada entre un colectivo de reutilizadores y responsables de portales de datos abiertos en España.

La Guía –disponible en papel y en versión digital- define un plan tecnológico para poder integrar la tecnología dentro de una estrategia de apertura de datos. Y aborda desde las herramientas necesarias para limpieza de datos, extracción y transformación, visualizadores, hasta las plataformas, los formatos reutilizables, los estándares, la interoperabilidad de los datos y la seguridad.

Aunque esta Guía de Datos Abiertos va dirigida específicamente a los ayuntamientos, también puede convertirse en un manual de uso y consulta  útil para otras administraciones públicas, instituciones, organismos, empresas, ciudadanos, emprendedores, universitarios y todas las personas que estén interesadas y necesiten información sobre los datos y su reutilización.

Un documento cuyo objetivo es familiarizar a los ciudadanos y a la sociedad con  el mundo de los Datos Abiertos u Open Data y ofrecer un conjunto de herramientas para desarrollar proyectos de apertura de datos de una manera fácil y sencilla.

calendar icon
Noticia

Con el fin de ayudar a los diferentes agentes de la comunidad de datos abiertos nacional, la Iniciativa Aporta elabora y publica regularmente manuales y guías metodológica que abordan diferentes aspectos de la apertura y reutilización de la información del sector público. De igual modo, periódicamente se revisa y actualiza la información de dichos materiales para adaptarlos a las últimas tendencias del sector al mismo tiempo que se rediseña el contenido para hacerlo más atractivo para los usuarios.

Así, se ha publicado recientemente la nueva versión de la Guía Metodológica para Iniciativas de Datos Abiertos Sectoriales, un documento creado en colaboración con el experto internacional en open data, Carlos Iglesias, que muestra cómo articular un proyecto de datos abiertos en torno a las necesidades de un sector o temática específica.

Esta última versión se ha enriquecido con elementos visuales -gráficos, ilustraciones, esquemas, entre otros - que facilitan el consumo y difusión del contenido. Asimismo, se han incluido nuevas referencias para permitir al lector profundizar en los aspectos más relevantes para el estudio previo y construcción de un modelo conceptual sobre el cual se base una iniciativa de datos abiertos sectorial. Por último, se ha reorganizado el contenido con el objetivo de mejorar la lectura y comprensión de la guía para que el usuario pueda aprovechar al máximo la información y los datos que se proporcionan.

Estas acciones se engloban en las líneas de actuación de la Iniciativa Aporta, diseñadas para ofrecer soporte a los destinatarios que conforman el ecosistema open data en España, y ayudarlos a que creen nuevos modelos de negocio basados en la reutilización de los datos abiertos, que colaboren en el crecimiento socioeconómico del país.

 

 

 

calendar icon