Entrevista

¿Sabías que las habilidades de ciencia de datos están entre las más demandadas por las empresas? En este pódcast, te vamos a contar cómo puedes formarte en este campo, de manera autodidacta. Para ello, contaremos con dos expertos en ciencia de datos:

  • Juan Benavente, ingeniero industrial e informático con más de 12 años de experiencia en innovación tecnológica y transformación digital. Además, lleva años formando a nuevos profesionales en escuelas tecnológicas, escuelas de negocio y universidades.
  • Alejandro Alija, doctor en física, científico de datos y experto en transformación digital. Además de su amplia experiencia profesional enfocada en el Internet of Things (internet de las cosas), Alejandro también trabaja como profesor en diferentes escuelas de negocio y universidades.

Escuchar el pódcast completo

Resumen / Transcripción de la entrevista

1. ¿Qué es la ciencia de datos? ¿Por qué es importante y para qué nos puede servir? 

Alejandro Alija: La ciencia de datos podría definirse como una disciplina cuyo principal objetivo es entender el mundo, los procesos propios de un negocio y de la vida, analizando y observando los datos. En los últimos 20 años ha cobrado una relevancia excepcional debido a la explosión en la generación de datos, principalmente por la irrupción de internet y del mundo conectado.

Juan Benavente:  El término ciencia de datos ha ido evolucionando desde su creación. Hoy, un científico de datos es la persona que está trabajando en el nivel más alto en análisis de datos, frecuentemente asociado con la construcción de algoritmos de machine learning o inteligencia artificial para empresas o sectores específicos, como predecir u optimizar la fabricación en una planta.

La profesión está evolucionando rápidamente, y probablemente en los próximos años se vaya fragmentando. Hemos visto aparecer nuevos roles como ingenieros de datos o especialistas en MLOps. Lo importante es que hoy cualquier profesional, independientemente de su área, necesita trabajar con datos. No cabe duda de que cualquier posición o empresa requiere análisis de datos, cada vez más avanzados. Da igual si estás en marketing, ventas, operaciones o en la universidad. Cualquiera hoy en día está trabajando con datos, manipulándolos y analizándolos. Si además aspiramos a la ciencia de datos, que sería el mayor nivel de expertise, estaremos en una posición muy beneficiosa. Pero, sin duda, recomendaría a cualquier profesional que tenga esto en radar.

2. ¿Cómo os iniciasteis en la ciencia de datos y qué hacéis para manteneros actualizados? ¿Qué estrategias recomendaríais tanto para principiantes como para perfiles más experimentados?

Alejandro Alija: Mi formación básica es en física, e hice mi doctorado en ciencia básica. En realidad, podría decirse que cualquier científico, por definición, es un científico de datos, porque la ciencia se basa en formular hipótesis y demostrarlas con experimentos y teorías. Mi relación con los datos comenzó temprano en la academia. Un punto de inflexión en mi carrera fue cuando empecé a trabajar en el sector privado, específicamente en una compañía de gestión medioambiental que se dedica a medir y observar la contaminación atmosférica. El medio ambiente es un campo que tradicionalmente es gran generador de datos, especialmente por ser un sector regulado donde las administraciones y empresas privadas están obligadas, por ejemplo, a registrar los niveles de contaminación atmosférica en determinadas condiciones. Encontré series históricas de hasta 20 años de antigüedad que estaban a mi disposición para analizar. A partir de ahí empezó mi curiosidad y me especialicé en herramientas concretas para analizar y entender lo que está ocurriendo en el mundo.

Juan Benavente: Yo me identifico con lo que ha comentado Alejandro porque tampoco soy informático. Me formé en ingeniería industrial y aunque la informática es uno de mis intereses, no fue mi base. A diferencia, hoy en día,  sí veo que se están formando más especialistas desde la universidad. Actualmente, un científico de datos tiene muchas skills a la espalda como cuestiones de estadística, matemáticas y la capacidad de entender todo lo que pasa en el sector. Yo he ido adquiriendo estos conocimientos en base a la práctica. Sobre cómo mantenerse actualizado, yo creo que, en muchos casos, puedes estar en contacto con empresas que están innovando en este campo. También en eventos sectoriales o tecnológicos se puede aprender mucho. Yo empecé en las smart cities y he ido pasando por el mundo industrial hasta aprender poco a poco.

Alejandro Alija: Por añadir otra fuente en la que mantenerse actualizado. A parte de las que ha comentado Juan, creo que es importante identificar lo que llamamos outsiders, los fabricantes de tecnologías, los actores del mercado. Son una fuente de información muy útil para estar actualizado: identificar sus estrategias de futuros y por qué apuestan.

3. Pongámonos en el caso hipotético de que alguien con pocos o nulos conocimientos técnicos, quiera aprender ciencia de datos, ¿por dónde empieza?

Juan Benavente: En formación, me he encontrado perfiles muy diferentes: desde gente que acabe de salir de la carrera hasta perfiles que se han formado en ámbitos muy diferentes y encuentran en la ciencia de datos una oportunidad para transformarse y dedicarse a esto. Pensando en alguien que está empezando, creo que lo mejor es poner en práctica tus conocimientos. En proyectos en los que he trabajado definíamos la metodología en tres fases: una primera fase más de aspectos teóricos teniendo en cuenta matemáticas, programación y todo lo que necesita saber un científico de datos; una vez tengas esas bases, cuanto antes empieces a trabajar y practicar esos conocimientos, mejor. Creo que la habilidad agudiza el ingenio y, tanto para estar actualizado, como para formarte e ir adquiriendo conocimiento útil, cuanto antes entres en proyecto, mejor. Y más, hablando de un mundo que se actualiza tan recurrentemente. Estos últimos años, la aparición de la IA generativa ha supuesto otras oportunidades. En estas herramientas también hay oportunidades para nuevos perfiles que quieran formarse. Aunque no seas experto en programación tienes herramientas que te puedan ayudar a programar, y lo mismo te puede suceder en matemáticas o estadística.

Alejandro Alija: Por complementar un poco lo que dice Juan desde una perspectiva diferente. Creo que vale la pena destacar la evolución de la profesión de ciencia de datos. Recuerdo cuando se hizo famoso aquel paper en el que se hablaba de "la profesión más sexy del mundo", que se volvió muy viral, aunque luego las cosas se fueron ajustando. Los primeros pobladores del mundo de la ciencia de datos no venían tanto de ciencias de la computación o informática. Eran más los outsiders: físicos, matemáticos, con bases robustas en matemáticas y física, e incluso algunos ingenieros que por su trabajo y desarrollo profesional terminaban utilizando muchas herramientas del ámbito informático. Poco a poco se ha ido balanceando. Ahora es una disciplina que sigue teniendo esas dos vertientes: personas que vienen del mundo de la física y matemáticas hacia los datos más básicos, y personas que vienen con conocimientos de programación. Cada uno sabe lo que tiene que balancear de su caja de herramientas. Pensando en un perfil junior que esté empezando, creo que una cosa muy importante - y así lo vemos cuando damos clase - es la capacidad de programación. Diría que tener skills de programación no es solo un plus, sino un requisito básico para avanzar en esta profesión. Es verdad que algunas personas pueden desempeñarse bien sin muchas habilidades de programación, pero yo diría que un principiante necesita tener esas primeras skills de programación con un toolset básico. Estamos hablando de lenguajes como Python y R, que son los lenguajes de cabecera. No se trata de ser un gran codificador, pero sí de tener conocimientos básicos para poder arrancar. Luego, evidentemente, la formación específica sobre fundamentos matemáticos de la ciencia de datos es crucial. La estadística fundamental y la estadística más avanzada son complementos que, si se tienen, harán que la persona avance mucho más rápido en la curva de aprendizaje de la ciencia de datos. En tercer lugar, diría que la especialización en herramientas particulares es importante. Hay gente que se orienta más hacia la ingeniería de datos, otros hacia el mundo de los modelos. Lo ideal es especializarse en algunos frameworks y utilizarlos de manera conjunta, de la forma más óptima posible.

4. Además de como profesores, ambos trabajáis en empresas tecnológicas, ¿qué certificaciones técnicas son más valoradas en el sector empresarial y qué fuentes abiertas de conocimiento recomendáis para prepararse para ellas?

Juan Benavente: Personalmente, no es lo que más miro, pero creo que puede ser relevante, sobre todo para personas que están comenzando y que necesitan ayuda para estructurar su forma de aproximarse al problema y entenderlo. Recomiendo certificaciones de tecnologías que están en uso en cualquier empresa donde quieras acabar trabajando. Especialmente de proveedores de cloud computing y herramientas ampliamente extendidas de análisis de datos. Son certificaciones que recomendaría para alguien que quiere aproximarse a este mundo y necesita una estructura que le ayude. Cuando no tienes una base de conocimiento, puede ser un poco confuso entender por dónde empezar. Quizás deberías reforzar primero la programación o los conocimientos matemáticos, pero todo puede parecer un poco lioso. Donde sin duda te ayudan estas certificaciones es, además de reforzar conceptos, para garantizar que te mueves bien y conoces el ecosistema de herramientas típico con el que vas a trabajar mañana. No se trata solo de conceptos teóricos, sino de conocer los ecosistemas que te encontrarás cuando empieces a trabajar, ya sea fundando tu propia empresa o trabajando en una empresa establecida. Te facilita mucho conocer el ecosistema típico de herramientas. Llámalo Microsoft Computing, Amazon u otros proveedores de este tipo de soluciones. Así podrás centrarte más rápidamente en el trabajo en sí, y no tanto en todas las herramientas que lo rodean. Creo que este tipo de certificaciones son útiles, sobre todo para perfiles que se están acercando a este mundo con ilusión. Les ayudará tanto a estructurarse como a aterrizar bien en su destino profesional. Probablemente también se valoren en los procesos de selección.

Alejandro Alija: Si alguien nos escucha y quiere directrices más específicas, se podría estructurar en bloques. Hay una serie de cursos masivos en línea que, para mí, fueron un punto de inflexión. En mis comienzos, traté de inscribirme en varios de estos cursos en plataformas como Coursera, edX, donde incluso los propios fabricantes de tecnología son los que diseñan estos cursos. Creo que este tipo de cursos online masivos, que se pueden hacer de manera autoservicio, proporcionan una buena base inicial. Un segundo bloque serían los cursos y las certificaciones de los grandes proveedores de tecnología, como Microsoft, Amazon Web Services, Google y otras plataformas que son referentes en el mundo de los datos. Estas compañías tienen la ventaja de que sus rutas de aprendizaje están muy bien estructuradas, lo que facilita el crecimiento profesional dentro de sus propios ecosistemas. Se pueden ir combinando certificaciones de diferentes proveedores. Para una persona que quiera dedicarse a este campo, el camino va desde las certificaciones más sencillas hasta las más avanzadas, como ser un arquitecto de soluciones en el área de datos o un especialista en un servicio o producto específico de análisis de datos. Estos dos bloques de aprendizaje están disponibles en internet, la mayoría son abiertos y gratuitos o cercanos a la gratuidad. Más allá del conocimiento, lo que se valora es la certificación, especialmente en las compañías que buscan estos perfiles profesionales.

5. Además de la formación teórica, la práctica es clave, uno de los métodos más interesantes para aprender es replicar ejercicios paso a paso. En este sentido, desde datos.gob.es ofrecemos recursos didácticos, muchos de ellos desarrollados por vosotros como expertos en el proyecto, ¿nos podéis contar en qué consisten estos ejercicios? ¿Cómo se plantean?

Alejandro Alija: El planteamiento que siempre hicimos fue pensado para un público amplio, sin requisitos previos complejos. Queríamos que cualquier usuario del portal pudiera replicar los ejercicios, aunque es evidente que cuanto más conocimiento se tiene, más se puede aprovechar. Los ejercicios tienen una estructura bien definida: un apartado documental, generalmente un post de contenido o un informe que describe en qué consiste el ejercicio, qué materiales se necesitan, cuáles son los objetivos y qué se pretende conseguir. Además, acompañamos cada ejercicio con dos recursos adicionales. El primer recurso es un repositorio de código donde subimos los materiales necesarios, con una descripción breve y el código del ejercicio. Puede ser un notebook de Python, un Jupyter Notebook o un script simple, donde está el contenido técnico. Y luego otro elemento fundamental que creemos importante y que va dirigido a facilitar la ejecución de los ejercicios. En ciencia de datos y programación, los usuarios no especialistas suelen tener dificultades para configurar un entorno de trabajo. Un ejercicio en Python, por ejemplo, requiere tener instalado un entorno de programación, conocer las librerías necesarias y realizar configuraciones que para profesionales son triviales, pero para principiantes pueden ser muy complejas. Para mitigar esta barrera, publicamos la mayoría de nuestros ejercicios en Google Colab, una herramienta maravillosa y abierta. Google Colab es un entorno de programación web donde el usuario solo necesita un navegador para acceder. Básicamente, Google nos proporciona un ordenador virtual donde podemos ejecutar nuestros programas y ejercicios sin necesidad de configuraciones especiales. Lo importante es que el ejercicio esté listo para usarse y siempre lo verificamos en este entorno, lo que facilita enormemente el aprendizaje para usuarios principiantes o con menos experiencia técnica.

Juan Benavente: Sí, siempre planteamos un enfoque orientado para cualquier usuario, paso a paso, intentando que sea abierto y accesible. Se busca que cualquiera pueda ejecutar un ejercicio sin necesidad de configuraciones complejas, centrándose en temáticas lo más cercanas a la realidad que sea posible. Aprovechamos, muchas veces, datos abiertos publicados por entidades como la DGT u otros organismos para hacer análisis realistas. Hemos desarrollado ejercicios muy interesantes, como predicciones del mercado energético, análisis de materiales críticos para baterías y electrónica, que permiten aprender no solo tecnología, sino también sobre la temática específica. En seguida puedes ponerte manos a la obra, no solo aprender, sino además averiguar sobre la temática.

6. Para cerrar, nos gustaría que pudierais ofrecer un consejo más orientado a actitud que a conocimientos técnicos, ¿qué le diríais a alguien que esté empezando en ciencia de datos?

Alejandro Alija:  En cuanto a un consejo de actitud para alguien que está empezando en ciencia de datos, sugiero ser valiente. No hay que preocuparse por no estar preparado, porque en este campo todo está por hacer y cualquier persona puede aportar valor. La ciencia de datos tiene múltiples vertientes: hay profesionales más cercanos al mundo de negocio que pueden aportar conocimientos valiosos, y otros más técnicos que necesitan comprender el contexto de cada área. Mi consejo es formarse con los recursos disponibles sin asustarse, porque, aunque el camino parezca complejo, las oportunidades son muy altas. Como consejo técnico, es importante tener sensibilidad hacia el desarrollo y uso de datos. Cuanta más comprensión se tenga de este mundo, más fluida será la aproximación a los proyectos.

Juan Benavente: Suscribo el consejo de ser valiente y añado una reflexión sobre la programación: mucha gente encuentra atractivo el concepto teórico, pero cuando llegan a la práctica y ven la complejidad de programar, algunos se desaniman por falta de conocimientos previos o expectativas diferentes. Es importante añadir los conceptos de paciencia y constancia. Al comenzar en este campo, te enfrentas a múltiples áreas que necesitas dominar: programación, estadística, matemáticas, y conocimiento específico del sector en el que trabajarás, ya sea marketing, logística u otro ámbito. La expectativa de convertirse en un experto rápidamente no es realista. Es una profesión que, aunque se puede comenzar sin miedo y colaborando con profesionales, requiere un recorrido y un proceso de aprendizaje. Hay que ser constante y paciente, gestionando las expectativas adecuadamente. La mayoría de las personas que llevan tiempo en este mundo coinciden en que no se arrepienten de dedicarse a la ciencia de datos. Es una profesión muy atractiva donde puedes aportar valor significativo, con un componente tecnológico importante. Sin embargo, el camino no siempre es directo. Habrá proyectos complejos, momentos de frustración cuando los análisis no arrojan los resultados esperados o cuando trabajar con datos resulta más desafiante de lo previsto. Pero mirando hacia atrás, son pocos los profesionales que se arrepienten de haber invertido tiempo y esfuerzo en formarse y desarrollarse en este campo. En resumen, los consejos fundamentales son: valentía para empezar, constancia en el aprendizaje y desarrollo de habilidades de programación.

Clips de la entrevista

1. ¿Merece la pena formarse en ciencia de datos?

2. ¿Cómo se plantean los ejercicios de ciencia de datos de datos.gob.es?

3. ¿Qué es la ciencia de datos? ¿Qué competencias son necesarias?

calendar icon
Noticia

No hay duda de que la inteligencia artificial se ha convertido en un pilar fundamental de la innovación tecnológica. Hoy en día, mediante inteligencia artificial (IA) se pueden crear chatbots especializados en datos abiertos, aplicaciones que faciliten el trabajo profesional e incluso un gemelo digital de la Tierra para anticiparse a desastres naturales.

Las posibilidades son infinitas, sin embargo, el futuro de la IA también tiene retos a superar para que los modelos sean más inclusivos, accesibles y transparentes. En este sentido, la Unión Europea está desarrollando diversas iniciativas para conseguir avanzar en este campo.

Marco regulatorio europeo a favor de una IA más abierta y transparente

El planteamiento de la UE en materia de IA busca ofrecer a los ciudadanos la confianza necesaria para adoptar estas tecnologías y animar a las empresas a desarrollarlas. Para ello, el Reglamento Europeo de IA establece unas pautas de desarrollo de la inteligencia artificial alineadas con los valores europeos de privacidad, seguridad y diversidad cultural. Por otro lado, el Reglamento de Gobernanza de Datos (DGA) define que se debe garantizar un acceso amplio a los datos sin comprometer derechos de propiedad intelectual, privacidad y equidad.

Junto con la Ley de Inteligencia Artificial, la actualización del Plan Coordinado sobre la IA garantiza la seguridad y los derechos fundamentales de las personas y las empresas, reforzando al mismo tiempo la inversión y la innovación en todos los países de la UE. La Comisión también ha puesto en marcha un paquete de innovación en materia de inteligencia artificial para ayudar a las empresas emergentes y pymes europeas a que desarrollen una IA fiable que respete los valores y normas de la UE.

Otras instituciones también están trabajando en el impulso de una inteligencia impulsando los modelos de IA de código abierto como una solución muy interesante. Un informe reciente de Open Future y Open Source Initiative (OSI) define cómo debería ser la gobernanza de datos en los modelos de IA open source. Uno de los desafíos que destaca el informe es, precisamente, lograr un equilibrio entre apertura de datos y derechos sobre los mismos, conseguir más transparencia y evitar sesgos culturales. De hecho, los expertos en la materia Ricard Martínez y Carmen Torrijos debatieron sobre este tema en el pódcast de datos.gob.es.

El proyecto OpenEuroLLM

Con el objetivo de solventar los posibles desafíos y planteándose como una solución innovadora y abierta, la Unión Europea, a través del programa Europa Digital ha presentado  A través de este proyecto de inteligencia artificial de código abierto se esperan crear modelos de lenguaje eficientes, transparentes y alineados con la normativa europea de IA.

El proyecto OpenEuroLLM tiene como meta principal el desarrollo de modelos de lenguaje de última generación que sirvan para una amplia variedad de aplicaciones tanto públicas como privadas. Entre los objetivos más destacados, podemos mencionar:

  1. Extender las capacidades multilingües de los modelos existentes: esto incluye no solo las lenguas oficiales de la Unión Europea, sino también otras lenguas que son de interés social y económico. Europa es un continente rico en diversidad lingüística, y el proyecto busca reflejar esa diversidad en los modelos de IA.
  2. Acceso sostenible a modelos fundamentales: los modelos desarrollados dentro del proyecto serán fáciles de acceder y estarán listos para ser ajustados a diversas aplicaciones. Esto no solo beneficiará a grandes empresas, sino también a pequeñas y medianas empresas (PYMES) que deseen integrar la IA en sus procesos sin enfrentar barreras tecnológicas.
  3. Evaluación de resultados y alineación con la normativa europea: los modelos serán evaluados de acuerdo con rigurosos estándares de seguridad y alineación con el Reglamento Europeo de IA y otros marcos regulatorios europeos. Esto garantizará que las soluciones de IA sean seguras y respetuosas con los derechos fundamentales.
  4. Transparencia y accesibilidad: una de las premisas del proyecto es compartir de manera abierta las herramientas, procesos y resultados intermedios de los procesos de entrenamiento. Esto permitirá que otros investigadores y desarrolladores puedan reproducir, mejorar y adaptar los modelos para sus propios propósitos.
  5. Fomento de la comunidad: OpenEuroLLM no se limita a la creación de modelos, sino que también tiene como objetivo construir una comunidad activa y comprometida, tanto en el sector público como en el privado, que pueda colaborar, compartir conocimientos y trabajar en conjunto para avanzar en la investigación de IA.

El Consorcio OpenEuroLLM: un proyecto colaborativo y multinacional

El proyecto OpenEuroLLM está siendo desarrollado por un consorcio de 20 instituciones europeas de investigación, empresas tecnológicas y centros de supercomputación, bajo la coordinación de la Universidad de Charles (República Checa) y la colaboración de Silo GenAI (Finlandia). El consorcio reúne a algunas de las instituciones y empresas líderes en el campo de la inteligencia artificial en Europa, creando una colaboración multinacional para desarrollar modelos de lenguaje de código abierto.

Entre las principales instituciones que participan en el proyecto se encuentran universidades de renombre como la Universidad de Helsinki (Finlandia) o la Universidad de Oslo (Noruega), así como empresas tecnológicas como Aleph Alpha Research (Alemania) o la empresa ilicitana prompsit (España), entre otras. Además, los centros de supercomputación como Barcelona Supercomputing Center (España) o SURF (Países Bajos) proporcionan la infraestructura necesaria para entrenar modelos a gran escala.

Diversidad lingüística, transparencia y conformidad con las normas de la UE

Uno de los mayores desafíos de la inteligencia artificial globalizada es la inclusión de múltiples idiomas y la preservación de las diferencias culturales. Europa, con su vasta diversidad lingüística, presenta un entorno único para abordar estos problemas. OpenEuroLLM se compromete a preservar esa diversidad y garantizar que los modelos de IA desarrollados sean sensibles a las variaciones lingüísticas y culturales de la región.

Como hemos visto al inicio del post, el desarrollo tecnológico debe ir de la mano de los valores éticos y responsables. En este sentido, una de las características clave del proyecto OpenEuroLLM es su enfoque en la transparencia. Los modelos, los datos, la documentación, el código de entrenamiento y las métricas de evaluación estarán completamente disponibles para el público. Esto permitirá que investigadores y desarrolladores puedan auditar, modificar y mejorar los modelos, garantizando un enfoque abierto y colaborativo.

Además, el proyecto se alinea con las estrictas normativas europeas de IA. OpenEuroLLM está diseñado para cumplir con la Ley de IA de la UE, que establece criterios rigurosos para garantizar la seguridad, la equidad y la privacidad en los sistemas de inteligencia artificial.

Democratización del acceso a la IA

Uno de los logros más importantes de OpenEuroLLM es la democratización del acceso a la IA de alto rendimiento. Los modelos de código abierto permitirán que empresas, instituciones académicas y organizaciones del sector público de toda Europa tengan acceso a tecnología de vanguardia, independientemente de su tamaño o presupuesto.

Esto es especialmente relevante para las pequeñas y medianas empresas (PYMES), que a menudo enfrentan dificultades para acceder a soluciones de IA debido a los altos costos de licencias o las barreras tecnológicas. OpenEuroLLM eliminará estas barreras y permitirá que las empresas desarrollen productos y servicios innovadores utilizando IA, lo que contribuirá al crecimiento económico de Europa.

El proyecto OpenEuroLLM también es una apuesta de la UE por la soberanía digital que está invirtiendo de manera estratégica en el desarrollo de infraestructura tecnológica que reduzca la dependencia de actores globales y refuerce la competitividad europea en el ámbito de la inteligencia artificial. Este es un paso importante hacia una inteligencia artificial que no solo sea más avanzada, sino también más justa, segura y responsable.

calendar icon
Blog

No hay duda de que la formación en competencias digitales es necesaria hoy en día. Los conocimientos digitales básicos son fundamentales para poder interactuar en una sociedad en la que la tecnología ya juega un papel transversal. En concreto, es importante conocer aspectos básicos de la tecnología para trabajar con datos.

En este contexto, las trabajadoras y trabajadores del sector público también deben mantenerse en constante actualización. Capacitarse en este ámbito es clave para optimizar procesos, garantizar la seguridad de la información y fortalecer la confianza en las instituciones.

En este post, identificamos habilidades digitales relacionadas con los datos abiertos tanto dirigidas a la publicación como al uso de estos. No solo identificamos las competencias profesionales que deben tener y mantener los empleados públicos que trabajan con open data, también recopilamos una serie de recursos formativos que están a su disposición.

Competencias profesionales para trabajar con datos

En el Encuentro Nacional de Datos Abiertos de 2024 se constituyó un grupo de trabajo con un objetivo: identificar las competencias digitales que debían tener los profesionales de la administración pública que trabajasen con datos abiertos. Más allá de las conclusiones de este evento de relevancia nacional, el grupo de trabajo definió perfiles y roles necesarios para la apertura de datos, recogiendo información sobre sus funciones y las capacidades y conocimientos necesarios. Los principales roles identificados fueron:

  • Rol responsable: tiene funciones de responsabilidad técnica en el impulso de políticas de datos abiertos y organiza actividades de definición de las políticas y modelos de datos. Algunos conocimientos necesarios son:
    • Liderazgo en el impulso de estrategias para impulsar la apertura del dato.
    • Impulsar la estrategia del dato para impulsar la apertura con propósito.
    • Comprender el marco normativo relacionado con los datos para actuar dentro de la legalidad en todo el ciclo de vida del dato.
    • Fomentar el uso de herramientas y procesos para la gestión del dato.
    • Capacidad de generar sinergias para consensuar instrucciones transversales a toda la organización.
  • Rol técnico de apertura de datos (perfil TIC): desarrolla actividades de ejecución más vinculadas con la gestión de los sistemas, los procesos de extracción, limpieza de datos, etc. Este perfil debe conocer, por ejemplo:
    • Cómo estructurar el conjunto de datos, el vocabulario de metadatos, calidad del dato, estrategia a seguir...
    • Ser capaz de analizar un conjunto de datos e identificar los procesos de depuración y limpieza de manera rápida e intuitiva.
    • Generar visualizaciones de datos, conectando bases de datos de diferentes formatos y orígenes, y así obtener gráficos, indicadores y mapas dinámicos e interactivos.
    • Dominar las funcionalidades de la plataforma, es decir, saber aplicar soluciones tecnológicas para la gestión de datos abiertos o conocer técnicas y estrategias para acceder, extraer e integrar datos de diferentes plataformas.
  • Rol funcional de apertura de datos (técnico de un servicio): ejecuta actividades más vinculadas con la selección de datos a publicar, la calidad, promoción de los datos abiertos, visualización, analítica de datos, etc. Por ejemplo:
    • Manejar herramientas de visualización y dinamización.
    • Conocer la economía del dato y conocer la información referente al dato en toda su extensión (generación por las AAPP, datos abiertos, infomediarios, reutilización de la información pública, Big Data, Data Driven, roles implicados, etc.).
    • Conocer y aplicar los aspectos éticos y de protección de datos de carácter personal que aplican a la apertura de datos.
  • Uso de datos por parte de los trabajadores públicos: este perfil lleva a cabo actividades sobre el uso de los datos para la toma de decisiones, analítica básica de datos, entre otros. Para ello, deberá tener estas competencias:
    • Navegación, búsqueda y filtrado de datos.
    • Evaluación de datos.
    • Almacenamiento y explotación de datos.
    • Análisis y explotación de datos.

Además, como parte de este reto para incrementar las capacidades para la apertura de datos, se elaboró un listado de formaciones y guías gratuitas en materia de datos abiertos y análisis de datos. Recopilamos algunas de ellas que están disponibles online y en formato abierto.

Institución Recurso Enlace Nivel
Centro Knight para el Periodismo en las Américas Periodismo de datos y visualización con herramientas gratuitas https://journalismcourses.org/es/course/dataviz/ Principiante
Data Europa Academy Introducción a los datos abiertos https://data.europa.eu/en/academy/introducing-open-data Principiante
Data Europa Academy Comprender el lado legal de los datos abiertos https://data.europa.eu/en/academy/understanding-legal-side-open-data Principante
Data Europa Academy Mejorar la calidad de los datos abiertos y los metadatos https://data.europa.eu/en/academy/improving-open-data-and-metadata-quality Avanzado
Data Europa Academy Medir el éxito en las iniciativas de datos abiertos https://data.europa.eu/en/training/elearning/measuring-success-open-data-initiatives  Avanzado
Escuela de Datos Curso de tubería de datos – Data Pipeline https://escueladedatos.online/curso/curso-tuberia-de-datos-data-pipeline/  Intermedio
FEMP Guía estratégica para su puesta en marcha – Conjuntos de datos mínimos a publicar https://redtransparenciayparticipacion.es/download/guia-estrategica-para-su-puesta-en-marcha-conjuntos-de-datos-minimos-a-publicar/  Intermedio
Datos.gob.es Pautas metodológicas para la apertura de datos /es/conocimiento/pautas-metodologicas-para-la-apertura-de-datos  Principiante
Datos.gob.es Guía práctica para la publicación de datos abiertos usando APIs /es/conocimiento/guia-practica-para-la-publicacion-de-datos-abiertos-usando-apis Intermedio
Datos.gob.es Guía práctica para la publicación de datos espaciales /es/conocimiento/guia-practica-para-la-publicacion-de-datos-espaciales  Intermedio
Junta de Andalucía Tratar conjuntos de datos con Open Refine https://www.juntadeandalucia.es/datosabiertos/portal/tutoriales/usar-openrefine.html Principiante

Figura 1. Tabla de elaboración propia con recursos formativos. Fuente: https://encuentrosdatosabiertos.es/wp-content/uploads/2024/05/Reto-2.pdf

El Instituto Nacional de Administración Pública (INAP) cuenta con un Programa de Actividades Formativas para 2025, enmarcado en la Estrategia de Aprendizaje del INAP 2025-2028. Este catálogo formativo incluye más de 180 actividades organizadas en diferentes programas de aprendizaje, que se desarrollarán a lo largo del año con el objetivo de fortalecer las competencias del personal público en ámbitos clave como la gestión de datos abiertos y el uso de tecnologías relacionadas.

En el programa formativo de INAP para 2025 se ofrece una amplia variedad de cursos orientados a mejorar las capacidades digitales y la alfabetización en datos abiertos. Algunas de las formaciones destacadas incluyen:

  • Fundamentos y herramientas del análisis de datos.
  • Introducción a SQL de Oracle.
  • Datos abiertos y reutilización de la información.
  • Análisis y visualización de datos con Power BI.
  • Blockchain: aspectos técnicos.
  • Programación en Python avanzado.

Estos cursos, dirigidos a distintos perfiles de empleados públicos, desde responsables de datos abiertos hasta técnicos en gestión de información, permiten adquirir conocimientos sobre extracción, tratamiento y visualización de datos, así como sobre estrategias para la apertura y reutilización de datos abiertos en la Administración Pública. Puedes consultar el catálogo completo aquí.

Otras referencias formativas

Algunas administraciones públicas o entidades disponen de oferta de cursos de formación vinculadas a los datos abiertos. Para más información de su oferta formativa, se facilita el catálogo con la oferta de cursos programados.

En resumen, la formación en competencias digitales, en general, y en datos abiertos, en particular, es una práctica que recomendamos desde datos.gob.es. ¿Necesitas algún recurso formativo en específico? Escríbenos en comentarios, ¡te leemos!

calendar icon
Blog

Como cada año, desde el equipo de datos.gob.es te deseamos unas felices fiestas. Si esta Navidad te apetece regalar o autorregalarte conocimiento, te traemos nuestra tradicional carta navideña con ideas para pedir a Papá Noel o a los Reyes Magos.

Tenemos una selección de libros sobre temáticas variadas como la protección de datos, las novedades en IA o los grandes descubrimientos científicos del siglo XX. Todas estas recomendaciones que van del género ensayístico a la novela serán un acierto seguro para colocar debajo del árbol.

Maniac de Benjamín Labatut

  • ¿De qué va? Guiado por la figura de John von Neumann, uno de los grandes genios del siglo XX, el libro recorre temas como la creación de las bombas atómicas, la Guerra Fría, el nacimiento del universo digital y el auge de la inteligencia artificial. La historia comienza con el trágico suicidio de Paul Ehrenfest y avanza a través de la vida de von Neumann, quien presagió la llegada de una singularidad tecnológica. El libro culmina con la confrontación entre un hombre y una máquina, en un enfrentamiento épico en el juego de Go, que sirve como advertencia sobre el futuro de la humanidad y sus creaciones.
  • ¿A quién va dirigido? Esta novela de ciencia ficción está dirigida a toda persona interesada en la historia de la ciencia, la tecnología y sus implicaciones filosóficas y sociales. Es ideal para quienes disfrutan de narrativas que combinan el thriller con profundas reflexiones sobre el futuro de la humanidad y el avance tecnológico. También es adecuado para aquellos que buscan una obra literaria que se adentre en los límites del pensamiento, la razón y la inteligencia artificial.

Toma el control de tus datos, de Alicia Asin

  • ¿De qué va? Este libro recopila recursos para comprender mejor el entorno digital en el que vivimos, utilizando ejemplos prácticos y definiciones claras que facilitan que cualquiera pueda entender cómo las tecnologías afectan nuestra vida personal y social. Además, nos invita a ser más conscientes de las consecuencias del uso indiscriminado de nuestros datos, desde el rastro digital que dejamos o el manejo de nuestra privacidad en las redes sociales, hasta el comercio en la dark web. También alerta sobre el uso legítimo, pero a veces invasivo que muchas empresas hacen de nuestros comportamientos en línea.
  • ¿A quién va dirigido? La autora de este libro es CEO de la empresa reutilizadora de datos Libelium que participó en uno de nuestros Encuentros Aporta y es una experta referente en privacidad, uso apropiado de los datos y espacios de datos, entre otros.  En este libro ofrece una perspectiva empresarial a través de una obra dirigida al público general.

Gobierno, gestión y calidad de la inteligencia artificial de Mario Geraldo Piattini

  • ¿De qué va? La inteligencia artificial está cada vez más presente en nuestra vida diaria y en la transformación digital de empresas y organismos públicos ofreciendo tanto beneficios como posibles riesgos. Para aprovechar correctamente las ventajas de la IA y evitar problemáticas es muy importante contar con sistemas éticos, legales y responsables. En este libro se ofrece una visión general de las principales normas y herramientas para gestionar y asegurar la calidad de los sistemas inteligentes. Para ello, aporta ejemplos claros sobre las mejores prácticas disponibles. 
  • ¿A quién va dirigido? Aunque cualquier persona puede leerlo, el libro proporciona herramientas para ayudar a las empresas a afrontar los desafíos de la IA, creando sistemas que respeten principios éticos y se alineen con las mejores prácticas ingenieriles.

Nexus, de Yuval Noah

  • ¿De qué va? En esta nueva entrega, uno de los escritores de moda, analiza cómo las redes de la información han moldeado la historia humana, desde la Edad de Piedra hasta la era actual. Este ensayo explora la relación entre la información, la verdad, la burocracia, la mitología, la sabiduría y el poder, y cómo diferentes sociedades han utilizado la información para imponer orden, con consecuencias tanto positivas como negativas. En este contexto, el autor plantea las urgentes decisiones que debemos tomar frente a las amenazas actuales, como el impacto de la inteligencia no humana en nuestra existencia.
  • ¿A quién va dirigido? Es una obra mainstream, es decir, cualquier persona puede leerlo y lo más probable es que disfrute de su lectura. Es una opción especialmente atractiva para lectores que buscan reflexionar sobre el papel de la información en la sociedad moderna y sus implicaciones para el futuro de la humanidad, en un contexto donde las tecnologías emergentes, como la inteligencia artificial, están desafiando nuestra forma de vida.

Generative Deep Learning: Teaching Machines to Paint, Write, Compose, and Play de David Foster (segunda edición 2024)

  • ¿De qué va? Este libro práctico nos sumerge en el fascinante mundo del aprendizaje profundo generativo, explorando cómo las máquinas pueden crear arte, música y texto. A través de sus páginas, Foster nos guía por las arquitecturas más innovadoras como VAEs, GANs y modelos de difusión, explicando cómo estas tecnologías pueden transformar fotografías, generar música e incluso escribir textos. El libro comienza con los fundamentos del deep learning y progresa hacia aplicaciones de vanguardia, incluyendo la creación de imágenes con Stable Diffusion, la generación de texto con GPT y la composición musical con MuSEGAN. Es una obra que combina el rigor técnico con la creatividad artística.
  • ¿A quién va dirigido? Este manual técnico está pensado para ingenieros de machine learning, científicos de datos y desarrolladores que quieran adentrarse en el campo del aprendizaje profundo generativo. Es ideal para aquellos que ya tienen una base en programación y machine learning, y desean explorar cómo las máquinas pueden crear contenido original. También resultará valioso para profesionales creativos interesados en entender cómo la IA puede amplificar sus capacidades artísticas. El libro encuentra el equilibrio perfecto entre la teoría matemática y la implementación práctica, haciendo accesibles conceptos complejos mediante ejemplos concretos y código funcional.

Information is beautiful, de David McCandless

  • ¿De qué va? Esta guía visual en inglés nos ayuda a entender cómo funciona el mundo a través de impactantes infografías y visualizaciones de datos. Esta nueva edición ha sido completamente revisada, con más de 20 actualizaciones y 20 nuevas visualizaciones. Presenta la información de una manera que se puede hojear fácilmente, pero que también invita a una exploración más profunda.
  • ¿A quién va dirigido? Este libro está dirigido a cualquier persona interesada en ver y comprender la información de una manera diferente. Es perfecto para aquellos que buscan una forma innovadora y visualmente atractiva de entender el mundo que nos rodea. Además, es ideal para quienes disfrutan de explorar datos, hechos y sus interrelaciones de una forma entretenida y accesible.

Collecting Field Data with QGIS and Mergin Maps, de Kurt Menke y Alexandra Bucha Rasova.

  • ¿De qué va? Este libro en inglés te enseña a dominar la plataforma Mergin Maps para recopilar, compartir y gestionar datos de campo utilizando QGIS. La obra abarca desde los conceptos básicos, como la configuración de proyectos en QGIS y la realización de encuestas de campo, hasta flujos de trabajo avanzados para personalizar proyectos y gestionar colaboraciones. Además, se incluyen detalles sobre cómo crear mapas, configurar capas de encuesta y trabajar con formularios inteligentes para la recolección de datos.
  • ¿A quién va dirigido? Aunque es una opción algo más técnica que las propuestas anteriores, el libro está dirigido a nuevos usuarios de Mergin Maps y QGIS. También es útil para quienes ya estén familiarizados con estas herramientas y buscan profundizar en flujos de trabajo más avanzados.

Un verdor terrible de Benjamin Labatut

  • ¿De qué va? Este libro es una fascinante mezcla de ciencia y literatura, que narra descubrimientos científicos y sus implicaciones, tanto positivas como negativas. A través de historias impactantes, como la creación del azul de Prusia y su conexión con la guerra química, las exploraciones matemáticas de Grothendieck y la lucha entre científicos como Schrödinger y Heisenberg, el autor, Benjamín Labatut, nos lleva a explorar los límites de la ciencia, las locuras del conocimiento y las consecuencias imprevistas de los avances científicos. La obra convierte la ciencia en literatura, presentando a los científicos como personajes complejos y humanos.
  • ¿A quién va dirigido? El libro está dirigido a un público general interesado en la ciencia, la historia de los descubrimientos y las historias humanas detrás de ellos, con un enfoque en aquellos que buscan una aproximación literaria y profunda a temas científicos. Es ideal para quienes disfrutan de obras que exploran la complejidad del conocimiento y sus efectos en el mundo.

Designing Better Maps: A Guide for GIS Users, de Cynthia A. Brewer.

  • ¿De qué va? Es una guía en inglés escrita por la experta cartógrafa que enseña a crear mapas exitosos utilizando cualquier herramienta GIS o de ilustración. A través de sus 400 ilustraciones a todo color, el libro cubre las mejores prácticas de diseño cartográfico aplicadas tanto a mapas de referencia como a mapas estadísticos. Los temas incluyen planificación de mapas, uso de mapas base, manejo de escala y tiempo, explicación de mapas, publicación y compartición, uso de tipografía y etiquetas, comprensión y uso del color, y personalización de símbolos.
  • ¿A quién va dirigido? Este libro está dirigido a todos los usuarios de sistemas de información geográfica (GIS), desde principiantes hasta cartógrafos avanzados, que deseen mejorar sus habilidades en diseño de mapas.

Aunque en el post vinculamos muchos enlaces de compra. Si te interesa alguna opción, te animamos que preguntes en la librería de tu barrio para apoyar al pequeño comercio durante las fiestas. ¿Conoces algún otro título interesante? Escríbelo en comentarios o envíanoslo a dinamizacion@datos.gob.es. ¡Te leemos!

calendar icon
Sectores
calendar icon
Blog

La ciencia ciudadana se está consolidando como una de las fuentes de referencia más relevantes en la investigación contemporánea. Así lo reconoce el Centro Superior de Investigaciones Científicas (CSIC) que define la ciencia ciudadana como una metodología y un medio para el fomento de la cultura científica en la que confluyen estrategias propias de la ciencia y de la participación ciudadana.

Ya hablamos hace un tiempo de la importancia que la ciencia ciudadana tenía en la sociedad. Hoy en día, los proyectos de ciencia ciudadana no solo han aumentado en número, diversidad y complejidad, sino que también han impulsado un significativo proceso de reflexión sobre cómo la ciudadanía puede contribuir activamente a la generación de datos y conocimiento.

Para llegar a este punto, programas como Horizonte 2020, que reconocía explícitamente la participación ciudadana en ciencia, han jugado un papel fundamental. Más en concreto, el capítulo "Ciencia con y para la sociedad” dio un importante empuje a este tipo de iniciativas en Europa y también en España. De hecho, a raíz de la participación española en dicho programa, así como en iniciativas paralelas, los proyectos españoles han ido aumentando su envergadura y las conexiones con iniciativas internacionales.

Este creciente interés por la ciencia ciudadana también se traduce en políticas concretas. Ejemplo de ello es la actual Estrategia Española de Ciencia, Tecnología e Innovación (EECTI), para el periodo 2021-2027 que incluye “la responsabilidad social y económica de la I+D+I a través de la incorporación de la ciencia ciudadana”.

En definitiva, comentamos hace un tiempo, las iniciativas de ciencia ciudadana buscan incentivar una ciencia más democrática, que responda a los intereses de toda la ciudadanía y que genere información que se pueda reutilizar en pro de la sociedad. A continuación, mostramos algunos ejemplos de proyectos de ciencia ciudadana que ayudan a recolectar datos cuya reutilización puede tener un impacto positivo en la sociedad:

Proyecto AtmOOs Academic: Educación y ciencia ciudadana sobre contaminación atmosférica y movilidad.

En este programa, Thigis desarrolló una prueba piloto de ciencia ciudadana sobre movilidad y medio ambiente con los alumnos de un colegio del distrito del Eixample de Barcelona. Este proyecto, que ya es replicable en otros centros educativos, consiste en recoger datos de patrones de movilidad del alumnado para analizar cuestiones relacionadas con la sostenibilidad.

En la web de AtmOOs Academic se pueden visualizar los resultados de todas las ediciones que llevan realizándose anualmente desde el curso 2017-2018 y muestran información sobre los vehículos que emplean los alumnos para ir a clase o las emisiones generadas según etapa escolar.

WildINTEL: Proyecto de investigación sobre el monitoreo de vida en Huelva

La Universidad de Huelva y la Agencia Estatal de Investigaciones Científicas (CSIC) colaboran para construir un sistema de monitoreo de vida silvestre para obtener las variables esenciales de biodiversidad. Para llevarlo a cabo, se utilizan cámaras de fototrampeo de captura remota de datos e inteligencia artificial.

El proyecto WildINTEL se centra en el desarrollo de un sistema de monitoreo que sea escalable y reproducible, facilitando así la recolección y gestión eficiente de datos sobre biodiversidad. Este sistema incorporará tecnologías innovadoras para proporcionar estimaciones demográficas precisas y objetivas de las poblaciones y comunidades.

A través de este proyecto, que empezó en diciembre de 2023 y seguirá ejecutándose hasta diciembre de 2026, se espera conseguir herramientas y productos para mejorar la gestión de la biodiversidad no solo en la provincia de Huelva sino en toda Europa.

IncluScience-Me: Ciencia ciudadana en el aula para impulsar la cultura científica y la conservación de la biodiversidad.

Este proyecto de ciencia ciudadana que combina educación y biodiversidad surge de la necesidad de abordar la investigación científica en las escuelas. Para ello, el alumnado toma el rol de persona investigadora para abordar un reto real: rastrear e identificar los mamíferos que habitan en sus entornos cercanos para ayudar a la actualización de un mapa de distribución y, por ende, a su conservación.

IncluScience-Me nace en la Universidad de Córdoba y, en concreto, en el Grupo de Investigación en Educación y Gestión de la Biodiversidad (Gesbio), y ha sido posible gracias a la participación de la Universidad de Castilla-La Mancha y el Instituto de Investigación en Recursos Cinegéticos de Ciudad Real (IREC), con la colaboración de la Fundación Española para la Ciencia y la Tecnología - Ministerio de Ciencia, Innovación y Universidades.

La Memoria del Rebaño: Corpus documental de la vida pastoril.

Este proyecto de ciencia ciudadana que lleva activo desde julio de 2023 tiene como objetivo recabar conocimientos y experiencias de pastores y pastoras, en activo y jubilados, sobre el manejo de rebaños y la actividad ganadera.

La entidad responsable del programa es el Institut Català de Paleoecología Humana i Evolució Social aunque también colaboran el Museu Etnogràfic de Ripoll, Institució Milà i Fontanals-CSIC, Universidad Autònoma de Barcelona y Universidad Rovira i Virgili.

A través del programa, se ayuda a interpretar el registro arqueológico y contribuye a conservar los conocimientos de la práctica pastoril. Además, pone en valor la experiencia y los conocimientos de las personas mayores, un trabajo que contribuye a acabar con la connotación negativa de la “vejez” en una sociedad que prima la “juventud”, es decir, que pasen de ser considerados sujetos pasivos a ser considerados sujetos sociales activos.

Plastic Pirates España: Estudio de la contaminación por plástico en ríos europeos.

Es un proyecto de ciencia ciudadana que se ha llevado a cabo durante el último año con jóvenes de entre 12 y 18 años de las comunidades de Castilla y León y Cataluña pretende contribuir a generar evidencias científicas y concienciación ambiental sobre los residuos plásticos en los ríos.

Para ello, grupos de jóvenes de diferentes centros educativos, asociaciones y agrupaciones juveniles, han participado en campañas de muestreo donde se recogen datos de la presencia de residuos y basuras, principalmente plásticos y microplásticos en las riberas y agua de los ríos.

En España este proyecto lo ha coordinado el Centro Tecnológico BETA de la Universidad de Vic - Universidad Central de Cataluña junto a la Universidad de Burgos y la Fundación Oxígeno. Puedes acceder a más información en su página web.

Estos son algunos ejemplos de proyectos de ciencia ciudadana. Puedes consultar más en el Observatorio de Ciencia Ciudadana en España, una iniciativa que recoge múltiples recursos didácticos, informes y más información de interés sobre la ciencia ciudadana y su impacto en España. ¿Conoces algún otro proyecto? Mándanoslo a dinamizacion@datos.gob.es y podemos darlo a conocer a través de nuestros canales de difusión.

calendar icon
Blog

La alfabetización en datos se ha convertido en un asunto crucial en la era digital. Este concepto se refiere a la capacidad de las personas para comprender el uso que se hace de los datos, así como para acceder a ellos, crearlos, analizarlos, utilizarlos o reutilizarlos, y comunicarlos.

Vivimos en un mundo donde los datos y los algoritmos influyen en decisiones cotidianas y en las oportunidades que tiene la gente para vivir bien. Su efecto se puede sentir en áreas que incluyen desde la publicidad y la oferta de empleo, hasta la justicia penal y las ayudas sociales. Por ello es fundamental comprender cómo se generan y utilizan los datos.

La alfabetización en datos puede implicar muchas áreas, pero nos vamos a centrar en su relación con los derechos digitales por una parte y la Inteligencia artificial (IA) por otro. Este artículo propone explorar la importancia de la alfabetización en datos para la ciudadanía, abordando sus implicaciones en la protección de los derechos individuales y colectivos y la promoción de una sociedad más informada y crítica en un contexto tecnológico donde la inteligencia artificial cobra cada vez más importancia.

El contexto de los derechos digitales

Cada vez hay más estudios que indican que una participación efectiva en la sociedad actual –impulsada por los datos y presidida por algoritmos— requiere de una alfabetización en datos. Los derechos civiles se traducen cada vez más en derechos digitales a medida que nuestra sociedad se vuelve más dependiente de las tecnologías y entornos digitales. Esta transformación se manifiesta de varias maneras:

  • Por un lado, los derechos reconocidos en constituciones y declaraciones de derechos humanos se están adaptando explícitamente al contexto digital. Por ejemplo, la libertad de expresión ahora incluye la libertad de expresión en línea, y el derecho a la privacidad se extiende a la protección de datos personales en entornos digitales. Además, algunos derechos civiles tradicionales se están reinterpretando en el contexto digital. Una muestra de ello es el derecho a la igualdad y no discriminación, que ahora incluye la protección contra la discriminación algorítmica y contra los sesgos en sistemas de inteligencia artificial. Otro ejemplo es el derecho a la educación, que se extiende ahora también al derecho a la educación digital. La importancia de las habilidades digitales en la sociedad se reconoce en varios marcos legales y documentos, tanto a nivel nacional como internacional, como por ejemplo la Ley Orgánica 3/2018 de Protección de Datos Personales y garantía de los derechos digitales (LOPDGDD), en España. Por último, el derecho de acceso a Internet se está considerando cada vez más como un derecho fundamental, similar al acceso a otros servicios básicos.
  • Por otro lado, están surgiendo derechos que abordan desafíos únicos del mundo digital, como el derecho al olvido (vigente en la Unión Europea y algunos otros países que han adoptado legislaciones similares1), que permite a las personas solicitar la eliminación de la información personal disponible en línea, bajo ciertas condiciones. Otro ejemplo puede ser el derecho a la desconexión digital (en vigor en varios países, principalmente en Europa2), que garantiza que los y las trabajadoras puedan desconectarse de dispositivos y comunicaciones laborales fuera del horario de trabajo. De la misma forma, existe el derecho a la neutralidad de Internet para asegurar un acceso equitativo a los contenidos en línea sin discriminación por parte de los proveedores de servicios, un derecho que también este derecho está establecido en varios países y regiones, aunque su implementación y alcance pueden variar. La UE tiene regulaciones que protegen la neutralidad de la red, incluido el Reglamento 2015/2120, que establece normas para salvaguardar el acceso abierto a Internet. La Ley de Protección de Datos española contempla la obligación de los proveedores de Internet de proporcionar una oferta transparente de servicios sin discriminación por motivos técnicos o económicos. Además, el derecho de acceso a Internet –relacionado con la neutralidad de la red— está reconocido como un derecho humano por la Organización de las Naciones Unidas (ONU).

Esta transformación de los derechos refleja la creciente importancia de las tecnologías digitales en todos los aspectos de nuestras vidas.

El contexto de la inteligencia artificial

La relación entre el desarrollo de la IA y los datos es fundamental y simbiótica, ya que los datos sirven como base para el desarrollo de la IA de varias maneras:

  1. Se utilizan datos para entrenar algoritmos de IA, lo que les permite aprender, detectar patrones, hacer predicciones y mejorar su rendimiento con el tiempo.
  2. La calidad y la cantidad de datos afectan directamente la precisión y la confiabilidad de los sistemas de IA. En general, los conjuntos de datos más diversos y completos conducen a modelos de IA de mejor rendimiento.
  3. La disponibilidad de datos en varios dominios puede permitir el desarrollo de sistemas de IA para diferentes casos de uso.

Por ello, la alfabetización de datos se ha vuelto cada vez más crucial en la era de la IA, ya que forma la base para aprovechar y comprender de manera eficaz las tecnologías de IA.

Además, el auge de los macrodatos y de los algoritmos ha transformado los mecanismos de participación, presentando tanto desafíos como oportunidades. Los algoritmos, aunque puedan estar diseñados para ser justos, a menudo reflejan los prejuicios de sus creadores o de los datos con los que se entrenan. Esto puede llevar a decisiones que afectan negativamente a grupos vulnerables.

En este sentido, se están llevando a cabo esfuerzos desde el punto de vista legislativo y académico para evitar que esto ocurra. Por ejemplo, la Ley de Inteligencia Artificial (AI Act) europea incluye garantías para evitar sesgos perjudiciales en la toma de decisiones algorítmica. Por ejemplo, clasifica los sistemas de IA según su nivel de riesgo potencial e impone requisitos más estrictos a aquellos de alto riesgo. Además, se exige el uso de datos de alta calidad para entrenar los algoritmos, minimizando los sesgos, y establece mantener documentación detallada sobre el desarrollo y funcionamiento de los sistemas, permitiendo auditorías y evaluaciones con supervisión humana. Asimismo, esta ley refuerza los derechos de las personas afectadas por decisiones de la IA, incluido el derecho a impugnar las decisiones tomadas y su explicabilidad, permitiendo a las personas afectadas entender cómo se llegó a una decisión.

La importancia de la alfabetización digital en ambos contextos

La alfabetización de datos ayuda a la ciudadanía a tomar decisiones informadas y entender todas las implicaciones de sus derechos digitales, que también se consideran, en muchos aspectos, como se ha referido anteriormente, derechos civiles universales. En este contexto, la alfabetización de datos sirve como un filtro crítico para una plena participación cívica que permita a la ciudadanía influir en las decisiones políticas y sociales. Es decir, quienes tienen el acceso a los datos y las habilidades y herramientas para navegar por la infraestructura de datos de manera efectiva pueden intervenir e influir de manera significativa en los procesos políticos y sociales, algo que promueve la Open Government Partnership.

Por otro lado, la alfabetización en datos permite a la ciudadanía cuestionar y entender estos procesos, fomentando una cultura de responsabilidad y transparencia en el uso de la IA. Asimismo, existen barreras para participar en entornos impulsados ​​por datos. Una de estas barreras es la brecha digital (es decir, la privación del acceso a infraestructuras, conectividad y formación, entre otras) y, de hecho, la falta de alfabetización en datos. Por tanto, esta última se presenta como un concepto crucial para superar los desafíos que plantea la datificación de las relaciones humanas y la plataformización de los contenidos y servicios.

Recomendaciones para implementar una sociedad preparada

Parte de la solución para abordar los desafíos que propone el desarrollo de la tecnología digital es incluir la alfabetización en datos en los currículos educativos desde una edad temprana.

Esto debería abarcar:

  • Conceptos básicos de datos: comprensión de qué son los datos, cómo se recopilan y se utilizan.
  • Análisis crítico: adquisición de las habilidades para evaluar la calidad y la fuente de los datos e identificar sesgos en la información presentada. Se busca reconocer los potenciales sesgos que los datos puedan contener y que se puedan producir en el procesamiento de dichos datos, además de impulsar la capacidad para actuar en favor de la apertura de datos y su uso para el bien común.
  • Derechos y regulaciones: información sobre los derechos de protección de datos y cómo las leyes europeas afectan al uso de la IA. Este ámbito abarcaría toda regulación presente y futura que afecte al uso de los datos y su implicación en tecnología como la IA.
  • Aplicaciones prácticas: la posibilidad de crear, usar y reusar datos abiertos disponibles en los portales habilitados por gobiernos y administraciones públicas, para generar así proyectos y oportunidades que permitan a las personas trabajar con datos reales, promoviendo un aprendizaje activo, contextualizado y continuo.

Al educar sobre el uso y la interpretación de los datos, se fomenta una sociedad más crítica y capaz de demandar responsabilidad en el uso de la IA. Las nuevas leyes de protección de datos en Europa ofrecen un marco que, junto con la educación, puede ayudar a mitigar los riesgos asociados con el abuso algorítmico y promover un uso ético de la tecnología. En una sociedad datificada, en la que los datos desempeñan un papel fundamental, existe la necesidad de fomentar la alfabetización de datos en la ciudadanía desde edad temprana.

1. El derecho al olvido se estableció por primera vez en mayo de 2014 a raíz de una resolución del Tribunal de Justicia de la Unión Europea. Posteriormente, en 2018, se reforzó con el Reglamento General de Protección de Datos (RGPD), que lo incluye explícitamente en su artículo 17 como "derecho de supresión". En julio de 2015, Rusia aprobó una ley que permite a los ciudadanos solicitar la eliminación de enlaces en los buscadores rusos si la información "infringe la legislación rusa o si es falsa o se ha quedado obsoleta". Turquía ha establecido su propia versión del derecho al olvido, siguiendo un modelo similar al de la UE. Serbia también ha implementado una versión del derecho al olvido en su legislación. En España, la Ley Orgánica de Protección de Datos Personales (LOPD) regula el derecho al olvido, especialmente en lo que respecta a ficheros de morosos. En Estados Unidos, el derecho al olvido se considera incompatible con la Constitución, principalmente debido a la fuerte protección de la libertad de expresión. Sin embargo, existen algunas regulaciones relacionadas, como la Fair Credit Reporting Act de 1970, que permite en ciertas situaciones la eliminación de información antigua o caduca en informes crediticios.

2. Algunos países en los que se ha establecido este derecho incluyen España, regulado por el artículo 88 de la Ley Orgánica 3/2018 de Protección de Datos Personales; Francia, que, en 2017, se convirtió en el primer país en aprobar una ley sobre el derecho a la desconexión digital; Alemania, incluido en la Ley de Horarios de Trabajo y de Descanso (Arbeitszeitgesetz); Italia, dentro de la Ley 81/201, y Bélgica. Fuera de Europa, está, por ejemplo, en Chile.


Contenido elaborado por Miren Gutiérrez, Doctora e investigadora en la Universidad de Deusto, experta en activismo de datos, justicia de datos, alfabetización de datos y desinformación de género. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor

calendar icon
Blog

Los datos abiertos deben ser accesibles por naturaleza, es decir, deben estar disponibles de forma gratuita y sin barreras que puedan restringir su acceso y reutilización. La accesibilidad es una cuestión fundamental y compleja, ya que significa que estos conjuntos de datos no solo deben estar disponibles en formatos reutilizables, sino que cualquier persona debe poder acceder a ellos e interpretarlos.

Para que el acceso a la información de los datos abiertos sea democrático, estos deben cumplir unos criterios de accesibilidad fundamentales que afectan tanto al soporte (web) como a la forma en que se muestra su contenido (por ejemplo, a través de visualizaciones). En este contexto, este post profundiza en los principios esenciales para asegurar que los datos abiertos sean inclusivos y útiles para una audiencia diversa. Descubre recomendaciones dirigidas a mejorar la accesibilidad de los portales y plataformas de datos abiertos, así como buenas prácticas para la visualización de datos, con el foco puesto en la importancia de un diseño inclusivo que considere las necesidades de todos los usuarios.

Niveles de accesibilidad web

Si nos centramos en el soporte, los portales de datos abiertos pueden tomar como fuente de referencia en accesibilidad web las especificaciones que identifica World  Wide Web Consortium (W3C), principal organización internacional de normalización y la estandarización de la Web, que establece pautas de accesibilidad que debe cumplir una web. 

  1. Perceptible: La información y los componentes de la interfaz de usuario deben presentarse a los usuarios de forma que puedan percibirlos, independientemente de las dificultades físicas o cognitivas que puedan tener. 

  2. Operable: Los componentes de la interfaz de usuario y la navegación deben ser manejables. Por lo tanto, los usuarios que utilicen el teclado en lugar del ratón deben poder interactuar correctamente con una página web, no debe imponerse a los usuarios un límite de tiempo para completar las interacciones y deben ofrecerse formas de navegar y encontrar contenidos fácilmente.

  3. Comprensible: El texto debe ser claro y fácil de entender, la interfaz de usuario y la navegación deben ser coherentes y predecibles, y las páginas web deben ayudar a los usuarios cuando cometan errores al rellenar un formulario, por ejemplo.

  4. Robusta: El contenido debe ser sólido para que lo interpreten con fiabilidad varios navegadores web y otros programas informáticos, como lectores de pantalla.

Para cada pauta existen criterios de conformidad que se pueden comprobar. Estos criterios se clasifican en tres niveles: A, AA, AAA.

Los niveles, de menos a más, son:

A. Mínimo: Todos los contenidos no textuales como imágenes y vídeos deben tener alternativa textual; los vídeos y audios deben tener subtítulos; se debe poder navegar por el contenido de la página sólo con el teclado; la página debe tener un título claro y un idioma asignado.

AA. Aceptable: Además de todos los requisitos del nivel A, se suman otras funcionalidades como, por ejemplo, los vídeos en directo deben tener también subtítulos; la relación de contraste entre el texto y el fondo debe ser al menos de 4,5:1; el texto debe ser redimensionable hasta el 200% sin perder contenido ni funcionalidad; no deben utilizarse imágenes de texto.

AAA. Óptimo: Este nivel exige todas las características de los niveles A y AA, junto a otros requisitos como la interpretación de vídeos en lengua de signos o la relación de contraste entre el texto y el fondo de al menos de 7:1.

Webs y visualizaciones de datos abiertos accesibles

Teniendo en cuenta las condiciones y recomendaciones que marca W3C, el Portal Europeo de Datos abiertos ofrece una Guía de Visualización de Datos que recoge las mejores prácticas de accesibilidad en la visualización de datos. Siguiendo las directrices que marca esta Guía, para respetar la inclusividad desde el diseño, una buena visualización de datos debe cumplir tres condiciones: que se pueda percibir, que se pueda entender y que se pueda adaptar.

  • Que se pueda percibir: los colores deben estar adaptados para personas con problemas de visión, la fuente debe tener el tamaño y contraste adecuado.
  • Que se pueda entender: la interfaz debe ser amigable para el usuario e intuitiva. Siempre y cuando sea posible, el gráfico debe ser comprensible independientemente de la formación del usuario.
  • Que se pueda adaptar: la visualización debe ser responsive, es decir, que se adapte a las dimensiones de cada dispositivo electrónica, flexible, editable o con opciones de visualización para personas con discapacidad cognitiva.

Una vez hemos identificado estas tres condiciones, podemos analizar si nuestro gráfico cumple con ellas prestando atención a cuestiones como el uso de una paleta de color adecuada para personas con problemas de visión, que cuente con buen contraste y un título y texto entendible. También es recomendable que lleven un texto alternativo (adaptado a personas con discapacidad intelectual) e incluso, cuando se considere necesario, una guía de visualización para entender el gráfico.

Herramientas para mejorar la accesibilidad

Para emplear los principios de accesibilidad en la visualización de datos podemos hacer uso de tres recursos:

  • Herramientas para auditar la accesibilidad: También es una buena práctica realizar auditorías de accesibilidad, por ejemplo, con Chartability que analiza los sitios web teniendo en cuenta todos los aspectos relacionado con la inclusión.
  • HTML: Lenguaje de marcado fundamental de la web se desarrolló pensando en la accesibilidad, por lo que utilizar sus elementos de forma semánticamente correcta es una forma sencilla de garantizar un nivel básico de accesibilidad. Esto se aplica al contexto de una visualización (que debe utilizar elementos como encabezados y párrafos de forma correcta, por ejemplo), a los elementos interactivos (como enlaces, botones y entradas) y a los elementos de una visualización propiamente dicha. Es decir, siempre que sea posible es mejor ofrecer una visualización con html que en formato imagen (jpg o png). Cuando no sea posible, será necesario dotar de una alternativa accesible (un alternative text, como se mencionaba anteriormente).
    • SVG: Los gráficos vectoriales escalables o gráficos vectoriales redimensionables (del inglés: Scalable Vector Graphics (SVG) es un formato de gráficos vectoriales bidimensionales, tanto estáticos como animados, en formato de lenguaje de marcado extensible XML (Extensible Markup Language), es decir que se compone por código y cuya especificación es un estándar abierto desarrollado por el W3C para generar gráficos accesibles.
  • Datawrapper: Es una, entre numerosas herramientas de visualización de datos, que ofrece la posibilidad de probar paletas de colores accesibles, así como escribir una descripción alternativa, entre otras funciones relacionadas con la accesibilidad.

En resumen, la visualización de datos es un método para hacer más accesible un conjunto de datos y sus visualizaciones. Tener en cuenta estos consejos sobre accesibilidad e incorporarlos por defecto en el diseño a la hora de presentar visualmente un conjunto de datos enriquecerá el resultado y permitirá que llegue a una audiencia más amplia.


Contenido elaborado a partir de la Guía de Visualización de Datos de El Portal Europeo de Datos Abiertos: https://data.europa.eu/apps/data-visualisation-guide/accessibility-of-data-visualisation

calendar icon
Blog

El Centro Nacional de Información Geográfica publica los datos geoespaciales abiertos del Sistema Cartográfico Nacional, del Instituto Geográfico Nacional y de otros organismos a través de aplicaciones web y aplicaciones para móvil para facilitar el acceso y la consulta de los datos geográficos a los ciudadanos.

Los datos geoespaciales se publican a través de servicios web y API para su reutilización, por lo que en el caso de los conjuntos de datos de alto valor como los nombres geográficos, hidrografía o las direcciones tal y como establece la UE, ya están puestos a disposición de la ciudadanía antes de junio de 2024 ya que están asociados a grandes beneficios para la sociedad, el medio ambiente y la economía.

Pero en las aplicaciones que a continuación se enumeran, los datos geográficos se visualizan y se consultan a través de servicios web, por lo que para la descarga de los datos, es posible utilizar directamente los servicios web y API, a través de una plataforma accesible para cualquier usuario con una amplia gama de información geográfica, que abarca desde mapas topográficos hasta imágenes satelitales.

Pero no solo los datos se pueden reutilizar, también el software de las aplicaciones es reutilizable, como, por ejemplo, el visualizador del Potencial de Energía Solar de Edificios que se basa en una API de visualizador, llamada API-CNIG y que permite utilizar la misma herramienta para las diferentes temáticas.

Algunos ejemplos de las aplicaciones son:

Potencial de Energía Solar de Edificios

Ofrece la capacidad fotovoltaica de un edificio según su ubicación y características. Además, ofrece la media a lo largo del año y una malla puntual para identificar cuál sería la mejor localización de las placas solares.

Nomenclátor Geográfico Nacional

Es un buscador de topónimos que recoge las denominaciones, oficiales o normalizadas por los correspondientes organismos competentes referenciadas geográficamente.

Calculadora unificada de direcciones postales

Es un conversor que permite conocer las coordenadas geográficas (latitud y longitud en WGS84) de las direcciones postales de un lugar, y viceversa. En ambos casos, el fichero de entrada es un fichero en formato CSV, admitiendo tanto coordenadas como direcciones postales.

Mapas de España Básicos

Facilita la conexión a los servicios del IGN y al centro de descargas del CNIG para obtener mapas y rutas. Con esta aplicación móvil podrás recorrer las rutas de los Parques Nacionales o las etapas del Camino de Santiago. Permite planificar excursiones utilizando mapas, navegar y realizar recorridos guiados, sin necesidad de tener conexión a internet previa descarga de datos.

Mapa a la carta

Permite crear un mapa a medida usando las series impresas del Mapa Topográfico Nacional a escalas 1:25.000 y 1:50.000. Ofrece la posibilidad de definir su área, incorporar contenidos, personalizar la portada, obtener un fichero pdf e incluso adquirir copias en papel vía correo postal.

IGN Terremotos

Permite la recepción y visualización de todos los eventos sísmicos de España y alrededores. Ofrece la distancia al epicentro del evento sísmico y parámetros epicentrales, así como la geolocalización de la posición del usuario y del epicentro.

Mapas de España

Es un visualizador móvil gratuito ideal para senderismo, ciclismo, correr, esquiar, etc., que utiliza como cartografía de fondo los servicios del Instituto Geográfico Nacional y otro conjunto de servicios de otros Ministerios, como por ejemplo la información Catastral de las parcelas proporcionada por la Dirección General de Catastro.

Camino de Santiago

Incluye información de naturaleza cultural y práctica de cada una de las etapas (albergues, monumentos, etc.), así como una completa Guía del Peregrino que detalla lo que debes conocer antes de comenzar a realizar alguno de los Caminos. Esta aplicación se basa en el software de ESRI.

Parques Nacionales

Muestra información sobre la historia, fauna, flora y excursiones de los Parques Nacionales de España. Incluye cientos de puntos de interés como centros de información, alojamientos, miradores, refugios e incluso rutas para recorrer los parques indicando su duración o dificultad. La app está disponible para su descarga en Android e iOS. Esta aplicación se basa en el software de ESRI.

GeoSapiens IGN

Presenta mapas interactivos, de uso libre y gratuito, para estudiar la geografía física y política de España y el mundo. Consta de diferentes juegos relativos a toda España o por comunidades autónomas, el mundo completo y por continente.

Además de las aplicaciones desarrolladas por el CNIG, que también se presentan en este vídeo, existen muchas otras soluciones digitales realizadas por terceros que reutilizan datos abiertos geoespaciales para ofrecer un servicio a la sociedad. Por ejemplo, en la lista de aplicaciones reutilizadoras de datos.gob.es puedes encontrar desde un mapa que muestra los incendios que se encuentran activos en España en tiempo real hasta una app que señala dónde están las plazas de aparcamiento para personas con movilidad reducida de cada localidad.

En definitiva, cualquier persona puede hacer uso de los datos geográficos abiertos del Sistema Cartográfico Nacional, del Instituto Geográfico Nacional y de otros organismos publicados por el CNIG ampliando así las ventajas que ofrece la disponibilidad de datos abiertos geográficos. ¿Conoces alguna otra aplicación fruto de la reutilización de datos abiertos? Nos la puedes enviar a dinamizacion@datos.gob.es

calendar icon
Noticia

Hoy, 23 de abril, se celebra el Día del Libro, una ocasión para resaltar la importancia de la lectura, la escritura y la difusión del conocimiento. La lectura activa promueve la adquisición de habilidades y el pensamiento crítico, al acercarnos a información especializada y detallada sobre cualquier tema que nos interese, incluido el mundo de los datos. 

Por ello, queremos aprovechar la ocasión para mostrar algunos ejemplos de libros y manuales relacionados con los datos y tecnologías relacionadas que se pueden encontrar en la red de manera gratuita. 

1. Fundamentos de ciencia de datos con R, editado por Gema Fernandez-Avilés y José María Montero (2024) 

Accede al libro aquí.

  • ¿De qué trata? El libro guía al lector desde el planteamiento de un problema hasta la realización del informe que contiene su solución. Para ello, explica una treintena de técnicas de ciencia de datos en el ámbito de la modelización, análisis de datos cualitativos, discriminación, machine learning supervisado y no supervisado, etc. En él se incluyen más de una docena de casos de uso en sectores tan dispares como la medicina, el periodismo, la moda o el cambio climático, entre otros. Todo ello, con un gran énfasis en la ética y en el fomento de la reproductibilidad de los análisis.  
  • ¿A quién va dirigido? Está dirigido a usuarios que quieran iniciarse en la ciencia de datos. Parte de preguntas básicas, como qué es la ciencia de datos, e incluye breves secciones con explicaciones sencillas sobre la probabilidad, la inferencia estadística o el muestreo, para aquellos lectores no familiarizados con estas cuestiones. También incluye ejemplos replicables para practicar. 

  • Idioma:Español  

2. Contar historias con datos, Rohan Alexander (2023). 

Accede al libro aquí.

  • ¿De qué trata?El libro explica una amplia gama de temas relacionados con la comunicación estadística y el modelado y análisis de datos. Abarca las distintas operaciones desde la recopilación de datos, su limpieza y preparación, hasta el uso de modelos estadísticos para analizarlos, prestando especial importancia a la necesidad de extraer conclusiones y escribir sobre los resultados obtenidos. Al igual que el libro anterior, también pone el foco en la ética y la reproductibilidad de resultados. 

  • ¿A quién va dirigido?Es perfecto para estudiantes y usuarios con conocimientos básicos, a los que dota de capacidades para realizar y comunicar de manera efectiva un ejercicio de ciencia de datos. Incluye extensos ejemplos de código para replicar y actividades a realizar a modo de evaluación. 

  • Idioma:Inglés. 

3. El gran libro de los pequeños proyectos con Python, Al Sweigart (2021) 

Accede al libro aquí.

  • ¿De qué trata?Es una colección de sencillos proyectos en Python para aprender a crear arte digital, juegos, animaciones, herramientas numéricas, etc. a través de un enfoque práctico. Cada uno de sus 81 capítulos explica de manera independiente un proyecto sencillo paso a paso -limitados a máximo 256 líneas de código-. Incluye una ejecución de muestra del resultado de cada programa, el código fuente y sugerencias de personalización.  
  • ¿A quién va dirigido? El libro está escrito para dos grupos de personas. Por un lado, aquellos que ya han aprendido los conceptos básicos de Python, pero todavía no están seguros de cómo escribir programas por su cuenta.  Por otro, aquellos que se inician en la programación, pero son aventureros, cuentan con grandes dosis de entusiasmo y quieren ir aprendiendo sobre la marcha. No obstante, el mismo autor tiene otros recursos para principiantes con los que aprender conceptos básicos. 

  • Idioma:Inglés. 

4. Matemáticas para Machine Learning, Marc Peter Deisenroth A. Aldo Faisal Cheng Soon Ong (2024) 

Accede al libro aquí.

  • ¿De qué trata? La mayoría de libros sobre machine learning se centran en algoritmos y metodologías de aprendizaje automático, y presuponen que el lector es competente en matemáticas y estadística. Este libro pone en primer plano los fundamentos matemáticos de los conceptos básicos detrás del aprendizaje automático 

  • ¿A quién va dirigido?El autor asume que el lector tiene conocimientos matemáticos comúnmente aprendidos en las materias de matemáticas y física de la escuela secundaria, como por ejemplo derivadas e integrales o vectores geométricos. A partir de ahí, el resto de conceptos se explican de manera detallada, pero con un estilo académico, con el fin de ser precisos. 

  • Idioma:Inglés. 

5. Profundizando en el aprendizaje profundo, Aston Zhang, Zack C. Lipton, Mu Li, Alex J. Smola (2021, se actualiza continuamente) 

Accede al libro aquí.

  • ¿De qué trata?Los autores son empleados de Amazon que utilizan la biblioteca MXNet para enseñar Deep Learning. Su objetivo es hacer accesible el aprendizaje profundo, enseñando los conceptos básicos, el contexto y el código de forma práctica a través de ejemplos y ejercicios. El libro se divide en tres partes: conceptos preliminares, técnicas de aprendizaje profundo y temas avanzados centrados en sistemas y aplicaciones reales. 

  • ¿A quién va dirigido?  Este libro está dirigido a estudiantes (de grado o posgrado), ingenieros e investigadores, que buscan un dominio sólido de las técnicas prácticas del aprendizaje profundo. Cada concepto se explica desde cero, por lo que no es necesario tener conocimientos previos de aprendizaje profundo o automático. No obstante, sí son necesario conocimientos de matemáticas y programación básicas, incluyendo álgebra lineal, cálculo, probabilidad y programación en Python. 

  • Idioma:Inglés. 

6. Inteligencia artificial y sector público: retos límites y medios, Eduardo Gamero y Francisco L. Lopez (2024) 

Accede al libro aquí.

  • ¿De qué trata? Este libro se centra en analizar los retos y oportunidades que presenta el uso de la inteligencia artificial en el sector público, especialmente cuando se usa como soporte a la toma de decisiones. Comienza explicando qué es la inteligencia artificial y cuáles son sus aplicaciones en el sector público, para pasar a abordar su marco jurídico, los medios disponibles para su implementación y aspectos ligados a la organización y gobernanza. 

  • ¿A quién va dirigido? Es un libro útil para todos aquellos interesados en la temática, pero especialmente para responsables políticos, trabajadores públicos y operadores jurídicos relacionados con la aplicación de la IA en el sector público. 

  • Idioma: español 

7. Introducción del analista de negocio a la analítica empresarial, Adam Fleischhacker (2024) 

Accede al libro aquí.

  • ¿De qué trata?El libro aborda un flujo de trabajo de análisis empresarial completo, que incluye la manipulación de datos, su visualización, el modelado de problemas empresariales, la traducción de modelos gráficos a código y la presentación de resultados ante las partes interesadas. El objetivo es aprender a impulsar cambios dentro de una organización gracias al conocimiento basado en datos, modelos interpretables y visualizaciones persuasivas. 

  • ¿A quién va dirigido? Según su autor, se trata de un contenido accesible para todos, incluso para principiantes en la realización de trabajos de análisis. El libro no asume ningún conocimiento del lenguaje de programación, sino que proporciona una introducción a R, RStudio y al “tidyverse”, una serie de paquetes de código abierto para la ciencia de datos. 

  • Idioma:Inglés. 

Te invitamos a ojear esta selección de libros. Asimismo, recordamos que solo se trata de una lista con ejemplos de las posibilidades de materiales que puedes encontrar en la red. ¿Conoces algún otro libro que quieras recomendar? ¡Indícanoslo en los comentarios o manda un email a dinamizacion@datos.gob.es! 

calendar icon