Durante el juego de escape “Cuadros de una exposición” tendremos que conseguir las pistas suficientes que nos ayuden a escapar de la exposición. Para ello habrá que aunar conocimientos sobre música, arte y una dosis suficiente de ingenio para encontrar la palabra mágica que nos permita salir. Podemos resumir los objetivos generales de este juego en dos:
- Conocer la historia y la obra “Cuadros de una exposición” de M. Mussorgsky.
- Descubrir el concepto de música programática y ejemplos a partir de objetos de la BDH.
Pon a prueba tu ingenio para superar los diferentes retos propuestos en este juego, y descubrir el código secreto que te permitirá escapar de la Academia de las Artes de San Petesburgo. ¿Estás preparado?
Visit Valencia es una aplicación móvil desarrollada por el Ayuntamiento de Valencia. Gracias a ella los turistas pueden conocer qué ver y qué hacer en la ciudad.
Entre sus funcionalidades destacan:
- Una guía completa de la ciudad con los monumentos, museos, oficinas de turismo y lugares de interés por zonas. También da la posibilidad de acceder a un plano turístico interactivo.
- Permite descargar guías y planos de Valencia, el metro, el autobús y el tranvía.
- Permite valorar los lugares que se visitan y compartir opiniones.
- Facilita la compra online de entradas con descuento, así como el acceso a la Valencia Tourist card, que permite viajar gratis en el transporte público y entrar gratis o con descuento a museos y monumentos.
- Ofrece rutas por la ciudad y toda la información sobre la agenda de eventos, incluyendo un buscador para filtrar por fechas.
- Permite localizar los restaurantes más cercanos y hacer una reserva de manera inmediata.
- Incluye información sobre la predicción meteorológica.
¿Se puede considerar que una obra de arte es un dato? Al hablar de datos abiertos, solemos pensar en datos estadísticos, meteorológicos, geoespaciales… pero no en una pintura, una canción o un libro. Recursos también susceptibles de convertirse en datos abiertos.
Cuando hablamos de datos abiertos culturales hacemos referencia a publicaciones, fotografías o colecciones musicales creadas y distribuidas por instituciones pertenecientes al sector cultural. No se trata simplemente de digitalizar los fondos, sino de enriquecerlos con metadatos que aporten la máxima información posible (autor, fecha, técnica, etc.) y facilitar el acceso en unas condiciones que favorezcan su reutilización.
En este sentido, las bibliotecas parecen haber tomado la delantera en la apertura de información. Tenemos el ejemplo de la Biblioteca Nacional de España, que puso en marcha el portal de datos abiertos datos.bne.es y ha lanzado distintos proyectos basados en la reutilización de sus datos, como BNEscolar. Otro ejemplo es la Fundación Biblioteca Virtual Miguel de Cervantes, cuyo catálogo está compuesto por más de 230.000 registros abiertos a la reutilización.
Los museos, por su parte, están abrazando más lentamente el compromiso con el open data, aunque cada vez hay más instituciones que apuestan por compartir sus colecciones de manera abierta.
Dos ejemplos de grandes museos que han abierto sus colecciones
El 7 de febrero de 2017, el Museo Metropolitano de Nueva York implementó una nueva política de datos abiertos. El museo crea, organiza y difunde una amplia gama de imágenes y datos digitales que documentan la historia del museo y su colección -formada por más de dos millones de obras de arte que van desde la antigua Grecia hasta los grandes maestros europeos como Rafael, Rembrandt o Velázquez-. Con esta política, las imágenes de obras de arte seleccionadas que están en el dominio público -y por tanto carecen de derechos de autor- se han puesto a disposición de los usuarios sin restricciones ni coste, de acuerdo con la designación Creative Commons Zero (CC0).
La web del museo cuenta con un buscador, donde se muestran las distintas piezas de la colección. El usuario puede separar aquellas que están bajo la licencia CC0, gracias a una herramienta de filtrado. En total son 406.000 imágenes de alta resolución, acompañadas de información básica como título, artista, fecha, medio y dimensiones.
Otro ejemplo es el Museo Nacional de Ámsterdam o Rijksmuseum, dedicado al arte, la artesanía y la historia de esta región, y que posee una gran colección de pinturas del Siglo de Oro neerlandés. El Rijksmuseum cuenta con un espacio de datos abiertos donde se recogen reproducciones digitales y datos asociados, que son puestos a disposición del público de manera gratuita para todo tipo de fines, también comerciales. Cuando las obras están libres de derechos de autor, se indica explícitamente en los metadatos descriptivos correspondientes. En estos casos, el aviso de derechos de autor establece "Dominio público", con una referencia a la licencia Creative Commons Zero (CC0).
Paginas web del Museo Metropolitano de Nueva York y del Rijksmuseum
¿Por qué los museos deberían abrir sus colecciones?
En esta entrevista a los responsables del Museo de Bretaña, pionero en la apertura de datos entre los museos franceses, los entrevistados destacan cómo gracias a la apertura de su colección han conseguido una mayor visibilidad. “La apertura de datos le aporta al museo una imagen positiva e innovadora dentro del sector cultural francés. También genera nuevos conocimientos sobre las colecciones, gracias a los comentarios de los visitantes online”. Este museo cuenta con una colección de 700.000 piezas, de las cuales más de 200,000 son ahora visibles y reutilizables online, entre ellas imágenes de dominio público de alta resolución gratuitas para descargar y usar.
En la misma línea argumental se desarrolla este estudio, donde se analiza el impacto de las pinturas y sus metadatos incluidos en wikidata y la Wikipedia en inglés. El estudio muestra cómo las pinturas incluidas en Wikipedia no se utilizan únicamente para ilustrar contenidos relacionados con el arte, sino también para enriquecer otro tipo de entradas sobre temáticas diversas, como la historia (por ejemplo, los cuadros de reyes que nos muestran el aspecto que tenían) o conceptos básicos (mostrar cómo es una sirena a través de una representación pictórica de la misma). Estas pinturas ayudan a complementar la información textual al mismo tiempo que atraen la atención de los usuarios sobre las colecciones del museo, impulsando un aumento en las vistas.
Un campo lleno de retos, pero también de oportunidades
Abrir las obras de los museos conlleva una serie de retos, como la necesidad de realizar una evaluación legal para conocer quiénes son los titulares de derechos y los contratos vigentes, de tal forma que siempre se respete los derechos de autor, o los retos técnicos que conlleva. Se necesita una infraestructura tecnológica, así como recursos para catalogar correctamente todas las obras con sus metadatos correspondientes (puedes conocer la experiencia del Museo del Prado en esta entrevista).
Pero, por otro lado, si se superan estos retos el museo ganará múltiples beneficios, empezando por el aumento de la visibilidad y de las posibilidades de su reutilización para crear productos y servicios de valor.
La apertura de los datos relacionados con la labor académica y de investigación conlleva múltiples ventajas, como la mejora de la transparencia, las posibilidades de replicar los estudios para chequear su validez o una mayor visibilidad e impacto que impulsan el reconocimiento del investigador. En este sentido, la Ley 14/2011, de 1 de junio, de la Ciencia, la Tecnología y la Innovación resalta la necesidad de impulsar el acceso abierto a los contenidos de investigación, incluyendo la obligatoriedad cuando la investigación haya sido financiada con fondos públicos estatales.
Esta situación genera una serie de retos para los investigadores de ámbitos como las humanidades, que muchas veces carecen de los conocimientos técnicos y los recursos necesarios para publicar sus trabajos en formatos accesibles, abiertos, gratuitos y actualizados. Por ello, muchas veces recurren a la contratación de colaboradores técnicos ajenos a la investigación.
Con el objetivo de dar una solución a esta situación surgió LINHD, un centro de investigación en Humanidades Digitales puesto en marcha desde la Universidad Nacional de Educación a Distancia (UNED). LINHD -cuyas siglas significan Laboratorio de Innovación en Humanidades Digitales- busca crear un nuevo marco de trabajo, donde se creen equipos de trabajo interdisciplinares e híbridos, con expertos en áreas técnicas y de humanidades que colaboren para fomentar la innovación y el intercambio de ideas. También ofrece formación, y servicios de asesoría, consultoría y tecnológicos.
LINHD constituye uno de los elementos clave del diálogo en las Humanidades Digitales y un centro pionero en España dentro de este ámbito. Y lo es porque se ocupa de materias fundamentales para el desarrollo de las nuevas tecnologías, competitividad y productividad de las humanidades.
El laboratorio surgió de una iniciativa que pretendía conectar digitalmente los datos de investigación de la propia universidad, para poder darles transparencia y visualizarlos mediante la tecnología de datos enlazados (proyecto UNEDATA), pero pronto creció acogiendo y desarrollando múltiples proyectos y servicios, con instituciones entre las que destacan el Instituto Goethe en Alemania, el Museo Thyssen o la Biblioteca Nacional, y convirtiéndose en el primer centro de investigación de humanidades digitales en el ámbito hispánico de referencia internacional y único de sus características.
A través de esta filosofía se promueven proyectos de tecnología aplicadas a las humanidades, con especial incidencia en campos como el arte, la filosofía, la historia, la geografía o la educación. Así han surgido proyectos que van desde ediciones digitales o visualizaciones de resultados hasta museos y bibliotecas virtuales.
Además, el laboratorio ha sido reconocido como Clarin-K center junto con dos centros de la UPF y la UPV, constituyendo el primer “Knowledge Center” de una ERIC-European Research Infrastructure Consortium en España.
LINHD también colabora con la Infraestructura de Investigación Digital en Artes y Humanidades DARIAH, que busca mejorar y desarrollar la investigación digital de humanidades en Europa.
Uno de sus principales proyectos es Postdata ERC Starting Grant, una plataforma digital desarrollada en el marco del programa Horizonte 2020 y dirigida por la investigadora Elena González Blanco, que permite comparar tradiciones poéticas utilizando tecnologías de la semántica web. Está dirigida tanto a académicos como a usuarios no experimentados en la temática u empresas que quieran reutilizar estos recursos para crear aplicaciones con fines culturales, educativos, turísticos, etc. Puedes ver más proyectos aquí.
LINHD es un foco de atracción de talento internacional para la investigación puntera en tecnología y humanidades digitales. Está abierto a nuevos investigadores que quieran compartir ideas y proyectos, difundirlos o buscar colaboradores. Las personas interesadas tienen que escribir a info_participar@linhd.uned.es, incluyendo los datos de contacto y una descripción del proyecto.
Cada 1 de enero nuevos escritores, pintores, músicos y artistas de todas las áreas entran a engrosar la lista de autores en dominio público. Esto significa que sus obras artísticas podrán ser editadas, reproducidas o difundidas públicamente, sin las restricciones establecidas por los derechos de autor.
En España, las obras artísticas pasan a dominio público una vez transcurridos 70 años de la muerte de su autor, de acuerdo con la ley de propiedad intelectual de 1987. No obstante, para los autores fallecidos antes de dicho año, el plazo será de 80 años. Por tanto, este año entran en dominio público las obras de aquellos autores fallecidos en 1939.
La BNE y el patrimonio intelectual de libre acceso
Cada año, la Biblioteca Nacional de España estudia, publica y digitaliza la obra de autores que forman parte de su catálogo y que ese año pasan a dominio público. Este año la lista está formada por 181 autores, entre los que se encuentran Antonio Machado, Ciro Bayo o Agustín Espinosa. Las obras de estos autores están disponibles en la Biblioteca Digital Hispánica, el portal que da acceso a los fondos digitalizados de la BNE.
La lista de autores en dominio público es abierta y colaborativa, por lo que cualquier persona interesada puede colaborar en su elaboración proponiendo autores españoles con obras en el catálogo de la Biblioteca Nacional de España, fallecidos entre 1900 y 1939, y que todavía no estén incluidos en los listados.
Además, con el objetivo de enriquecer la información, la BNE ha puesto en marcha un proyecto colaborativo titulado Del dominio público: autores españoles fallecidos en 1939, dentro de su plataforma comunidad.bne.es, desarrollada junto a Red.es. Los usuarios que deseen compartir su conocimiento y experiencia podrán ayudar a ampliar los datos que la BNE tiene sobre estos autores, añadiendo información como el lugar y año de nacimiento, la ocupación y/o la reseña biográfica del autor. Este proyecto se une a otros como La mujer del XIX [escrito en femenino], donde se rescatan distintos artículos autoras de prestigio como Blanca de los Ríos, Pardo Bazán o Patrocinio Biedma, integrados en la obra Las mujeres españolas, americanas y lusitanas pintadas por sí mismas, para que los usuarios puedan clasificar los estereotipos presentados, catalogar las ilustraciones que acompañan a muchos de los textos y completar datos sobre sus autoras.
Con la información disponible, la BNE ha creado ficheros completos, que se han publicado como conjuntos de datos abiertos y reutilizables, en diferentes formatos, en el catálogo de datos.gob.es.
Esta acción se enmarca dentro de la estrategia de la BNE para la apertura e impulso de la reutilización de sus datos y colecciones digitales, junto con otros proyectos como BNEscolar.
Tras Año Nuevo, parece que las Navidades llegan a su fin, pero todavía nos queda una fecha que todos tenemos marcada en nuestra agenda: el día de Reyes. Grandes y pequeños esperamos levantarnos el 6 de enero y descubrir qué nos han traído los sabios de oriente. Y que mejor regalo que un libro que pueda ayudarnos a ampliar nuestros conocimientos y habilidades.
Para aquellos que todavía no hayan terminado sus compras de Navidad y estén apurando al último minuto, en datos.gob.es hemos recogido una selección de libros sobre datos y tecnologías disruptivas que pueden ser una buena opción para regalar a tus seres queridos. Tenemos libros de todos los niveles: más básicos, para animar a tus parientes más jóvenes a estudiar una carrera centrada en la gestión y análisis de datos (profesiones que serán muy demandadas en los próximos años) o más avanzados, para aquellos profesionales que quieren mejorar sus conocimientos y adquirir una ventaja competitiva para impulsar su carrera en 2020.
Las bases de Big Data, de Rafael Caballero y Enrique Martín.
¿De qué trata? Libro de divulgación que explica qué es y cómo funciona el Big Data, incluyendo detalles y curiosidades que permiten al lector comprender mejor el mundo de los grandes datos, su procesamiento y el negocio que supone. También explica aspectos básicos del ecosistema Hadoop o las bases de datos, tanto relacionales como no relacionales.
¿A quién va dirigido? Se trata de un libro introductorio y fácil de leer. El libro no da una visión técnica, pero sí detallada y crítica para que lector tenga ganas de seguir profundizando en la materia.
Storytelling con datos. Visualización de datos para profesionales, de Cole Nussbaumer Knaflic.
¿De qué trata? Un libro para aprender a contar historias utilizando los datos. Cole Nussbaumer nos habla de los fundamentos de la visualización de datos a través de ejemplos reales que ayudan a comprender de una manera sencilla la teoría. El libro ayuda al usuario a reflexionar sobre las historias que quiere contar y cómo quiere contarlas, enseñándole a elegir distintos tipos de gráficos y herramientas según la audiencia a la que se dirija.
¿A quién va dirigido? Se trata de un libro sencillo y rápido de leer, perfecto para aquellos que trabajen con datos, no tengan un perfil muy técnico y quieran mejorar la forma en la que muestran los resultados.
Introduction to Data Science: Data Analysis and Prediction Algorithms with R, de Rafael A. Irizarry.
¿De qué trata? Rafael A. Irizarry presenta conceptos y habilidades para solucionar los desafíos del análisis de datos del mundo real. El libro abarca concepto de probabilidad, inferencia estadística, regresión lineal, aprendizaje automático, programación en R, visualización de datos, creación de algoritmos predictivos, organización de archivos con shell UNIX / Linux, control de versiones con Git y GitHub y preparación de documentos reproducibles.
¿A quién va dirigido? A estudiantes de primer curso de ciencia de datos, por lo que es perfecto para introducirte en esta temática.
Learning Path: Understanding Tool Integration for Big Data Architecture, de O'Reilly Media
¿De qué trata? El libro explica cómo integrar los componentes de Hadoop con el objetivo de implementar soluciones de big data para una variedad de casos de uso, incluidos análisis de flujo de clics, problemas de series de tiempo, transferencia de datos entre Hadoop y bases de datos relacionales, y aplicaciones en el sector financiero.
¿A quién va dirigido? Libro dirigido a profesionales con conocimientos técnicos relativos al universo de los datos o estudiantes avanzados.
Prediction Machines: The Simple Economics of Artificial Intelligence de Ajay Agrawal, Joshua Gans y Avi Goldfarb
¿De qué trata? El libro parte de una pregunta: ¿cómo deberían las empresas establecer estrategias, los gobiernos diseñar políticas y los ciudadanos planificar sus vidas en un mundo marcado por la tecnología y la Inteligencia Artificial? 3 eminentes economistas tratan de aclarar esta cuestión desmitificando la inteligencia artificial y examinándola a través de la teoría económica estándar.
¿A quién va dirigido? A todos aquellos que quieran comprender la realidad de la inteligencia artificial, aunque va especialmente dirigido a emprendedores, líderes de negocios o responsables de políticas públicas.
The State of Open Data: Histories and Horizons, de Tim Davies, Stephen B. Walker y Mor Rubinstein.
¿De qué trata? Libro que repasa las lecciones aprendidas en los 10 años del movimiento open data y mira al futuro para hacer reflexionar al lector sobre cómo responderán las iniciativas de datos abiertos a las nuevas preocupaciones sobre privacidad, y la inclusión de inteligencia artificial.
¿A quién va dirigido? Para aquellas personas implicadas en el ecosistema de datos abiertos, pero también aquellos que tengan curiosidad por la evolución del movimiento. El libro también se encuentra disponible en versión gratuita aquí.
Como en años anteriores, la lista es solo una selección que hemos elaborado en base a recomendaciones de los expertos que colaboran con datos.gob.es, pero sabemos que hay muchos más libros interesantes sobre estas temáticas. Por ello te animamos a dejar nuevas recomendaciones en los comentarios.
El Bosco, Tiziano, El Greco, Rubens, Velázquez, Goya... El Museo Nacional del Prado cuenta con más de 35.000 obras de un valor incuestionable, que lo convierten en una de las pinacotecas más importantes del mundo.
En el año de su bicentenario, nos acercamos al Prado de la mano de Javier Pantoja, Jefe de Área de Desarrollo Digital, para conocer qué proyectos innovadores están llevando a cabo para enriquecer la experiencia de sus visitantes.
-
En los últimos años, el Museo del Prado ha puesto en marcha una serie de proyectos tecnológicos encaminados a acercar sus colecciones a la ciudadanía. ¿Cómo surge esta idea? ¿En qué consiste la estrategia digital del Museo del Prado?
El Museo del Prado no busca solo desarrollar una estrategia digital, si no que quiere que “lo digital” sea parte de la estrategia del museo. Por ello, los 3 últimos planes estratégicos han contado con una línea de acción específica para el área digital.
Cuando hablamos de estrategia digital en el Prado, nos referimos a dos aspectos. Por un lado, hablamos de procesos, es decir, de la mejora de la gestión interna. Pero también buscamos que las herramientas digitales pueden hacer que el Prado llegue a un mayor número de público.
Nuestra intención es que la tecnología sea una herramienta, no un fin por sí misma. Hay una apuesta muy fuerte por tecnologías como los datos enlazados o la inteligencia artificial, pero siempre sin perder el objetivo de difundir la labor del Prado.
-
¿Qué tipo de tecnologías están implementando y cómo lo están haciendo? ¿Puede contarnos algunos proyectos concretos?
El punto más interesante del proyecto fue el lanzamiento de la web actual del Prado a finales de 2015. Buscábamos crear una web semántica, concebir las colecciones y la información sobre ellas de otra manera distinta, que permitiera ir más allá, y generar proyectos de lectura aumentada o la línea del tiempo que hemos presentado recientemente y que utiliza Inteligencia Artificial.
Ha sido un proceso de muchos años. Lo primero que había que hacer era digitalizar y documentar la colección, y para ello necesitábamos aplicativos internos que permitieran a todas las áreas del museo nutrir con su conocimiento, y de forma homogénea, las bases de datos.
Y después había que poner esa información a disposición del público aplicando modelos de web semántica. Es decir, necesitábamos definir semánticamente cada elemento: qué es una “técnica”, un “soporte”, un “pintor”, un “escultor”… Se trataba de crear relaciones entre todos los datos para dar como resultado grafos de conocimiento. Por ejemplo, relacionar a Goya con los libros que existen sobre él, los reyes que gobernaron en su tiempo, las técnicas que utilizaba, etc. La labor era tediosa, pero necesaria para obtener buenos resultados.
Esto permitió crear un buscador facetado, que ayudaba a acercar la colección a un grupo mucho más extenso de usuarios. Con un buscador booleano tienes que saber qué estás buscando, mientras que con el facetado es más sencillo buscar relaciones.
Toda esta labor informática de actualización, revisión y publicación de información, dio paso a una segunda parte del proyecto: era necesario hacer atractiva la información, que la web fuera estética, bonita y con un alta usabilidad. No hay que olvidar que nuestro objetivo era “poner el Prado en internet”. Había que crear una web de datos, pero que fuera fácil de utilizar. Al final el Prado es un museo de obras de arte y lo que busca es acercar ese arte a los ciudadanos.
El resultado fue una web que ha obtenido varios premios y reconocimientos.
-
¿Y cómo surgieron los proyectos de lectura aumentada y la línea del tiempo?
Surgen de una cuestión muy sencilla. Pongamos como ejemplo que un usuario entra en la ficha de la obra La Anunciación de Fra Angelico. En ella se mencionan términos como Fiésole o Taddeo Gaddi, que gran parte del público no sabe qué o quiénes son. Es decir, la información que se estaba dando, muy bien escrita y documentada, no llegaba a todo el público.
Aquí había dos soluciones. Por un lado, se podía realizar una ficha de obra con un nivel básico, pero es muy complejo crear un texto adaptado a cualquier persona, independientemente de su edad, nacionalidad, etc. Por eso se optó por otra solución: ¿Qué hace un usuario cuando no sabes algo? Lo busca en Google y pincha en Wikipedia.
Como el Museo del Prado no puede ser una enciclopedia, apostamos por aprovechar el conocimiento de Wikipedia y de DBpedia. Principalmente por 3 motivos:
- Disponía de la estructura de conocimiento precisa
- Permitía tener una enciclopedia de contexto
- Era una fuente abierta
- ¿Cuáles son los retos y barreras que se han encontrado a la hora reutilizar estos datos?
Antes de nada, teníamos que anotar una a una todas las entidades, ciudades, reyes… La labor era imposible, ya que actualmente hay 16.000 fichas de obra publicadas en la web. Además, el Prado está constantemente estudiando y revisando publicaciones.
Por ello recurrimos a un motor de reconocimiento del lenguaje natural: la maquina lee el texto y la Inteligencia Artificial lo entiende como un humano, extrae las entidades y las desambiguan. La máquina va procesando el lenguaje, que entiende en base al contexto, para lo cual utilizamos el grafo de conocimiento que ya teníamos y las relaciones entre las diferentes entidades a través de DBpedia.
El trabajo lo realizamos junto con Telefónica -empresa patrocinadora- y GNOSS -empresa desarrolladora-; y el grado de fiabilidad fue muy alto, entre el 80% y el 90%. Aun así, había cuestiones complejas. Por ejemplo, cuando se habla de “anunciación de la virgen”, no sabemos si nos referimos al concepto, a la iglesia que hay en Milán a algunos de los cuadros que existen sobre esta temática… Para garantizar que todo estaba correcto, el servicio de documentación del museo las revisó.
- ¿Cuál fue el siguiente paso?
Ya teníamos una lectura aumentada. Fue en este punto en el que nos preguntamos ¿por qué no hacer visible esas relaciones? Y así surgió la línea del Tiempo: un cúmulo de nuevos grafos de conocimiento que permitían al usuario ver de una manera más sencilla las relaciones entre conceptos, fruto de la explotación de la web de datos enlazados.
Las líneas del tiempo suelen ser unicapa, pero nosotros queríamos ir más allá y creamos una estructura multicapa, que permitiera entender y profundizar más en los conceptos: una capa de historia, otra de literatura, arquitectura, filosofía, artes escénicas… De esta forma podemos ver fácilmente, por ejemplo, qué obras se crearon durante la guerra de 100 años.
Para ello hubo que hacer una revisar de los conjuntos de datos y seleccionar los conceptos por el interés que generan y el contexto que aportaban a la colección del Prado.
- Este tipo de proyectos tienen un gran potencial para ser utilizados en el ámbito educativo…
Sí, nuestra herramienta tiene una intención divulgativa marcada y cuenta con un gran potencial para explotarse en ambientes educativos. Hemos intentado ponerlo fácil para que cualquier profesor o divulgador tenga a un golpe de vista todo el contexto de una obra.
Pero también se podría utilizar para aprender partes de historias. Por ejemplo, se puede contar la Guerra de la Independencia con las pinturas del 2 y 3 de mayo de Goya. De esta forma se podría conseguir un aprendizaje más activo, y basado en las relaciones entre conceptos.
La herramienta tiene un enfoque más apropiado para secundaria y bachillerato, pero también podría utilizarse en otras etapas.
- ¿Qué perfiles son necesarios para llevar a cabo un proyecto de este tipo?
Para llevar a cabo todo el proyecto creamos equipos multidisciplinares, integrados por diseñadores, informáticos, documentalistas…
Hay muy buenos especialistas haciendo semántica, trabajando en datos enlazados, inteligencia artificial, etc. Pero también es necesario contar con gente con las ideas para unir el rompecabezas en algo usable y útil para el usuario. Es decir, unir voluntades y conocimiento, en torno a una idea global y unos objetivos. Los avances tecnológicos están muy bien, y hay que conocerlos para poder aprovechar sus ventajas, pero siempre con un objetivo claro.
- ¿Podría comentarnos cuáles son los próximos pasos que van a seguir en materia de innovación tecnológica?
Nos gustaría llegar a acuerdos con otros museos y entidades para que todo el conocimiento esté integrado. Nos gustaría enriquecer la información y entrelazarla con datos de instituciones culturales y museísticas internacionales y nacionales.
Ya contamos con algunas alianzas, por ejemplo, se llegó a un acuerdo con de la Filmoteca Nacional y el archivo visual de RTVE, y nos gustaría seguir trabajando en esa línea.
Además, continuaremos trabajando con nuestros datos para acercar la colección del Prado a todos los ciudadanos. El Museo tiene que ser el primer reutilizador de sus fuentes pues es quien mejor las conoce y quién puede sacar de ellas un buen resultado.
A la hora de planificar nuestras vacaciones, todos buscamos el destino perfecto que cumpla con nuestras expectativas: playa, montaña, ciudad... Pero una vez que ya sabemos dónde ir, todavía nos quedan muchas decisiones que tomar: ¿cómo voy a organizar mi viaje para que todo salga perfecto? Por suerte, contamos con cientos de aplicaciones que nos hacen la vida mucho más fácil.
Hoy en día puedes utilizar algún tipo de app para calcular cuál es la ruta más adecuada para llegar a tu destino o decidir dónde echar gasolina durante el trayecto sin dañar el bolsillo. También puedes mirar las opciones de alojamiento o restauración con mejor calidad/precio desde el móvil. O consultar las actividades culturales de la zona, buscando actividades que puedan emocionar a los más pequeños de la casa. Y si quieres ir a la playa, puedes comprobar fácilmente el estado del mar, el viento o la temperatura del agua sin salir del hotel.
Todas estas aplicaciones, además de ayudarnos a organizar nuestras vacaciones de manera sencilla, tienen algo en común: basan su funcionamiento en datos abiertos procedentes de administraciones públicas.
El hecho de que cada vez más administraciones locales estén abriendo sus datos relacionados con el turismo permite generar servicios que ayudan a gestionar nuestros viajes de una forma más eficiente, integrando información a la que no siempre es fácil acceder. Como ejemplo, Asturias o Aragón están fomentado catálogos de datasets concretos centrados en este ámbito.
Muchas de estas aplicaciones han sido diseñadas por particulares y empresas, reutilizando los datos abiertos disponibles, pero otras han sido promovidas por las propias administraciones. Esto se debe a que los datos abiertos turísticos no solo ayudan a los visitantes, sino que también tienen grandes ventajas para los ayuntamientos.
El turismo es una actividad económica fundamental para nuestro país. Durante los 5 primeros meses de 2018, España superó los 28,6 millones de turistas internacionales, lo que supone un aumento del 2% con respecto al mismo periodo del año anterior. Estos turistas son una gran fuente de ingresos económicos: sólo en el mes de mayo el gasto medio por turista fue de 1.009 euros, un 1,8% más que en 2017. No es de extrañar, por tanto, que cualquier ayuntamiento quiera difundir los servicios que ofrece y atraer visitantes.
Las aplicaciones turísticas basadas en datos abiertos pueden favorecer la interacción entre los visitantes y la comunidad local, promoviendo servicios locales y favoreciendo el crecimiento económico. Además, algunas aplicaciones permiten incluso recolectar información de los usuarios bajo su consentimiento. El análisis de dicha información anonimizada, combinada con otros conjuntos de datos como el gasto total en viajes de turistas internacionales según el motivo del viaje o los turistas alojados por municipios permite conocer los patrones de comportamiento de los turistas y diseñar políticas específicas con el foco puesto en la innovación y la gestión inteligente de los destinos turísticos.
Tradicionalmente, el sector turismo ha tenido un gran peso en España, pero como todos los sectores tiene que seguir renovándose para no quedarse atrás, integrando nuevos elemento que ayuden a mejorar la experiencia de los visitantes. Los datos abiertos ligados al uso de nuevas tecnologías como el análisis Big data y la inteligencia artificial son una buena opción - por ejemplo para realizar recomendaciones y personalizaciones basadas en el comportamiento de los usuarios -. El objetivo final es proporcionar un servicio global de alta calidad, que nos permita continuar siendo líderes y recibir millones de visitantes año tras año.
La ciencia de datos está llegando a todos los sectores, desde la agricultura a la sanidad, pasando por el turismo o el transporte. Y también a la cultura, como nos demuestra el DataLab de la Fundación Juan March, un laboratorio de conocimiento que no solo busca cuidar y difundir los contenidos de la Biblioteca, sino también extraer información de valor que pueda ser utilizada para optimizar procesos, tomar mejores decisiones o incluso crear nuevos servicios.
El DataLab de la Biblioteca de la Fundación Juan March nació en 2013, recogiendo las experiencias aprendidas en la Biblioteca de Datos del antiguo Centro de Estudios Avanzados en Ciencias Sociales (CEACS) del Instituto Juan March. DataLab nació en la Biblioteca de la Fundación Juan March para liderar la organización del conocimiento digital producido tanto por la propia Biblioteca como por el resto de las áreas de la Fundación, ocupándose de la estructura, la curación y la analítica de los datos digitales.
El reto era grande. La Fundación se había creado en 1955, y desde entonces había ido acumulando una valiosa colección integrada por contenidos de diversos formatos: vídeos, imágenes, audios, textos… A ello había que sumar la gran cantidad de conocimiento organizado y conservado para fines internos en los departamentos de la Fundación.
Para hacer frente a este reto, se apostó por un equipo multidisciplinar, que integrase a bibliotecarios, tecnólogos y matemáticos. Utilizando tecnologías y metodologías propias de la ciencia de datos, pudieron explorar formas nuevas de analizar y visualizar la información.
En concreto, el DataLab cuenta con 4 áreas de actuación:
- Curación de datos: Una de las principales tareas del DataLab es la gestión y el mantenimiento continúo de los repositorios digitales de la organización. Sus responsabilidades abarcan la clasificación, documentación, almacenamiento, integración y preservación digital de los datos. Actualmente dichos datos se difunden a través de portales temáticos de conocimiento (por ejemplo, centrados en la música española contemporánea o el teatro musical español) que atraen una media de 10.000 usuarios al mes, entre ellos investigadores y especialistas en ciencias sociales y en humanidades que buscan una fuente de inspiración para nuevos proyectos.
- Analítica: Una de novedades del DataLab es su apuesta por el uso de analíticas aplicadas a los datos culturales. Por un lado, emplean tecnologías de análisis en la curación de los datos, lo que da como resultado procesos automatizados que facilitan la clasificación de la información. Por otro, también explotan los datos analíticamente. Es decir, el DataLab funciona como un servicio transversal que proporciona inteligencia de negocio al resto de áreas de la Fundación, a través de la elaboración de cuadros de mando y la resolución de peticiones concretas de información y análisis.
- Infraestructura: Para poner en marcha un proyecto de esta envergadura, era necesario crear toda una infraestructura tecnológica que permitiera capturar datos de distintas fuentes, organizarlos y estructurarlos para después poder explotarlos en distintas herramientas y procesos. Por ello se encuentran en un proceso de desarrollo continuo en el que van afinando la captura, normalización, análisis y enriquecimiento de los datos. Todo ello se lleva a cabo en entornos especializados de Big Data en la nube.
- Innovación. Uno de los pilares fundamentales del DataLab es la experimentación con nuevas tecnologías que puedan aportar una capa de valor adicional a los datos. Por ejemplo, los procesos de captura de datos se enriquecen gracias a herramientas de Inteligencia Artificial, que realizan desde análisis de sentimiento de los comentarios vertidos en redes sociales hasta transcripciones de contenidos que se clasifican de manera automática.
Todo este trabajo ha dado como resultado un proyecto en continua evolución y crecimiento, que pone a disposición de los usuarios información de gran valor, demostrando el potencial de la ciencia de datos aplicado a la cultura.
Hasta hace relativamente poco tiempo, hablar de arte y datos en la misma conversación podía parecer algo extraño. Sin embargo, los recientes avances en ciencia de datos e inteligencia artificial parecen abrir la puerta a una nueva disciplina en la que ciencia, arte y tecnología se dan la mano.
La imagen en portada ha sido extraida del blog https://www.r-graph-gallery.com y ha sido creada originalmente por Marcus Volz en su página web.
La imágen de arriba podría ser una pintura abstracta creada por algún autor de arte moderno y expuesto en el MoMA de Nueva York. Sin embargo es una imagen creada con unas cuentas líneas de código R que utilizan algunas expresiones matemáticas complejas. A pesar de la espectacularidad de la figura resultante, la bella forma de los trazos no representa una forma real. Pero la capacidad de crear arte con los datos no se limita a generar formas abstractas. Las posibilidades de crear arte con código van mucho más allá y, a continuación, mostramos dos ejemplos.
Arte real y representación de plantas
Con menos de 100 líneas de código R podemos crear esta planta e infinitas variaciones de ella en cuanto a ramaje, simetría y complejidad. Sin ser un experto en plantas y algas estoy seguro de haber visto en multitud de ocasiones plantas y algas prácticamente igual que estas. Lejos de parecer extraño, con estas representaciones no hacemos sino intentar reproducir lo que la naturaleza crea de forma natural teniendo en cuenta las leyes de la física y las matemáticas. Las figuras que se muestran a continuación han sido creadas utilizando código R originalmente extraído del blog de Antonio Sánchez Chinchón.
Variaciones de plantas creadas artificialmente mediante código R y expresiones fractales
A modo de ejemplo, estos son los datos que forman algunas de las figuras expuestas anteriormente:
Fotografía y arte con datos
Pero no solamente es posible construir figuras abstractas o representaciones que imitan las formas de las plantas. Con la ayuda de las herramientas de datos e inteligencia artificial podemos imitar, e incluso, crear nuevas obras. En el siguiente ejemplo, obtenemos versiones simplificadas de fotografías, utilizando subconjuntos de píxeles de la fotografía original. Veamos este ejemplo con más detalle.
Tomamos una fotografía de un banco de imágenes abiertas, en este caso del sitio web Wikimedia Commons, como la siguiente:
By Finetooth - Own work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=11692574
A continuación ejecutamos un algoritmo relativamente sencillo que genera formas poligonales alrededor de los principales píxeles de la imágen original. A parte de un tratamiento sencillo de imágenes para convertir esta fotografía en una imagen plana en blanco y negro, este algoritmo aplica un método matemático denominado diagrama de Voronoid. Cuando el subconjunto de datos (sobre el que aplicamos el diagrama de Voronoid) es pequeño, el resultado del tratamiento es pobre y apenas podemos distinguir la forma subyacente de la figura.
Sin embargo, a medida que vamos aumentando el subconjunto de puntos para reproducir la fotografía inicial, comenzamos a encontrar resultados fascinantes. Finalmente, con menos de un 20% de todos los puntos que componen la imagen original, obtenemos un resultado realmente bello y artístico como el de la siguiente figura. Este experimento está basado en el post original de Antonio Sánchez Chinchón en su blog Fronkostin.
La capacidad de generar arte con la potente combinación de matemáticas y códigos de programación es absolutamente potente. En el siguiente enlace es posible apreciar algunas de las obras más impresionantes que existen en esta modalidad de arte. El autor de este blog es Marcus Volz, investigador de la Universidad de Melburne. Marcus trabaja con R para generar las figuras en dos dimensiones y con Houdini para las obras en 3D y de animación.
Contenido elaborado por Alejandro Alija,experto en Transformación Digital e Innovación.
Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.