|
III Jornadas de la Vicedirección de Colecciones y Documentación del MNCN, 19 y 20 de abril de 2016.
El concepto ‘crowdsourcing’ es muy reciente y los museos europeos de historia natural lo están explorando activamente, a través del proyecto SYNTHESYS3. El crowdsourcing es un método ex-situ de digitalización de colecciones cuya aparición se relaciona con el amplio desarrollo de Internet y de las tecnologías de información y comunicación (TIC), y con el concepto de ciencia ciudadana. Consiste en la introducción de datos de colecciones, a partir de imágenes de las fuentes de datos (documentación, ejemplares y etiquetas), de forma remota a través de plataformas on-line, que están abiertas a la participación de todo tipo de público. No hemos encontrado ninguna bibliografía que compare, en este contexto específico, la eficacia y la precisión del crowdsourcing con el método in-situ, utilizando imágenes. Nuestro objetivo es encontrar respuestas, basándonos en los datos experimentales de dos socios del proyecto. En este análisis preliminar se compara la digitalización de libros de registro de una colección de aves (The Natural History Museum, Londres, NHM), instalada en una plataforma de crowdsourcing accesible desde el portal Notes from Nature, con la digitalización de colecciones de fósiles realizadas in-situ en el museo, utilizando imágenes de las piezas con sus etiquetas (Museo Nacional de Ciencias Naturales, Madrid, MNCN-CSIC). Estos datos no son enteramente comparables, pero nos han permitido extraer algunas conclusiones que contribuirán al desarrollo de una web europea de crowdsourcing. Los resultados preliminares indican que esta plataforma de crowdsourcing es menos precisa que el método in-situ, pero mucho más eficiente, ya que la tarea de la digitalización de datos asociados con colecciones de historia natural demostró ser más rápida a través del portal. Evitar la posibilidad de registros duplicados habría mejorado su efectividad. La precisión se ha visto afectada por problemas relacionados con la inexistencia de filtros de usuarios, una inadecuada definición de algunas tareas y problemas de incentivo que, de momento, desconocemos. La precisión de los resultados en esta plataforma de crowdsourcing se incrementaría mejorando el tutorial de descripción de tareas, evitando la participación de usuarios no registrados, controlando quién puede digitalizar y quién no, y mediante la creación de procedimientos claros de revisión. En definitiva, es ahora una prioridad en el proyecto identificar los tipos más eficaces de control de calidad y averiguar las motivaciones de los usuarios, en especial de los "superusuarios", dado que incrementan la precisión de los resultados.
|
|