Investigadores del Instituto Oriental de la Universidad de Chicago y el Departamento de Ciencias de la Computación colaboraron para diseñar una IA que pueda ayudar a decodificar tabletas de civilizaciones antiguas. Según Phys.orgla IA se llama DeepScribe y se entrenó en más de 6000 imágenes anotadas extraídas del archivo de fortificación de Persépolis. Cuando esté completo, el modelo de IA podrá interpretar tablillas no analizadas, lo que facilitará el estudio de documentos antiguos.
Los expertos que estudian documentos antiguos, como los investigadores que estudian los documentos creados durante el Imperio aqueménida en Persia, necesitan traducir documentos antiguos a mano, un proceso largo que es propenso a errores. Los investigadores han estado usando computadoras para asistir en la interpretación de documentos antiguos desde la década de 1990, pero los programas de computadora que se usaron fueron de ayuda limitada. Los complejos caracteres cuneiformes, así como la forma tridimensional de las tablillas, limitan la utilidad de los programas informáticos.
Los algoritmos de visión por computadora y las arquitecturas de aprendizaje profundo han traído nuevas posibilidades a este campo. Sanjay Krishnan, del Departamento de Informática de OI, colaboró con la profesora asociada de Asiriología Susanne Paulus para lanzar el programa DeepScribe. Los investigadores supervisaron una plataforma de gestión de bases de datos llamada OCHRE, que organizaba datos de excavaciones arqueológicas. El objetivo es crear una herramienta de IA que sea a la vez extensa y flexible, capaz de interpretar guiones de diferentes regiones geográficas y períodos de tiempo.
Como informó Phys.orgKrishnan explicó que los desafíos de reconocer el guión, que enfrentan los investigadores arqueológicos, son esencialmente los mismos desafíos que enfrentan los investigadores de visión por computadora:
“Desde el computadora perspectiva de visión, es realmente interesante porque estos son los mismos desafíos que enfrentamos. La visión por computadora en los últimos cinco años ha mejorado significativamente; Hace diez años, esto habría sido ondulado a mano, no habríamos llegado tan lejos. Es un buen problema de aprendizaje automático, porque aquí la precisión es objetiva, tenemos un conjunto de entrenamiento etiquetado y entendemos el script bastante bien y eso nos ayuda. No es un problema completamente desconocido”.
El conjunto de entrenamiento en cuestión es el resultado de tomar las tablillas y las traducciones de aproximadamente 80 años de investigación arqueológica realizada en OI y U Chicago y crear imágenes anotadas de alta resolución a partir de ellas. Actualmente, los datos de entrenamiento tienen un tamaño aproximado de 60 terabytes. Los investigadores pudieron usar el conjunto de datos y crear un diccionario de más de 100 000 signos identificados individualmente de los que el modelo podría aprender. Cuando el modelo entrenado se probó en un conjunto de imágenes invisibles, el modelo logró aproximadamente un 80 % de precisión.
Si bien el equipo de investigadores intenta aumentar la precisión del modelo, incluso un 80 % de precisión puede ayudar en el proceso de transcripción. Según Paulus, el modelo podría usarse para identificar o traducir partes muy repetitivas de los documentos, permitiendo que los expertos dediquen su tiempo a interpretar las partes más difíciles del documento. Incluso si el modelo no puede decir con certeza a qué se traduce un símbolo, puede dar a los investigadores probabilidades, lo que ya los pone por delante.
El equipo también tiene como objetivo hacer de DeepScribe una herramienta que otros arqueólogos puedan usar en sus proyectos. Por ejemplo, el modelo podría volver a entrenarse en otros idiomas cuneiformes, o el modelo podría hacer estimaciones informadas sobre el texto en tablillas dañadas o incompletas. Un modelo lo suficientemente robusto podría incluso estimar la edad y el origen de las tabletas u otros artefactos, algo que normalmente se hace con pruebas químicas.
El proyecto DeepScribe está financiado por el Centro para el Desarrollo de la Computación Avanzada (CDAC). La visión por computadora también se ha utilizado en otros proyectos financiados por CDAC, como un proyecto destinado a reconocer el estilo en obras de arte y un proyecto diseñado para cuantificar la biodiversidad en bivalvos marinos. El equipo de investigadores también espera que su colaboración conduzca a futuras colaboraciones entre el Departamento de Ciencias de la Computación y OI en la Universidad de Chicago.