Ingenieros de inteligencia artificial desarrollan un método que puede detectar la intención de quienes difunden información errónea

Lidiar con la desinformación en la era digital es un problema complejo. No solo se debe identificar, etiquetar y corregir la información errónea, sino que también se debe distinguir la intención de los responsables de hacer el reclamo. Una persona puede, sin saberlo, difundir información errónea, o simplemente dar su opinión sobre un tema, aunque luego se informe como un hecho. Recientemente, un equipo de investigadores e ingenieros de IA en Dartmouth creó un marco que se puede usar para derivar opiniones de informes de «noticias falsas».

Como informa ScienceDaily, el estudio del equipo de Dartmouth se publicó recientemente en el Journal of Experimental & Theoretical Artificial Intelligence. Si bien estudios anteriores han intentado identificar noticias falsas y combatir el engaño, este podría ser el primer estudio que tuvo como objetivo identificar la intención del hablante en una noticia. Si bien una historia real se puede tergiversar en varias formas engañosas, es importante distinguir si el engaño fue intencionado o no. El equipo de investigación argumenta que la intención es importante cuando se considera la desinformación, ya que el engaño solo es posible si hubo intención de engañar. Si una persona no se dio cuenta de que estaba difundiendo información errónea o si solo estaba dando su opinión, no puede haber engaño.

Eugene Santos Jr., profesor de ingeniería en la Escuela de Ingeniería Thayer de Dartmouth, explicó a ScienceDaily por qué su modelo intenta distinguir la intención engañosa:

“La intención engañosa de engañar a los oyentes a propósito representa una amenaza mucho mayor que los errores no intencionales. Hasta donde sabemos, nuestro algoritmo es el único método que detecta el engaño y al mismo tiempo discrimina los actos maliciosos de los actos benignos”.

Para construir su modelo, el equipo de investigación analizó las características del razonamiento engañoso. El algoritmo resultante podría distinguir la intención de engañar de otras formas de comunicación centrándose en las discrepancias entre los argumentos pasados ​​de una persona y sus declaraciones actuales. El modelo construido por el equipo de investigación necesita grandes cantidades de datos que puedan usarse para medir cómo una persona se desvía de argumentos anteriores. Los datos de entrenamiento que el equipo usó para entrenar su modelo consistieron en datos tomados de una encuesta de opiniones sobre temas controvertidos. Más de 100 personas dieron su opinión sobre estos controvertidos temas. También se extrajeron datos de reseñas de 20 hoteles diferentes, que constaban de 400 reseñas ficticias y 800 reseñas reales.

Según Santo, el marco desarrollado por los investigadores podría ser refinado y aplicado por las organizaciones de noticias y los lectores, para permitirles analizar el contenido de los artículos de «noticias falsas». Los lectores pueden examinar los artículos en busca de opiniones y determinar por sí mismos si se ha utilizado un argumento lógico. Santos también dijo que el equipo quiere examinar el impacto de la desinformación y el efecto dominó que tiene.

La cultura popular a menudo representa comportamientos no verbales como expresiones faciales como indicadores de que alguien está mintiendo, pero los autores del estudio señalan que estos indicios de comportamiento no siempre son indicadores confiables de mentiras. Deqing Li, coautor del artículo, explicó que su investigación encontró que los modelos basados ​​en la intención de razonamiento son mejores indicadores de mentiras que las diferencias verbales y de comportamiento. Li explicó que los modelos de intención de razonamiento «son mejores para distinguir las mentiras intencionales de otros tipos de distorsión de la información».

El trabajo de los investigadores de Dartmouth no es el único avance reciente cuando se trata de combatir la desinformación con IA. Los artículos de noticias con títulos clickbait a menudo ocultan información errónea. Por ejemplo, a menudo implican que sucedió una cosa cuando en realidad ocurrió otro evento.

Según informa AINoticias, un equipo de investigadores de la Universidad Estatal de Arizona y la Universidad Estatal de Pensilvania colaboraron para crear una IA que pudiera detectar clickbait. Los investigadores pidieron a las personas que escribieran sus propios titulares de clickbait y también escribieron un programa para generar titulares de clickbait. Ambas formas de titulares se usaron luego para entrenar un modelo que pudiera detectar de manera efectiva los titulares de clickbait, independientemente de si fueron escritos por máquinas o por personas.

Según los investigadores, su algoritmo fue alrededor de un 14,5 % más preciso en lo que respecta a la detección de títulos de clickbait que otras IA en el pasado. El investigador principal del proyecto y profesor asociado de la Facultad de Ciencias y Tecnología de la Información de Penn State, Dongwon Lee, explicó cómo su experimento demuestra la utilidad de generar datos con una IA y devolverlos a un proceso de capacitación.

«Este resultado es bastante interesante, ya que demostramos con éxito que los datos de entrenamiento de clickbait generados por máquinas pueden retroalimentarse en la canalización de entrenamiento para entrenar una amplia variedad de modelos de aprendizaje automático para mejorar el rendimiento», explicó Lee.

Deja un comentario