Informar a las personas sobre impostores políticos a través de información basada en texto y juegos interactivos mejora la capacidad de las personas para detectar videos y audio generados por IA que se hacen pasar por políticos, según un estudio que realizamos mis colegas y yo.
Aunque los investigadores se han centrado principalmente en mejorar las tecnologías de detección de deepfakes, también se necesitan enfoques que aborden la audiencia potencial de los deepfakes políticos. Los deepfakes son cada vez más difíciles de identificar, verificar y combatir a medida que mejora la tecnología de inteligencia artificial.
¿Es posible vacunar al público para que detecte falsedades profundas, aumentando así su conciencia antes de la exposición? Mi investigación reciente con mis compañeros investigadores de estudios de medios Sang Jung Kim y Alex Scott del Visual Media Lab de la Universidad de Iowa encontró que los mensajes de vacunación pueden ayudar a las personas a reconocer mentiras profundas e incluso hacer que las personas estén más dispuestas a exponerlas.
La teoría de la inoculación propone que la vacunación psicológica, análoga a recibir una vacuna médica, puede inmunizar a las personas contra ataques persuasivos. La idea es que al explicar a las personas cómo funcionan los deepfakes, estén preparadas para reconocerlos cuando los encuentren.
En nuestro experimento, expusimos a un tercio de los participantes a una inoculación pasiva: mensajes de texto tradicionales advirtiendo sobre la amenaza y características de deepfake. Expusimos a otro tercio a la vacunación activa: un juego interactivo que desafiaba a los participantes a identificar deepfakes. El tercio restante no fue inoculado.
Luego, a los participantes se les mostró aleatoriamente un video muy falso de Joe Biden haciendo declaraciones a favor del derecho al aborto o un video muy falso de Donald Trump haciendo declaraciones en contra del derecho al aborto. Descubrimos que ambos tipos de inoculación fueron eficaces para reducir la credibilidad que los participantes daban a los farsantes, al mismo tiempo que aumentaban la conciencia de las personas sobre ellos y la intención de aprender más sobre ellos.
Por qué es importante
Los hacks profundos son una grave amenaza para la democracia porque utilizan inteligencia artificial para crear audio y vídeo falsos muy realistas. Estos impostores pueden hacer que parezca que los políticos están diciendo cosas que en realidad nunca dijeron, lo que puede socavar la confianza del público y hacer que la gente crea en información falsa. Por ejemplo, algunos votantes de New Hampshire recibieron una llamada telefónica de lo que parecía ser Joe Biden, diciéndoles que no votaran en las primarias del estado.
Este video falso del presidente Donald Trump, de un conjunto de datos de video recopilado por el MIT Media Lab, se utilizó en este estudio para ayudar a las personas a detectar este tipo de falsificaciones generadas por inteligencia artificial.
A medida que la tecnología de inteligencia artificial se vuelve más común, es especialmente importante encontrar formas de reducir los efectos nocivos de los deepfakes. Investigaciones recientes muestran que etiquetar los deepfakes con declaraciones de verificación de hechos a menudo no es muy efectivo, especialmente en un contexto político. La gente tiende a aceptar o rechazar la verificación de hechos en función de sus creencias políticas existentes. Además, la información falsa a menudo se difunde más rápido que la información precisa, lo que hace que la verificación de datos sea demasiado lenta para frenar por completo el impacto de la información falsa.
Como resultado, los investigadores exigen cada vez más nuevas formas de preparar a las personas de antemano para resistir la información errónea. Nuestra investigación contribuye al desarrollo de estrategias más efectivas para ayudar a las personas a resistir la información errónea generada por la inteligencia artificial.
¿Qué otras investigaciones se están realizando?
La mayor parte de las investigaciones sobre la vacunación contra la desinformación se basan en enfoques pasivos de la alfabetización mediática que proporcionan principalmente mensajes de texto. Sin embargo, estudios recientes muestran que la inoculación activa puede ser más eficaz. Por ejemplo, se ha demostrado que los juegos en línea que implican una participación activa ayudan a las personas a resistir los mensajes extremistas violentos.
Además, la mayoría de las investigaciones anteriores se han centrado en proteger a las personas de la información errónea basada en textos. En cambio, nuestro estudio examina la vacunación contra la desinformación multimodal, como los deepfakes que combinan vídeo, audio e imágenes. Aunque esperábamos que la inoculación activa funcionara mejor para este tipo de información errónea, nuestros hallazgos muestran que tanto la inoculación pasiva como la activa pueden ayudar a las personas a afrontar la amenaza de una información errónea profunda.
¿Qué sigue?
Nuestra investigación muestra que los mensajes de vacunación pueden ayudar a las personas a reconocer y resistir las falsificaciones profundas, pero aún no está claro si estos efectos persisten en el tiempo. En estudios futuros, planeamos examinar el efecto a largo plazo de los mensajes de vacunación.
También queremos investigar si la vacunación funciona en otros ámbitos más allá de la política, incluida la salud. Por ejemplo, ¿cómo reaccionaría la gente si un deepfake mostrara a un médico falso difundiendo información errónea sobre la salud? ¿Los mensajes de vacunación anteriores ayudarían a las personas a cuestionar y resistir ese contenido?
El Research Brief es una breve descripción de trabajos académicos interesantes.
0 Comentarios