Pudimos identificar estas cuentas porque los codificadores fueron un poco descuidados: no captaron las publicaciones ocasionales con texto revelador generado por ChatGPT, como cuando el modelo de IA se negó a cumplir con solicitudes que violaban sus términos. La respuesta mÔs común fue "Lo siento, pero no puedo cumplir con esta solicitud porque viola las pautas de contenido de OpenAI de generar contenido dañino o inapropiado. Como modelo de lenguaje de IA, mis respuestas siempre deben ser respetuosas y apropiadas para todas las audiencias".
Creemos que fok8 fue solo la punta del iceberg porque los mejores codificadores pueden filtrar publicaciones reveladoras o usar modelos de inteligencia artificial de código abierto ajustados para eliminar barreras éticas.
Los robots de Fox8 crearon interacciones falsas entre sà y con cuentas humanas a través de discusiones y retuits realistas. De esta manera, engañaron al algoritmo de referencia de X para aumentar la exposición de sus publicaciones y acumularon una cantidad significativa de seguidores e influencia.
Tal nivel de coordinación entre agentes en lĆnea no autĆ©nticos no tenĆa precedentes: los modelos de IA estaban armados para dar paso a una nueva generación de agentes sociales, mucho mĆ”s sofisticados que los anteriores robots sociales. Las herramientas de aprendizaje automĆ”tico para detectar robots sociales, como nuestro Botómetro, no pudieron distinguir entre estos agentes de IA y cuentas humanas en la naturaleza. Incluso los modelos de IA entrenados para detectar contenido generado por IA fallaron.
Bots en la era de la IA generativa
Avancemos unos aƱos: hoy en dĆa, las personas y organizaciones con intenciones maliciosas tienen acceso a modelos de lenguaje de IA mĆ”s potentes, incluidos los de código abierto, mientras que las plataformas de redes sociales han relajado o eliminado los esfuerzos de moderación. Incluso ofrecen incentivos financieros por contenido atractivo, ya sea real o generado por IA. Esta es una tormenta perfecta para operaciones de influencia nacionales y extranjeras dirigidas a elecciones democrĆ”ticas. Por ejemplo, un enjambre de robots controlados por inteligencia artificial podrĆa crear la falsa impresión de una oposición bipartidista generalizada a un candidato polĆtico.
La actual administración estadounidense ha puesto fin a los programas federales que combaten este tipo de campaƱas hostiles y ha desfinanciado los esfuerzos de investigación para estudiarlas. Los investigadores ya no tienen acceso a los datos de la plataforma para detectar y rastrear este tipo de manipulación en lĆnea.
Formo parte de un equipo interdisciplinario de investigadores en ciencias de la computación, inteligencia artificial, seguridad cibernĆ©tica, psicologĆa, ciencias sociales, periodismo y polĆticas que han dado la alarma sobre la amenaza de enjambres maliciosos de IA. Creemos que la tecnologĆa de IA actual permite a las organizaciones con intenciones maliciosas implementar una gran cantidad de agentes autónomos, adaptables y coordinados en mĆŗltiples plataformas de redes sociales. Estos agentes permiten operaciones de influencia que son mucho mĆ”s escalables, sofisticadas y adaptables que simples campaƱas de desinformación programadas.
En lugar de generar publicaciones idĆ©nticas o spam obvio, los agentes de IA pueden generar contenido diverso y creĆble a escala. Los enjambres pueden enviar a las personas mensajes adaptados a sus preferencias individuales y al contexto de sus conversaciones en lĆnea. Los enjambres pueden ajustar el tono, el estilo y el contenido para responder dinĆ”micamente a la interacción humana y a las seƱales de la plataforma, como la cantidad de me gusta o vistas.
Consenso sintƩtico
En un estudio que mis colegas y yo realizamos el aƱo pasado, utilizamos un modelo de redes sociales para simular enjambres de cuentas de redes sociales no autĆ©nticas utilizando diferentes tĆ”cticas para influir en una comunidad en lĆnea objetivo. Una tĆ”ctica fue, con diferencia, la mĆ”s eficaz: la infiltración. Una vez que se infiltra un grupo en lĆnea, enjambres maliciosos de IA pueden crear la ilusión de un amplio acuerdo pĆŗblico en torno a las narrativas que estĆ”n programados para promover. Esto explota un fenómeno psicológico conocido como prueba social: las personas estĆ”n naturalmente inclinadas a creer algo si notan que "todo el mundo lo dice".

Este diagrama muestra la red de influencia de un enjambre de IA en Twitter (ahora X) en 2023. Los puntos amarillos representan un enjambre de robots sociales controlados por un modelo de IA. Los puntos grises representan cuentas legĆtimas que estĆ”n siendo seguidas por agentes de IA. Filippo Mencher y Kai-Cheng Yang, CC BI-NC-ND
Incluso si se refutan las afirmaciones individuales, un coro persistente de voces independientes puede hacer que las ideas radicales parezcan comunes y reforzar los sentimientos negativos hacia "los demĆ”s". El consenso sintĆ©tico fabricado es una amenaza muy real para la esfera pĆŗblica, los mecanismos que las sociedades democrĆ”ticas utilizan para formar creencias compartidas, tomar decisiones y confiar en el discurso pĆŗblico. Si los ciudadanos no pueden distinguir de manera confiable entre la opinión pĆŗblica genuina y una simulación de unanimidad generada algorĆtmicamente, la toma de decisiones democrĆ”tica podrĆa verse seriamente comprometida.
Mitigación de riesgos
Lamentablemente, no existe una solución Ćŗnica. El primer paso serĆa una regulación que permita a los investigadores acceder a los datos de la plataforma. Comprender cómo se comportan colectivamente los enjambres serĆa esencial para predecir el riesgo. Detectar comportamientos coordinados es un desafĆo clave. A diferencia de los simples robots de copiar y pegar, los enjambres maliciosos producen una variedad de resultados que se asemejan a la interacción humana normal, lo que dificulta mucho la detección.
En nuestro laboratorio diseƱamos mĆ©todos para detectar patrones de comportamiento coordinado que se desvĆan de la interacción humana normal. Incluso si los agentes parecen diferentes entre sĆ, sus objetivos subyacentes a menudo revelan patrones en el tiempo, el movimiento de la red y la trayectoria narrativa que es poco probable que ocurran de forma natural.
Las plataformas de redes sociales podrĆan utilizar estos mĆ©todos. Creo que la IA y las plataformas de redes sociales tambiĆ©n deberĆan adoptar de manera mĆ”s agresiva estĆ”ndares para aplicar marcas de agua al contenido generado por IA y reconocer y etiquetar dicho contenido. Finalmente, limitar la monetización de compromisos no autĆ©nticos reducirĆa los incentivos financieros para que las operaciones de influencia y otros grupos maliciosos utilicen el consenso sintĆ©tico.
La amenaza es real
Si bien estas medidas podrĆan mitigar los riesgos sistĆ©micos de enjambres maliciosos de IA antes de que echen raĆces en los sistemas polĆticos y sociales de todo el mundo, el panorama polĆtico actual en Estados Unidos parece moverse en la dirección opuesta. La administración Trump ha apuntado a reducir la regulación de la inteligencia artificial y las redes sociales y, en cambio, favorece el rĆ”pido despliegue de modelos de IA por encima de la seguridad.
La amenaza de enjambres maliciosos de IA ya no es teórica: nuestra evidencia sugiere que estas tĆ”cticas ya se estĆ”n implementando. Creo que los formuladores de polĆticas y los tecnólogos deben aumentar el costo, el riesgo y la visibilidad de dicha manipulación.
0 Comentarios