Desplazarse por la aplicación Sora puede parecer un poco como entrar en un multiverso de la vida real.
Michael Jackson realiza stand-up; el extraterrestre de las películas "Depredador" voltea hamburguesas en McDonald's; una cámara de seguridad de una casa capta un alce atravesando la puerta de cristal; La reina Isabel se lanza desde lo alto de una mesa en un pub.
Realidades tan improbables, futuros fantásticos y videos absurdos son el pilar de la aplicación Sora, una nueva aplicación de videos cortos lanzada por OpenAI, fabricante de ChatGPT.
El flujo continuo de videos hiperreales y de formato corto creados por inteligencia artificial es alucinante y fascinante al principio. Pero rápidamente desencadena una nueva necesidad de cuestionar cada contenido si es real o falso.
"El mayor riesgo con Sora es que hace que la negación plausible sea imposible de superar y erosiona la confianza en nuestra capacidad para distinguir lo auténtico de lo sintético", dijo Sam Gregory, experto en deepfakes y director ejecutivo de WITNESS, una organización de derechos humanos. "Las falsificaciones individuales importan, pero el daño real es una niebla de duda que se posa sobre todo lo que vemos".
Todos los vídeos de la aplicación Sora se generan íntegramente con IA y no existe la opción de compartir imágenes reales. Pero desde la primera semana de su lanzamiento, los usuarios compartieron sus vídeos de Sora en todo tipo de redes sociales.
Menos de una semana después de su lanzamiento el 30 de septiembre, la aplicación Sora superó el crecimiento inicial de ChatGPT. Sora también alcanzó la cima de la App Store en los EE. UU. Por ahora, la aplicación Sora está disponible solo para usuarios de iOS en los Estados Unidos y las personas no pueden acceder a ella a menos que tengan un código de invitación.
Para usar la aplicación, las personas deben escanear sus rostros y leer tres números que aparecen en la pantalla para que el sistema capture una firma de voz. Una vez hecho esto, los usuarios pueden escribir un mensaje de texto personalizado y crear videos hiperrealistas de 10 segundos con sonido de fondo y diálogos.
A través de una función llamada "Cameos", los usuarios pueden superponer su cara o la de un amigo en cualquier vídeo existente. Aunque todos los resultados llevan una marca de agua visible, numerosos sitios web ofrecen ahora la eliminación de marcas de agua para los vídeos de Sora.
En su lanzamiento, OpenAI adoptó un enfoque laxo a la hora de hacer cumplir las restricciones de derechos de autor y permitió la recreación de material protegido por derechos de autor de forma predeterminada, a menos que los propietarios optaran por no hacerlo.
Los usuarios comenzaron a generar videos de IA con personajes de títulos como "Bob Esponja", "South Park" y "Breaking Bad", y videos con el estilo del programa de juegos "The Price Is Right" y la comedia de los años 90 "Friends".
Luego vino la recreación de celebridades muertas, incluido Tupac Shakur deambulando por las calles de Cuba, Hitler enfrentándose a Michael Jackson y remezclas del reverendo Martin Luther King Jr. pronunciando su icónico discurso "Tengo un sueño", pero pidiendo la liberación del rapero caído en desgracia Diddy.
"Por favor, deja de enviarme videos de papá con IA", publicó Zelda Williams, hija del fallecido comediante Robin Williams, en . "No estás haciendo arte, estás haciendo hot dogs repugnantes y sobreprocesados a partir de la vida de los seres humanos, de la historia del arte y la música, y luego se los metes en la garganta de otra persona, con la esperanza de que te den el visto bueno y les guste. Asqueroso".
Otras recreaciones de celebridades muertas, incluidos Kobe Bryant, Stephen Hawking y el presidente Kennedy, creadas en Sora se han publicado en sitios web de redes sociales, obteniendo millones de visitas.
Christina Gorski, directora de comunicaciones de Fred Rogers Productions, dijo que la familia de Rogers estaba "frustrada por los videos de IA que tergiversaban al señor Rogers y que circulaban en línea".
En Sora se han compartido ampliamente videos del Sr. Rogers sosteniendo un arma, saludando al rapero Tupac y otras situaciones satíricas falsas.
"Los videos están en directa contradicción con la cuidadosa intencionalidad y el cumplimiento de los principios básicos de desarrollo infantil que Fred Rogers trajo a cada episodio de Mister Rogers' Neighborhood. Nos hemos puesto en contacto con OpenAI para solicitar que la voz y la imagen de Mister Rogers sean bloqueadas para su uso en la plataforma Sora, y esperaríamos que ellos y otras plataformas de IA respeten las identidades personales en el futuro", dijo Gorski en un comunicado a The Times.
Las agencias y sindicatos de talentos de Hollywood, incluido SAG-AFTRA, han comenzado a acusar a OpenAI de uso indebido de imágenes. La tensión central se reduce al control sobre el uso de imágenes de actores y personajes autorizados, y a una compensación justa por su uso en vídeos de IA.
A raíz de las preocupaciones de Hollywood sobre los derechos de autor, Sam Altman compartió una publicación en un blog, prometiendo un mayor control para que los titulares de derechos especifiquen cómo se pueden usar sus personajes en videos de IA, y está explorando formas de compartir los ingresos con los titulares de derechos.
También dijo que los estudios ahora podrían "optar por" que sus personajes sean utilizados en recreaciones de IA, una inversión de la postura original de OpenAI de un régimen de exclusión voluntaria.
El futuro, según Altman, se dirige hacia la creación de contenido personalizado para una audiencia de unos pocos, o para una audiencia de uno solo.
"La creatividad podría estar a punto de sufrir una explosión cámbrica y, junto con ella, la calidad del arte y el entretenimiento puede aumentar drásticamente", escribió Altman, llamando a este género de participación "fan fiction interactiva".
Los herederos de los actores fallecidos, sin embargo, se apresuran a proteger su imagen en la era de la IA.
CMG Worldwide, que representa los patrimonios de celebridades fallecidas, se asoció con una empresa de detección de deepfake para proteger las listas de actores y patrimonios de CMG del uso digital no autorizado.
Loti AI monitoreará constantemente las imitaciones de IA de 20 personalidades representadas por CMG, incluidos Burt Reynolds, Christopher Reeve, Mark Twain y Rosa Parks.
"Desde el lanzamiento de Sora 2, por ejemplo, nuestros registros se han multiplicado aproximadamente por 30 a medida que las personas buscan formas de recuperar el control sobre su imagen digital", dijo Luke Arrigoni, cofundador y director ejecutivo de Loti AI.
Desde enero, Loti AI dijo que ha eliminado miles de instancias de contenido no autorizado a medida que las nuevas herramientas de inteligencia artificial hicieron que fuera más fácil que nunca crear y difundir deepfakes.
Después de numerosas "representaciones irrespetuosas" de Martin Luther King Jr., OpenAI dijo que estaba deteniendo la generación de videos con la imagen del ícono de los derechos civiles en Sora, a pedido de . Si bien existen fuertes intereses de libertad de expresión al representar figuras históricas, las figuras públicas y sus familias deberían, en última instancia, tener control sobre cómo se utiliza su imagen, dijo OpenAI en una publicación.
Ahora, los representantes autorizados o los propietarios pueden solicitar que sus imágenes no se utilicen en los cameos de Sora.
A medida que aumenta la presión legal, Sora se ha vuelto más estricto sobre cuándo permitirá la recreación de personajes protegidos por derechos de autor. Cada vez publica más avisos de violaciones de políticas de contenido.
Ahora, la creación de personajes de Disney u otras imágenes genera una advertencia de infracción de la política de contenido. Los usuarios que no son fanáticos de las restricciones han comenzado a crear memes en video sobre las advertencias de violación de la política de contenido.
Hay una creciente viralidad en lo que se ha denominado "baja de IA".
La semana pasada aparecieron imágenes de una cámara de anillo de una abuela persiguiendo a un cocodrilo en la puerta, y una serie de videos de "olimpiadas de gordos" donde personas obesas participan en eventos deportivos como salto con pértiga, natación y eventos de atletismo.
Las fábricas dedicadas a la basura han convertido el compromiso en una fuente de ingresos, generando un flujo constante de videos que son difíciles de ignorar. Un conciso comentarista tecnológico lo denominó "Cocomelon para adultos".
Incluso con protecciones cada vez mayores para las imágenes de celebridades, los críticos advierten que la "apropiación casual de la imagen" de cualquier persona o situación común podría generar confusión pública, aumentar la desinformación y erosionar la confianza del público.
Mientras tanto, incluso cuando la tecnología está siendo utilizada por malos actores e incluso algunos gobiernos para propaganda y promoción de ciertas opiniones políticas, las personas en el poder pueden esconderse detrás de la avalancha de noticias falsas afirmando que incluso pruebas reales fueron generadas por IA, dijo Gregory de WITNESS.
"Me preocupa la capacidad de fabricar imágenes de protestas, escenificar atrocidades falsas o insertar a personas reales con palabras en la boca en escenarios comprometedores", dijo.
0 Comentarios