OpenAI ha presentado una nueva herramienta para crear vídeos ultrarrealistas generados por inteligencia artificial a partir de texto, lo que ha suscitado preocupación por el uso indebido de estos sistemas de IA para manipular a los votantes antes de las elecciones.
La herramienta de IA, llamada Sora, puede utilizarse para crear vídeos de hasta 60 segundos con "escenas muy detalladas, movimientos de cámara complejos y múltiples personajes con emociones vibrantes", explicó el jueves la empresa ChatGPT en una entrada de su blog.
OpenAI compartió varios vídeos de muestra realizados con la herramienta de IA, que parecían surrealistas.
Un vídeo de ejemplo muestra a dos personas, aparentemente una pareja, caminando por una calle nevada de Tokio de espaldas a la "cámara" que camina.
El vídeo, muy realista, fue generado por la herramienta de IA a partir de un texto detallado: "La hermosa y nevada ciudad de Tokio está llena de gente. La cámara se mueve por la bulliciosa calle de la ciudad, siguiendo a varias personas que disfrutan del hermoso tiempo nevado y compran en los puestos cercanos. Preciosos pétalos de sakura vuelan por el viento junto con los copos de nieve".
Otro vídeo realizado con la herramienta y compartido por Sam Altman, jefe de OpenAI, muestra mamuts lanudos ultrarrealistas caminando por un paisaje nevado con montañas nevadas a lo lejos.
Introducing Sora, our text-to-video model.
— OpenAI (@OpenAI) February 15, 2024
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
La empresa ChatGPT afirma que el modelo de Sora entiende cómo los objetos "existen en el mundo físico", e "interpreta con precisión el atrezzo y genera personajes atractivos que expresan emociones vibrantes".
El anuncio de la herramienta de IA ha suscitado preocupación entre muchos usuarios de las redes sociales, sobre todo por la posible publicación de Sora en un año electoral en Estados Unidos.
Los expertos ya han planteado numerosas preocupaciones sobre el uso indebido de este tipo de tecnología de IA, incluidos los vídeos deepfake y los chatbots para difundir desinformación política antes de las elecciones.
"Mi mayor preocupación es cómo podría utilizarse este contenido para engañar, manipular, suplantar y confundir al público en general", publicó en X la hacker ética Rachel Tobac, miembro del consejo asesor técnico de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras (CISA) del gobierno estadounidense.
Aunque OpenAI reconoció los riesgos asociados al uso generalizado de la herramienta, afirmando que estaba "tomando varias medidas de seguridad importantes antes de hacer que Sora esté disponible en los productos de OpenAI, la Sra. Tobac dijo que "seguía preocupada".
Citando ejemplos de uso indebido de la herramienta, dijo que los adversarios pueden utilizar la herramienta de IA para crear un vídeo que parezca mostrar un efecto secundario de una vacuna que no existe.
En el contexto de las elecciones, dijo que una herramienta de este tipo podría utilizarse indebidamente para mostrar "colas inimaginablemente largas con mal tiempo" para convencer a la gente de que no merece la pena ir a votar.
OpenAI dijo que sus equipos estaban aplicando normas para limitar el uso potencialmente perjudicial de Sora, como mostrar violencia extrema, imágenes de celebridades o imágenes que inciten al odio.
"Estamos trabajando con equipos rojos -expertos en ámbitos como la desinformación, los contenidos que incitan al odio y los prejuicios- que están poniendo a prueba el modelo", afirma el creador de ChatGPT.
Pero Tobac teme que los adversarios encuentren formas de saltarse las normas.
Por ejemplo, pedir a esta herramienta de inteligencia artificial "un vídeo de una larga cola de gente esperando bajo un aguacero torrencial en el exterior de un edificio" no infringe estas políticas, el peligro está en cómo se utiliza", explicó.
"Si un adversario utiliza ese vídeo generado por IA de una cola larguísima de gente bajo un aguacero torrencial para publicarlo en las redes sociales el día de las elecciones, podría utilizarse para convencer a ciertas personas de que se queden en casa y eviten las urnas y las colas o el mal tiempo", explicó el hacker.
Pidió a OpenAI que debatiera cómo podría asociarse con las redes sociales para reconocer automáticamente y etiquetar los vídeos generados por IA que se compartan en las plataformas, además de desarrollar directrices para etiquetar estos contenidos.