Sora 2 desdibuja la línea entre realidad y ficción con vídeos hiperrealistas
La nueva inteligencia artificial de OpenAI permite crear vídeos falsos de gran realismo a partir de texto, lo que multiplica los riesgos de desinformación masiva

FILTRO COPE
Bilbao - Publicado el - Actualizado
2 min lectura12:09 min escucha
Las situaciones de emergencia son un terreno fértil para la desinformación, y el reciente huracán Melissa ha sido el último ejemplo. Durante su paso por Jamaica y Cuba, las redes sociales se han llenado de vídeos e imágenes falsos que mostraban desde tiburones en las calles hasta supuestas víctimas o periodistas en plena crónica. Muchos de estos contenidos han sido creados con inteligencia artificial para desinformar y ponen en riesgo a la población.
En COPE EUSKADI hemos analizado hoy algunas de estas imagenes y hemos explicado como la herramienta que esta detras detrás de muchas de estas creaciones es Sora 2, el nuevo modelo de creación de vídeo hiperrealista de OpenAI. Lanzado el pasado 1 de octubre, este avance tecnológico facilita la generación masiva de contenidos visuales de apariencia real, haciendo cada vez más difícil distinguir la verdad de la mentira.
¿Qué es Sora 2 y cómo funciona?
Sora 2 es un modelo de generación de vídeo que ha superado a sus competidores por ser hiperrealista, preciso y más ajustable que las versiones anteriores. Es capaz de crear vídeos detallados con movimiento, múltiples personajes, diálogos sincronizados y efectos de sonido basándose únicamente en una descripción escrita. Además, permite modificar vídeos existentes para transformar objetos y escenarios.
La propia aplicación es también una red social que "invita a los usuarios a que realicen deep fakes de sí mismo". Esto ha provocado que en plataformas como TikTok ya circulen vídeos de usuarios que se convierten en astronautas o corresponsales de guerra. Algunas figuras públicas, como Sam Altman, CEO de OpenAI, han permitido el uso de su imagen, lo que facilita su uso en todo tipo de montajes.
La propia aplicación invita a los usuarios a que realicen deep fakes de sí mismo"
Periodista
Un riesgo creciente de desinformación
Aunque los vídeos generados por Sora incluyen en principio una marca de agua para identificarlos, muchos contenidos saltan a otras redes sociales sin ella. Un ejemplo es la retransmisión falsa de un piloto durante el desfile de la hispanidad sobrevolando Madrid, un vídeo que acumula casi medio millón de visualizaciones y que, pese a su realismo, fue enteramente generado con inteligencia artificial.

Sora es capaz de crear vídeos a partir de una descripción de texto
Para los expertos "cada vez es mucho más complicado detectar fallos en los vídeos creados con esta inteligencia artificial" debido a la naturalidad de los movimientos y el nivel de detalle. Aunque existen herramientas para poder contrarrestar estas creaciones, su acceso está todavía restringido y no están al alcance del gran público. Por ello, Santiago recomienda confiar en los medios de comunicación tradicionales frente al contenido de las redes sociales.
 
                 
                         
                    



