Javier Castilla, experto en tecnología, explica cómo podemos saber si un vídeo está hecho o no con IA: "Desconfía de todo lo que nos resulte un tanto sospechoso, sobre todo lo que nos llegue a través de WhatsApp"

En 'La Tarde' desvelamos las claves y señales que delatan a un contenido manipulado, desde gestos extraños hasta un sonido demasiado perfecto

Creando vídeos con la inteligencia artificial (IA)
00:00
Pilar Abad Queipo

Javier Castilla, experto en tecnología, explica en 'La Tarde' cómo podemos saber si un vídeo está hecho por inteligencia artificial

Pilar Abad Queipo

Publicado el - Actualizado

4 min lectura12:50 min escucha

Un vídeo de Pedro Sánchez anunciando el retraso de la edad de jubilación a los 72 años, otro de Lamine Yamal despidiéndose del Barça y uno más de Matías Prats comunicando un servicio militar obligatorio para mujeres... 

Ninguno de estos vídeos virales era real, pero su calidad hizo que muchos los dieran por ciertos, generando indignación y confusión. 

Todos fueron creados por inteligencia artificial (IA) cuya constante evolución y sofisticación, con el paso de los días, hace difícil diferenciar entre lo que es real o no. Por eso, en 'La Tarde' un experto en tecnología y responsable del área de Data en COPE, Javier Castilla, nos ofrece las principales claves para saber si los vídeos que vemos so o no creados por la IA.

WhatsApp: principal canal de difusión de este tipo de bulos  

Hay una máxima que debemos tener en cuenta para saber si lo que vemos es verdadero o falso, que no es otra que la de "desconfiar de todo lo que nos resulte un tanto sospechoso y, sobre todo, de todo lo que nos llegue a través de WhatsApp". 

Y es que la aplicación de mensajería instantánea "es uno de los principales canales para difundir este tipo de bulos" tal y como advierte el experto en tecnología. 

 Según Castilla, el instinto humano de "ver para creer" se convierte en una vulnerabilidad, ya que al ver a una figura de autoridad como el presidente del Gobierno en un vídeo, la reacción inicial es pensar: "es que lo estoy viendo, esto tiene que ser verdad", lo que facilita la propagación de desinformación.

Desconfía, sobre todo, de lo que nos llega por WhatsApp porque es uno de los principales canales para difundir este tipo de bulos

Javier Castilla

Responsable del área de Data e Inteligencia Artificial en Ábside Media

Aunque en redes sociales existe la obligación de etiquetar los vídeos generados artificialmente, Castilla señala que esta norma no siempre se cumple. Muchas cuentas descargan y resuben contenido sin la etiqueta original, perdiéndose la trazabilidad cuando el vídeo se comparte masivamente, por ejemplo, en WhatsApp.

manos y gafas: Los detalles visuales que delatan a la ia

Conocido el primer canal de difusión de vídeos generados por la IA, hay una serie de detalles visuales que nos pueden hacer sospechar la falsedad de las imágenes que vemos. 

Uno de ellos son las manos, aunque como subraya Javier, "los modelos han mejorado mucho". Aunque hace poco esta parte del cuerpo humano solía aparecer con más dedos o incluso aparecían personas  con cuatro brazos, siguen persistiendo fallos a pesar de la evolución de la IA. 

 "La inteligencia artificial no es capaz de entender bien cómo las gafas están en el entorno de la cara", comenta. Esto provoca que cuando se gira la cabeza hacia un lado, las patillas desaparezcan o que los pendientes no coincidan, detalles que a la IA "le cuesta mucho todavía" replicar con la precisión del mundo real.

El comportamiento humano es otro de los puntos débiles de la IA. Los vídeos generados artificialmente a menudo carecen de la naturalidad de los gestos involuntarios, como la respiración o el parpadeo. 

"Los vídeos son muy perfectos, el movimiento de la boca de la persona que habla es demasiado, no tiene ritmo", apunta Castilla. En los vídeos donde solo se manipulan los labios de una persona real, es más fácil notar que "lo que está diciendo realmente su forma de hablar no encaja con la gesticulación que él está haciendo".

el audio es más fácil de de falsificar  

El sonido es otro campo donde se pueden encontrar pistas. Según el experto, el audio generado por IA suele ser "demasiado limpio" y carece de las pausas naturales para respirar.

 Además, la entonación puede ser "muy plana" o presentar una falta de coherencia entre frases. La ausencia de ruido ambiente en un vídeo supuestamente grabado en el exterior es otra señal de alerta. 

El consejo de Castilla es claro: "Si a ti te suena algo raro, algo te saca de lugar, es probable que esté manipulado".

Si a ti te suena algo raro, algo te te saca de lugar, es probable que esté manipulado"

Javier Castilla

Responsable del área de Data e Inteligencia Artificial en Ábside Media

Cuando los protagonistas no son personas, la detección se complica, pero no es imposible. La IA todavía tiene límites para recrear las físicas naturales del entorno. Es posible ver un movimiento extraño en las patas de un animal o fallos en el fondo de la escena, ya que la IA "se centra mucho en el protagonista" y descuida el entorno, donde pueden aparecer cosas que no tienen sentido, como "una mesa que empieza a levitar".

falta de un marco legal para castigar a quienes escondan la autencidad del vídeo

Ante este desafío, la industria trabaja en soluciones como las marcas de agua invisibles, una especie de huella digital en el código del vídeo para verificar su autenticidad. Sin embargo, Javier Castilla subraya que esta tecnología debe ir acompañada de un marco legal. 

La legislación tiene que asegurar que si alguien modifica o quita esa marca de agua, "pueda incurrir en un delito, para que esto sea una cosa seria".

Este contenido ha sido creado por el equipo editorial con la asistencia de herramientas de IA.

Programas

Último boletín

18:00 H | 25 NOV 2025 | BOLETÍN

Boletines COPE
Tracking