Vídeos pornográficos falsos con caras de personas reales: Un abogado explica qué hacer si apareces en uno

Un experto en derecho digital analiza en La Tarde el caso de la streamer QTCinderella: usaron su cara y crearon un vídeo porno falso mediante una IA

00:00

Redacción digital

Madrid - Publicado el - Actualizado

1 min lectura

Los 'deep fake' son vídeo hiperrealistas en los que crees estar viendo a una persona que en realidad no es, es falso. Su número se duplica cada 6 meses, acaparan más de 130 millones de visualizaciones y el 90% de estos vídeos son pornografía creada por inteligencia artificial y sin el consentimiento de las personas afectadas. Imagínate que alguien coge unas imágenes tuyas de internet y, con ellas, crea un vídeo pornográfico en el que parece que eres tú el que está ahí, y ese vídeo comienza a correr por redes sociales.

Un caso ha sido el de la creadora de contenidos QTCinderella, que ha denunciado la situación entre lágrimas y dolor, y que cuenta que han creado una secuencia pornográfica con Inteligencia Artifical en la que todo es falso, salvo el daño que le han creado a ella. “Esta la imagen del dolor”. Borja Adsuara, abogado y experto en derecho digital y en protección de datos, ha analizado las consecuencias en La Tarde, ya no sólo de este caso, sino de cualquier escenario en el que, incluso una persona anónima (compañera de trabajo o amiga) puede ser víctima.

Visto en ABC

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

5:00H | 15 ABR 2026 | BOLETÍN

Boletines COPE
Tracking