Uno de cada cinco jóvenes españoles ha sido víctima de 'deepfakes': montajes hechos con Inteligencia Artificial que simulan desnudos
Save the Children publica un informe sobre una realidad de la que afirma que hay "un desconocimiento absoluto"

Responsable de Políticas de Infancia de Save the Children
Tenerife - Publicado el
3 min lectura
Uno de cada cinco jóvenes en España afirma haber sido víctimas de deepfakes durante su infancia o adolescencia, según una encuesta realizada por Save the Children. Es decir, han sido víctimas de personas que usan la Inteligencia Artificial (IA) para hacer montajes en el que parece que su cuerpo está desnudo para posteriormente difundir esas imágenes sin su consentimiento. Lamentablemente, la tecnología avanza de forma voraz, sin dar tiempo de reacción a centros educativos, padres e instituciones públicas. Hoy nos atendía en Herrera en COPE Tenerife sobre este asunto Carmela del Moral, responsable de Políticas de Infancia de Save the Children.
cualquier fotografía
Este dato se enmarca dentro de un informe sobre formas de violencia y explotación sexual en el entorno digital y tristemente, el dato sobre deepfakes no es el único que llama la atención: "El 70% de los chicos y las chicas no creían que la inteligencia artificial, que los deepfakes fuesen un riesgo. El 70%, pero luego uno de cada cinco lo habían sufrido. Hay un desconocimiento absoluto de esta realidad". La IA es una herramienta que permite que cualquier fotografía corra el riesgo de ser convertida en una imagen de contenido sexual, ya no solo existe el riesgo de enviar fotos íntimas.

Riesgo terrible para niños y niñas
Este tipo de imágenes se difunden y pueden llegar directamente a círculos pedófilos y de consumo de este tipo de material. También pueden ser enviadas en el entorno del chico o de la chica e incluso pueden ser utilizadas para después extorsionar o acosar a la víctima: "Si no haces esto, envío estas fotos, comparto estas fotos que son falsas". La experta explica que en ocasiones las peticiones pueden ir desde un cambio por fotos de contenido sexual o por un pago económico. "Esto es un riesgo terrible para los niños y las niñas".
depredadores y el entorno
¿Quiénes están detrás de estos montajes? En la mayoría de casos, los hacen depredadores sexuales que utilizan precisamente para alimentar estas redes de materiales de abuso infantil, "pero también nos encontramos con que en algunos casos son los propios compañeros de clase, los propios del entorno, quienes manipulan estas fotos". Otro factor a tener en cuenta es la normativa de estas plataformas, que son las que permiten que la aplicación genere esas fotos o el acceso que tienen los menores a las redes.
No es su culpa, tienen que entenderlo. Hay que acoger también la confianza con la que nos han hecho esta revelación"
Responsable de Políticas de Infancia de Save the Children
Si nuestro hijo o hija es víctima, o conocemos un menor que lo sea, lo primero que debemos hacer es acoger la revelación con empatía, con tranquilidad y sobre todo, evitando culpabilizar al niño o niña. "No es su culpa, tienen que entenderlo, hay que acoger también la confianza con la que nos ha hecho esta revelación y acompañarle todo lo posible desde el apoyo y es muy importante cómo responde el entorno". De ahí, Del Moral apunta que se debe denunciar a la Policía quienes tienen los medios específicos y protocolos en este tipo de cuestiones.
Por supuesto, el trabajo de prevención también debe ser fundamental. Cuidar las imágenes que subimos a redes sociales cuando aparecen menores puede ser un gran paso para evitar que acaben siendo material útil para este tipo de montajes.