Sentencia histórica: el trabajo de moderador de contenidos ya se considera causa de enfermedad mental
Una sentencia del alto tribunal confirma por primera vez la relación directa entre la exposición a contenido violento y las patologías de los moderadores

Entrevista al abogado Francesc Feliu
Barcelona - Publicado el
3 min lectura6:20 min escucha
El Tribunal Supremo ha dictado una sentencia que confirma la relación de causalidad entre el trabajo de los moderadores de contenido de redes sociales y las patologías mentales que desarrollan. El fallo, que ratifica resoluciones anteriores, establece de manera "clara y meridiana" este vínculo, que las empresas del sector se negaban a reconocer. Esta decisión judicial es considerada "capital" por los representantes de los trabajadores, ya que sienta un precedente fundamental para la protección de la salud mental de estos empleados, expuestos diariamente a material de extrema dureza.
Una barrera legal derribada
Los servicios jurídicos que han llevado el caso han expresado su "enorme satisfacción" por una sentencia que consigue derribar el principal obstáculo que encontraban. La empresa negaba "la propia posibilidad de que el moderador de contenidos tuviera una afectación mental por culpa, precisamente, de su propio trabajo". El Tribunal Supremo, sin embargo, ha desestimado este argumento y ha confirmado la conexión directa entre la labor de moderación y el desarrollo de patologías como el trastorno de estrés postraumático, entre otras. "Este vínculo que la empresa intentaba romper ha quedado claramente establecido para el Tribunal Supremo", señalan las fuentes judiciales.
Esta resolución judicial es, por tanto, un punto de inflexión. Se percibe como una herramienta que "servirá para abrir más caminos" en las reclamaciones que ya están en marcha. La sentencia no solo da la razón a los trabajadores afectados, sino que también pone en tela de juicio las condiciones laborales en las que se veían obligados a desempeñar sus funciones, calificadas como "ilegales" y con una "poca empatía" por parte de la compañía. Se abre así la puerta a que se reconozcan como enfermedad profesional los daños psicológicos derivados de este puesto.

Moderador de contenidos
El "contenido más inhumano"
Pero, ¿a qué tipo de contenido se enfrentan estos moderadores? Lejos de la gestión de noticias falsas o 'fake news', el trabajo diario de estas personas consiste en la visualización de un flujo constante de material extremo. "La exposición es a asesinatos en directo, suicidios, torturas, pedofilia, pornografía infantil y zoofilia", describen los abogados. La sentencia saca a la luz una realidad a menudo invisible para el gran público, un trabajo que obliga a enfrentarse a "la cosa más inhumana que existe". Los moderadores gestionan más de cuatrocientos 'tickets' diarios, de los cuales una gran mayoría corresponde a este tipo de contenido.
Hablamos de la cosa más inhumana que existe"
La defensa de los trabajadores establece una diferencia clara con otros trabajos de riesgo. Mientras que en otras profesiones peligrosas el empleado conoce los riesgos y la empresa proporciona las herramientas para minimizarlos, en este caso los moderadores no eran plenamente conscientes de la magnitud del daño psicológico al que se exponían. "No es lo mismo que te digan que vas a moderar 'fake news' a que te expongan durante toda tu jornada laboral a contenido violento y perturbador", argumentan. La falta de un apoyo psicológico adecuado y de medidas de prevención efectivas ha sido una de las claves del proceso.
Un aviso para usuarios y gigantes tecnológicos
La sentencia del Supremo no solo tiene implicaciones para los moderadores, sino que también lanza un serio "aviso a navegantes" para los usuarios de redes sociales y, muy especialmente, para los padres de menores de edad. Pone de relieve que el contenido dañino que se intenta filtrar "es real" y circula por las plataformas. "No estamos hablando de cosas inimaginables o sacadas de la chistera, es real, y el Tribunal Supremo así lo confirma", insisten los letrados. Esta realidad subraya la importancia de tener una mayor conciencia sobre lo que se puede encontrar en estas plataformas.
Es un aviso a navegantes para los usuarios que utilizamos estas redes sociales"
Además, el fallo tendrá repercusiones en el proceso penal que está en marcha contra la subcontrata de Meta y la subcontrata de TikTok, así como contra las propias redes sociales. Se esperan "expectativas importantes" de este proceso, que podría obligar a las grandes tecnológicas a cambiar sus protocolos y a asumir su responsabilidad en la protección de quienes limpian sus plataformas del contenido más oscuro. La resolución judicial es un paso firme para que se reconozca la labor de estos trabajadores, a los que un letrado ha llegado a afirmar que "se tendría que hacer un monumento".
Este contenido ha sido creado por el equipo editorial con la asistencia de herramientas de IA.



