Moderadores de contenido de Meta denuncian secuelas psicológicas graves por su trabajo
Una cuarentena de exempleados de la subcontrata Telus Digital, que trabajaban como moderadores de contenido para Meta (propietaria de Facebook, Instagram y WhatsApp), han denunciado sufrir trastornos mentales graves a raíz de su empleo. Tal y como informa la periodista Laura Polo Dalfó en un artículo publicado en El País, los afectados alegan haber desarrollado ansiedad, depresión, estrés postraumático e incluso haber requerido ingreso psiquiátrico tras revisar diariamente cientos de vídeos, muchos de ellos con contenido violento o traumático.
Un trabajo invisible, con un alto coste psicológico
Filtrar vídeos violentos, revisar contenidos sensibles y justificar por qué deben eliminarse. Esta es la labor diaria que desempeñaban los moderadores de contenido. Aunque el objetivo era proteger a los usuarios de material perturbador, los que se encargaban de esta tarea pagaban un alto precio emocional y mental.
Según el abogado Francesc Feliu, que representa a los denunciantes, muchos de ellos presentan síntomas graves: “La mayoría tiene trastornos de ansiedad, crisis de depresión, estrés postraumático y alguno está ingresado en un psiquiátrico”. Algunos incluso han sufrido intentos de suicidio, y muchos han trabajado bajo presión sin poder hablar abiertamente del problema por miedo a represalias, debido a cláusulas de confidencialidad.
Contenido gráfico extremo: más de 400 vídeos al día
Los moderadores debían visualizar una media de 400 vídeos por jornada, de los cuales entre un 30% y un 40% contenía escenas explícitas, como asesinatos, abusos sexuales o violencia extrema. Además, no bastaba con eliminar los vídeos: debían justificar su decisión con precisión milimétrica, de acuerdo con las políticas internas de Meta.
Según denuncia Feliu, este material gráfico también se utilizaba para entrenar los algoritmos de inteligencia artificial de la compañía, lo que agrava la carga ética y psicológica de la tarea. “No se puede entrenar la IA con contenidos violentos, pedófilos o con asesinatos”, ha afirmado.
Meta, Telus y un ERE con más de 2.000 despedidos
En cuanto se hicieron públicas las primeras denuncias en octubre de 2023, Meta rescindió el contrato con Telus Digital en España y trasladó sus operaciones de moderación a otro país. Esto derivó en un Expediente de Regulación de Empleo (ERE) que afectó a 2.059 trabajadores.
El 96% aceptó el acuerdo, que incluía la indemnización máxima legal: 33 días por año trabajado, con un mínimo garantizado de 1.500 euros. Sin embargo, Feliu advierte que el acuerdo podría contener cláusulas que limiten la responsabilidad de la empresa respecto a los daños psicológicos. Recomienda que los afectados busquen asesoría legal antes de firmar o cerrar cualquier reclamación.
Una realidad silenciada hasta ahora
Este sistema ha operado en la sombra durante años, tanto en el plano social como informativo. “Nadie sabía lo que estaba ocurriendo”, señala Feliu. Esa invisibilidad, según él, ha impedido que se legisle sobre estas condiciones laborales tan específicas y delicadas.
La publicación de los primeros reportajes en medios ha sido clave para visibilizar una realidad hasta entonces ignorada, y puede suponer el primer paso para una futura regulación más humanitaria y transparente.
Conclusión: ¿Quién cuida a los que cuidan Internet?
Este caso plantea una cuestión de fondo: ¿quién protege a quienes nos protegen de los contenidos más oscuros de la red? Mientras los usuarios disfrutan de plataformas más seguras, los moderadores que filtran ese contenido han estado expuestos a niveles extremos de violencia digital sin la protección adecuada.
Hoy, su testimonio abre una puerta al reconocimiento y la reparación de una labor esencial, pero profundamente invisibilizada.