A veces hablamos de las redes sociales como si fueran un salón luminoso donde todo el mundo comparte sus momentos, sus ideas y sus vidas sin mayores consecuencias. Pero basta asomarse un poco al otro lado para ver que ese brillo tiene una sombra muy larga. Y no hablo solo de la sobreexposición voluntaria, ni de los padres que suben fotos de sus hijos sin pensar demasiado en quién las verá. En esta ocasión quiero hablarte del lado oscuro de las Redes Sociales.
Detrás de cada “me gusta”, de cada vídeo aparentemente inocente, hay una maquinaria que opera en silencio. Una maquinaria sostenida por personas que cargan con un peso que nadie quiere mirar de frente.
La trinchera invisible
El contenido que no llega a nuestros ojos no desaparece por arte de magia. Alguien lo ve antes. Alguien lo filtra. Alguien lo soporta. Tras cada imagen “limpia” hay trabajadores que se pasan horas —a veces jornadas de 12 o 16 horas— enfrentándose a una secuencia interminable de violencia, abusos, suicidios, maltrato animal y cualquier otra forma de degradación humana que puedas imaginar.
La mayoría no están contratados directamente por las grandes empresas. Lo habitual es que plataformas como Meta deleguen esta tarea en subcontratas instaladas en países donde la mano de obra es barata. Allí, en oficinas estrechas, cientos de moderadores revisan cada fotograma sin apenas descanso, sin garantías laborales y, lo más grave, sin apoyo psicológico real. Son los guardianes silenciosos de la red y viven en el límite.
El precio de mirar lo que nadie quiere ver
No hace falta ser psiquiatra para entender lo que eso genera. La exposición continuada a este material deja cicatrices profundas. Trastornos de ansiedad, ataques de pánico, insomnio, depresión. Y en muchos casos, síntomas propios del trastorno de estrés postraumático. La percepción de la realidad se altera. El mundo exterior empieza a verse como un lugar peligroso, sospechoso, hostil.
Entre los casos más duros que han salido a la luz está el de un moderador brasileño que trabajó en Barcelona entre 2018 y 2020. Después de años revisando contenido extremo para Meta, apenas sale de casa. Vive medicado, atrapado en un estado de hipervigilancia permanente, como si todo fuera un “Gran Hermano” donde siempre se observa, siempre se juzga, siempre se explota. Un juzgado de Barcelona le dio la razón en 2024: lo que sufre es un daño directo causado por su trabajo.
Precariedad y abandono
A este drama humano se suma la precariedad más absoluta. En una conocida subcontrata catalana —CCC Barcelona Digital Services, filial de Telus International y encargada de moderar contenido para Meta— se despidió a unos 2.000 trabajadores tras acusarlos de “no revisar bien los vídeos”. Una forma elegante de deshacerse de personas que ya estaban emocionalmente quebradas.
Pero algo empieza a moverse. Varias sentencias recientes han reconocido indemnizaciones a moderadores que han logrado demostrar que su salud mental fue dañada por este trabajo. Según el bufete Bastet Abogados, solo en Barcelona han recogido más de 350 denuncias de moderadores expuestos durante años a imágenes de extrema dureza: decapitaciones, pederastia, torturas, suicidios… El infierno cotidiano que la red nunca muestra.
Pese a esto, la figura profesional del moderador sigue siendo un limbo legal. Sin protocolos. Sin reconocimiento. Sin protección.
Privacidad, infancia y la falsa sensación de control
Otro de los puntos que siempre insisto en recordar: cuando aceptamos los términos de una red social, cedemos más derechos de los que creemos. La mayoría ni siquiera los lee. Y mientras seguimos subiendo fotos con alegría, la realidad es que cualquier imagen puede terminar en manos de terceros: bases de datos, empresas de análisis, incluso redes de explotación.
El caso de los menores es especialmente delicado. Padres y madres siguen convencidos de que “solo lo ven mis amigos”, mientras las plataformas almacenan, replican y procesan sin detenerse. No sabemos dónde terminará ese material dentro de cinco, diez o veinte años.
Más allá de la deep web
A menudo se imagina la deep web como el gran pozo negro de internet. Y sí, allí está lo peor. Pero la diferencia fundamental no es moral, sino técnica: allí no hay moderadores. Lo que se sube, queda. En la red que usamos a diario, en cambio, hay un ejército silencioso que evita que el usuario medio vea lo que realmente circula por ahí.
Si algún día se levantara ese filtro humano y se dejara a la vista todo lo que esos trabajadores ven cada jornada, la imagen que tenemos de internet —y de nosotros mismos como especie— sería infinitamente más inquietante que cualquier historia sobre la deep web.
Fuentes:
- https://www.lemonde.fr/en/international/article/2024/01/19/spanish-judge-rules-meta-content-moderator-s-trauma-a-work-related-injury_6447788_4.html
- https://techcrunch.com/2024/01/19/meta-subcontractor-ruling-barcelona/
- https://economictimes.indiatimes.com/tech/technology/metas-content-moderation-contractor-cuts-2000-jobs-in-barcelona/articleshow/119988311.cms
- https://www.reuters.com/technology/metas-content-moderation-contractor-cuts-2000-jobs-barcelona-2025-04-04/
- https://europeanconservative.com/articles/news-corner/meta-content-moderator-jobs-slashed-as-2000-laid-off-in-spain/
- https://www.catalannews.com/society-science/item/facebook-moderators-barcelona-complaints-mental-health-9-july-2025
- https://en.ara.cat/economy/new-complaint-against-meta-former-barcelona-moderators-report-consequences-from-viewing-violent-images_1_5423501.html
- https://europeanconservative.com/articles/news-corner/meta-content-moderator-jobs-slashed-as-2000-laid-off-in-spain/
Aviso:
La imagen utilizada como destacada para esta publicación, ha sido generada o modificada mediante inteligencia artificial con fines ilustrativos. No representa necesariamente hechos, lugares o personas reales.















