Moderador de redes, oficio de riesgo

Hasta 144 trabajadores de Meta en Kenia han denunciado a la compañía de Mark Zuckerberg por el estrés postraumático severo que sufren, a consecuencia de su trabajo, que consiste en revisar los vídeos más salvajes que los usuarios intentan publicar en Facebook. Los algoritmos detectan contenidos potencialmente peligrosos, pero después hay humanos que comprueban si, efectivamente, es necesario censurar aquellas imágenes. Entre las cosas a las que se enfrentan se encuentran bestialismo, desmembramientos, torturas, asesinatos, abusos infantiles... Las consecuencias de tener que enfrentarse a un diluvio de imágenes como éstas al ritmo que marca el turbocapitalismo son fácilmente imaginables. Algunos han vomitado allí mismo.

Sabemos que dónde Facebook hace más esfuerzos de moderación, y de largo, es en la versión en inglés de su (digamos) servicio. Si resulta que los moderadores kenianos revisan contenidos para que los usuarios americanos no se encuentren depende qué, tenemos una nueva forma de abuso globalizador en la que se explota a trabajadores que cobran una miseria por trabajos de alto riesgo mental. filtros humanos desmonta el discurso de los cabecillas de las grandes redes sociales, cuando intentan hacer creer que la moderación es imposible (o poco deseable) Cuando les conviene –porque sería inadmisible toparse con pornografía infantil, por ejemplo–, aunque saben cómo frenarlo, aunque sea con las córneas y la paz de espíritu de los demás. No es una cuestión de poder, sino de quererlo. supervisión más profunda conllevaría riesgos contra la libertad de expresión, que realmente son reales y graves, si se encuentra la fórmula equilibrada el resultado serían unas ágoras digitales mucho menos envenenadas de lenguaje de odio y violencia contra las minorías.