La recomendación de vídeos de asesinatos obliga a Meta a pedir perdón a los usuarios de sus redes
Meta ya ha arreglado el error que hizo que a miles de usuarios, incluidos menores, se les recomendaran vídeos con muertes, violencia y sangre

BarcelonaMeta, la empresa de matriz de Facebook, Instagram y WhatsApp, se ha disculpado después de que los usuarios de Instagram denunciaran que el hilo de reeles –las recomendaciones personalizadas que el algoritmo hace de vídeos cortos– se inundara de vídeos violentos. El viernes cibernautas de todo el mundo se encontraron con que la aplicación les recomendaba vídeos violentos en los que, entre otras cosas, se veían maltrato animal, asesinatos y cadáveres. Algunas de estas publicaciones tenían miles de "Me gusta" y comentarios.
Entre las quejas, hay usuarios que han denunciado haber visto escenas impactantes, como un hombre aplastado por un elefante, una persona desmembrada por un helicóptero, tiroteos, una montaña de cadáveres y un chico que ponía la cara en aceite al rojo vivo. También ha habido personas que han llenado sus perfiles con pantallas censuradas y el mensaje "contenido sensible", un formato diseñado para esconder el contenido gráfico de los vídeos, por lo que antes de ver la publicación el usuario debe pulsar un botón de aceptación.
Estos errores se produjeron después de los cambios recientes en el enfoque de Meta en cuanto a la moderación de los contenidos. En este sentido, la empresa ha sustituido a los verificadores de datos por un sistema de "notas de comunidad", realizado por los usuarios, e implantó nuevas políticas en cuanto a las denuncias de contenidos sobre orientación sexual o de género, algo que varias asociaciones que defienden los derechos online han criticado. El error ha provocado que los sistemas de moderación de Instagram prioricen por accidente los contenidos violentos en vez de filtrarlos aunque los cibernautas hayan reportado los vídeos o cuentas que los difundían.
La revista tecnológica 404 Media publicó el caso de un hombre que tenía una cuenta relacionada con el ciclismo ya quien, de repente, le empezaron a aparecer vídeos violentos y recomendaciones de publicaciones de una cuenta llamada PeopleDeadDaily (gente muriendo a diario). En declaraciones al medio digital, Meta aseguró que el alud de vídeos no está relacionado con la revisión de las reglas de contenido de la plataforma, que incluye la reducción de censura en sus plataformas.
"Hemos corregido un error que hacía que algunos usuarios vieran en su hilo de Instagram reeles que no deberían haber sido recomendados. Pedimos disculpas por el error", dice Meta en un comunicado compartido en la cadena de televisión CNBC. Asociaciones como la Fundación Molly Rose, que nació en el 2017 cuando el adolescente Molly Rose se suicidó tras ver contenido angustioso en Instagram, han exigido una explicación completa de este modo. ha remarcado Andy Burrows, director de la fundación.