Entrevista

Arthur Grimonpont: "Estamos atrapados en las redes sociales sólo porque todos los demás las utilizan"

Responsable de IA y cuestiones globales en RSF y autor del ensayo 'Algoritmocràcia'

Arthur Grimonpont
Entrevista
14/06/2025
8 min

Ingeniero de formación y consultor de profesión, es responsable de la oficina de Inteligencia Artificial y cuestiones globales de Reporteros Sin Fronteras (RSF), además de autor del ensayo Algoritmocracia. Vivir en libertad en el tiempo de los algoritmos, editado por Libros del Siglo. Ha visitado Barcelona, ​​invitado por la Sociedad Catalana de Comunicación del IEC, donde habló de la necesidad de poner límites a las redes sociales.

¿Hay alguna forma de estar en las redes sociales que resulte saludable?

— Esto es como preguntarte si hay una forma de comer sano en un fast food. Y la respuesta es que estos locales no están diseñados en absoluto para que comas cosas saludables. Hoy 5.000 millones de personas utilizan las redes sociales dos horas y media cada día y si son tan populares no es por casualidad, sino porque son máquinas perfectas de captar la atención. Y el algoritmo sabe que el contenido que más nos captura es el polarizante, lo que excita el odio, lo que desinforma, porque nos sorprende.

Puedo limitarme a seguir a mis amigos y conocidos.

— Esto era en un principio, pero ha dejado de ser así. En TikTok, casi el cien por cien de contenido que se ve le recomienda el algoritmo y corresponde a perfiles aleatorios que el usuario no conoce. En YouTube, hace un par de años, la cifra era del 70% de vídeos plantificados por el algoritmo según su criterio. Es como si fueras al restaurante y no te sirvieran un menú sino que te alimentaran tan sólo con lo que te hace adicto: azúcar y hamburguesas.

Con la comida rápida hay campañas de concienciación. ¿Aquí la solución es la alfabetización mediática?

— Es un paralelismo interesante porque hemos visto que los programas de concienciación sobre comida saludable no funcionan en absoluto: basta con girar por nuestras ciudades para ver cientos de anuncios de fast food. Con las redes sociales ocurre lo mismo: la alfabetización mediática no funciona porque insiste demasiado en soluciones individuales para un problema estructural. Son programas necesarios, pero no una solución suficiente, porque no todos pueden ser un pequeño periodista durante el día a día para distinguir el grano de la paja.

Nos queda pues la vía de las regulaciones. ¿Pero cuáles?

— La primera, obligar a las plataformas a amplificar el contenido de calidad. Esto, claro, nos hace preguntarnos cómo definimos lo que es contenido de calidad. Pero hoy estamos tan lejos de ese escenario que sería fácil diseñar cualquier sistema mejor que el actual. Una forma, por ejemplo, sería apoyarse en los ciudadanos: dejar que voten democráticamente lo que consideran contenido de calidad.

Viendo lo que se vota depende qué lugares, glups, qué miedo.

— Pues te sorprendería. La gente es perfectamente consciente de que consumen contenidos que no son de calidad. Al igual que, con el fast food, nadie piensa que está haciendo salud: sencillamente les gusta, aunque sea a corto plazo. Con las noticias ocurre lo mismo. Y no podemos revisar cada contenido, porque sería imposible y probablemente no deseable, pero sí podemos examinar la calidad del proceso de producción de estas noticias. ¿Siguen los periodistas el código deontológico? ¿Contrastan? ¿Protegen sus fuentes? Hay reglas suficientes sobre las que los periodistas tienen un gran consenso.

Desde los medios, claro, señalamos las redes. ¿Pero que han hecho mal ellos?

— A mí me parecería duro considerarles responsables de esa situación, incluso parcialmente. Al final, hicieron lo que consideraban bueno... en ese momento. Y como los medios han estado sufriendo en los últimos años por el dinero, no podían renunciar a la audiencia que estos nuevos canales les ofrecían. Ahora, tristemente, vemos lo mismo con los chats de IA. Existen grandes medios haciendo acuerdos con los gigantes de internet sin ninguna garantía de integridad o pluralismo.

¿Por qué deberían los políticos promover regulaciones, si en el fondo se benefician de las cámaras de eco de las redes que refuerzan los prejuicios de cada uno?

— Sí, éste es uno de los motivos por los que hemos regulado cero o muy poco. Pero en distintos momentos de la historia ha habido políticos que han realizado acciones valientes en contra de su propio interés a corto plazo. Porque la gente, al final, está de acuerdo en que las redes sociales son tóxicas.

Pero no lo suficiente de acuerdo para dejarlas masivamente.

— Existe un interesante estudio de la Universidad de Chicago. Preguntaron a miles de estudiantes cuánto dinero debería pagar al mes para que dejaran de utilizar TikTok. Salió que unos 50 euros al mes. Pero entonces añadieron una pregunta adicional: cuánto deberían pagarte si marcharas de TikTok... pero tus amigos también lo hicieran. El resultado fue que entonces estarían dispuestos a pagar 30 dólares al mes. Esto te demuestra que estamos atrapados en las redes sociales sólo porque todos los demás las utilizan. Si marchas, pierdes amigos, audiencia... así que estar ahí no quiere decir que estés a gusto. Quiere decir que estás atrapado. Y que te gustaría una ley que hiciera que la gente se marchara masivamente de las redes o, al menos, que las hiciera más seguras y un sitio mejor.

Hablamos de cómo las redes polarizan, pero si miramos el mapa del mundo vemos que los populismos más fuertes que están surgiendo en todas partes son fundamentalmente de extrema derecha o asimilable.

— Efectivamente, y esto es así porque los algoritmos, a gran escala, tienden a amplificar contenido falso, divisivo o lleno de odio. Y da la casualidad, o no, de que los líderes de extrema derecha tienden a utilizar mucho más estas formas de comunicación que los del otro lado. Basta con mirar a Donald Trump.

Un discurso que se escucha a menudo por parte de Musk y compañía es que ellos son garantes de la pluralidad, porque regalan un ágora pública a los ciudadanos.

— Los líderes de las redes sociales dicen que hacen ágoras públicas, pero en realidad son gigantescos centros comerciales donde no tienes libertad para vagar a tu aire. Sencillamente, entras y te enchufan tanta publicidad como son capaces de colocarte. Son exactamente lo contrario del ágora pública que dicen ser. Un ágora pública no está mantenida por la publicidad, sino por las autoridades públicas, operando bajo derechos democráticos. No las gobierna un único actor, o un dictador, que decide qué ocurre y qué deja de pasar. Y otra diferencia: casi nadie tiene ningún problema en pasear por una plaza pública a cara descubierta. Lo mismo debería ser cierto para internet. Facebook borra cada año 6.000 millones de cuentas falsas, lo que hace pensar que hay más cuentas falsas que verdaderas.

¿Cómo se soluciona esto?

— No hay forma de corregirlo si no imponemos un sistema estricto de verificación de la identidad. Sé al cien por cien que algunos protestarán, pero para la mayoría de personas esto sería una solución mucho mejor que instalar ningún tipo de verificación.

Te he oído abogar en favor de una red social pública. Pero, ¿funcionaría? Bluesky se ha convertido en un refugio menos tóxico que X, pero no le da sombra.

— Tienes razón y existen varios motivos que lo explican. Estoy convencido de que una solución técnica no es suficiente, porque el problema es político. Hay cientos de plataformas alternativas, pero no ganan la carrera de la atención porque no están diseñadas expresamente para ganarla. Así que lo primero que debe hacerse es precisamente cambiar las reglas para que puedan competir en igualdad de condiciones.

¿Quién se beneficia de tanto ruido en la red?

— La vasta mayoría de desinformación que campa en internet no viene de agentes que quieren influir maliciosamente en la gente. Esto existe, obviamente, ya gran escala, pero no es el mayor problema, que sigue siendo la amplificación sistemática y estructural de contenido tóxico. Cuando alguien dice que la Tierra es plana lo hace sin malas intenciones: sólo ocurre que están convencidos de lo que dicen y piensan genuinamente que el resto del mundo se equivoca. Y tienen suerte porque los algoritmos amplifican sus teorías mientras que los medios no lo hacían.

Con buena o sin fe, el resultado es que la verdad está en crisis.

— Es el beneficio del mentiroso, que se llama. Bien recordar la cita de Hannah Arendt: "Todo ese mentir constante no está orientado a que la gente se crea una mentira, sino a asegurar que nadie crea ya en nada". Ella hablaba, claro, del auge de Hitler. Pero también es la estrategia de Donald Trump. No es como la propaganda china, que quiere forzar a todos a adherirse a un relato concreto, sino que sencillamente se basa en hacer creer a la gente que no pueden tener ninguna idea de dónde reside la verdad.

¿Y cuál es el antídoto?

— Sabemos por cientos de años de ciencia espistemológica que nadie tiene la verdad. Que debemos confiar en instituciones y reglas que hacen que la verdad emerja poco a poco, como hace la ciencia o intenta hacer el periodismo de calidad. Pero vayamos a un mundo en el que sólo confiamos en individuos. Y es raro, porque cuanto más mienten estos individuos, más la gente confía en ellos.

Y cuanto más gente confía en ellos, más desapercibidos pasan los contenidos honestos o de valor.

— Son las que llamamos noticias y, de hecho, son las que hicieron que me interesara por todo este mundo. No me considero un activista contra el cambio climático, pero dedico buena parte de mi carrera profesional al respecto y fundé una ONG sobre cambio climático y producción de alimentos. Dedicamos muchos esfuerzos a elaborar un estudio científico lleno de fuentes y científicamente contrastado de 3.000 páginas sobre la cuestión. Cada cifra estaba justificada y atribuida a una fuente. Dedicamos tiempo y dinero. Pero a los algoritmos, directamente, no les importó una mierda nuestro estudio porque no captaba la atención inmediata del público.

La dictadura del clic.

— Podrías decir: ¡oh, es que este tipo de contenido no es para estas redes. Pero también podrías decir: oh, es que estas redes no están preparadas para primar el contenido importante. Los contenidos como éste sufren competición asimétrica. Así que si queremos solucionar problemas como el cambio climático ahora es como si intentáramos realizar la travesía del Atlántico sin mapa de navegación, durante una tormenta y con un capitán borracho. No existe ninguna opción de llegar a buen puerto, porque nadie está accediendo a la misma información, incluso la más básica.

¿Hacia dónde nos dirige la nave, entonces?

— La información está girando hacia la estupidez a nivel global y esto nos está convirtiendo en más y más estúpidos también a marchas forzadas. Pero no es que a la gente, individualmente, le preocupe menos la inteligencia: por lo general todo el mundo tiene buenas intenciones. Es el sistema global de noticias, especialmente con las redes, el que nos está volviendo más y más estúpidos por la forma en que funciona. Y los medios tradicionales lo sufren especialmente. Entre 2018 y 2024 la amplificación de noticias de los medios en Facebook se ha dividido por cuatro. Se podría decir que se trata del mayor acto de censura de la historia, porque 3.000 millones de personas se conectan a ella cada día.

Más allá de los problemas que afectan a la calidad democrática, en la conferencia has señalado también cómo la IA interferirá en las relaciones personales, con gente enamorada de chats algorítmicos.

— Ya es el caso de miles de personas en el mundo. Un adolescente que se suicidó porque se enamoró de un personaje de IA con el que interactuaba, en la plataforma character.ai, moldeado a imagen y semejanza de la Danaerys de Juego de Tronos. Él se fue aislando de sus amigos, de su entorno. Y, en un momento de su conversación, el personaje le invitó a unirse a ella en su mundo. No sabemos a qué se refería, pero él decidió quitarse la vida para ir. Este servicio tiene unos 20 millones de usuarios que dedican una hora y media al día a hablar con distintos personajes. Y, cuando un inversor compró la compañía y prohibió que los personajes entraran en conversaciones sexuales, hubo una petición de 200.000 personas en Change.org pidiendo que revirtieran la situación. Se sentían tristes, básicamente, porque habían perdido a sus amantes.

Recuerda esa película, Her.

— La única diferencia es que el filme imaginaba esto con una ambientación futurista, pero ya está ocurriendo ahora. De momento, la gente habla con estos chatbots principalmente con texto, pero pronto veremos el auge de personajes con apariencia física, y podremos interactuar con ellos en vídeo, con una apariencia mucho más realista que la actual.

stats