Dígitos y cachivaches

Asedio judicial en EE.UU. contra el 'scroll' infinito de Meta y YouTube

Dos sentencias históricas condenan a las plataformas por diseño adictivo. Los tribunales abren una grieta en la inmunidad legal que ha protegido a las grandes tecnológicas durante 30 años

Mark Zuckerberg, propietario de Meta.
27/03/2026
5 min

BarcelonaHa sido, seguramente, la peor semana de Mark Zuckerberg desde la fundación de Facebook. El magnate ha tenido que anunciar el desmantelamiento de su metaverso en realidad virtual, después de haber quemado 80.000 millones de dólares en una apuesta que el público ha recibido con indiferencia. Mientras Meta da un giro desesperado hacia la IA para salvar los muebles, el frente judicial le ha abierto una vía de agua que amenaza todo el modelo de negocio de las redes sociales. Dos jurados de EE. UU. han dictado sentencias que consideran a Meta y YouTube responsables directos de diseñar productos deliberadamente adictivos.

Ingeniería de la dependencia

La sentencia de Los Ángeles establece el gran precedente. El jurado ha condenado a Meta y YouTube a pagar 6 millones de dólares (70% una y 30% la otra) en daños a una joven identificada como KGM, que empezó a utilizar las plataformas a los seis años y acabó desarrollando depresión, autolesiones y una obsesión patológica con la propia imagen corporal. Un día antes, en Nuevo México, el golpe económico había sido bastante más contundente: 375 millones de dólares de multa por no proteger a los niños contra los depredadores sexuales en Facebook e Instagram.

El quid de las demandas no es el contenido que los usuarios veían, sino cómo están construidas las aplicaciones para evitar que el usuario las cierre: la amplificación de las notificaciones, la reproducción automática de vídeos y, especialmente, la perversidad del scroll infinito. Esta función evita que el cerebro diga basta. Incluso su inventor, Aza Raskin —hijo de Jef Raskin, creador de Macintosh—, se ha arrepentido públicamente en repetidas ocasiones. "Hice posible que la industria convirtiera la psicología humana en una fuente de ingresos", declaró. De hecho, en LinkedIn podéis comprobar que los gigantes digitales tienen en plantilla a cientos de doctores en psiquiatría. Raskin calcula que el mecanismo malgasta cada día el equivalente a 200.000 vidas humanas, si lo traducimos en horas perdidas.

Las pruebas internas presentadas en los juicios han sido demoledoras. Documentos de la propia Meta revelan que la empresa sabía que tenía cuatro millones de usuarios menores de 13 años —la edad mínima teórica en EE. UU.— y que el 85% de los expertos clínicos que ella misma consultó consideraban adictivas las redes. A pesar de todo, Meta priorizó el crecimiento.

Cómo esquivar el blindaje legal

Hasta ahora, las tecnológicas se acogían a la Sección 230 de la ley de decencia en las comunicaciones de 1996, que exime a las plataformas de responsabilidad por lo que sus usuarios publican en ellas. Los abogados de los demandantes han conseguido una victoria jurídica brillante: no han exigido responsabilidades por el contenido, sino por la ingeniería del producto. El argumento aceptado es que la Sección 230 protege la actividad editorial –es decir, no las hace responsables de lo que publiquen terceros– pero no de las decisiones de diseño que hacen peligroso un producto. Si un coche tiene los frenos defectuosos, el fabricante responde; si una aplicación captura la atención de los menores por diseño, el responsable es el ingeniero.

El caso establece un precedente que miles de demandas pendientes aprovecharán. TikTok y Snap, también demandadas, llegaron a acuerdos extrajudiciales porque el coste de un juicio de seis semanas es astronómico incluso para empresas de su tamaño. Pero no todo el mundo celebra las sentencias sin reservas. El analista Mike Masnick argumenta que la teoría jurídica ganadora funcionará bien contra empresas que nadie ama, pero se extenderá inevitablemente a todas las demás. Es ingenuo distinguir entre contenido y diseño: elscroll infinito no hace daño porque existe, sino porque hay contenido que hace que la gente quiera seguir haciendo scroll. "Eliminar el contenido de la ecuación es como culpar a los tenedores de la obesidad", dice.

Si además los documentos internos donde los empleados debaten riesgos se convierten en pruebas de inculpación, ninguna empresa volverá a permitir que nadie escriba nada en un correo. Todos los asesores jurídicos de Silicon Valley han aprendido la misma lección: la ignorancia es preferible a la diligencia. Y, paradójicamente, Meta y Google pueden asumir décadas de litigios multimillonarios, pero sus competidores más pequeños no: las sentencias que pretenden castigar a los gigantes podrían acabar reforzando su monopolio.

Medidas correctoras: demasiado poco y demasiado tarde

Ante la presión, las empresas ya habían aplicado correcciones antes del juicio. Meta lanzó las "cuentas para adolescentes" de Instagram en septiembre de 2024. En su declaración, Zuckerberg dijo que habría querido actuar "antes", pero trasladó la responsabilidad a Apple y Google, pidiendo que fueran los fabricantes de los sistemas operativos los que verificaran la edad. Es comprensible: si el negocio depende de maximizar el tiempo de uso para vender anuncios, cualquier medida que reduzca la adicción ataca directamente los ingresos.

El precedente tampoco se quedará en las redes sociales: ya hay demandas contra OpenAI, Google y Character.AI por diseño peligroso de sus chatbots, y el principio jurídico ganador en Los Ángeles puede aplicarse a cualquier plataforma que tome decisiones de diseño que afecten la salud de los usuarios.

Mientras los EE. UU. aplican límites mediante litigios que duran años, la Unión Europea ha optado por la regulación preventiva con la ley de servicios digitales (DSA), que obliga a las plataformas a evaluar y mitigar los riesgos para el bienestar físico y mental bajo amenaza de multas que no dependen de un caso individual. La Comisión exige transparencia a los algoritmos y prohíbe la publicidad segmentada para menores. A todo esto se añade la IA Act, que en el artículo 5 prohíbe explícitamente los sistemas que exploten las debilidades psicológicas de los usuarios para distorsionar su comportamiento —una prohibición que apunta directamente a los algoritmos de recomendación diseñados para maximizar la retención por encima del bienestar. La vía europea es preventiva, pero lenta de fiscalizar; la vía americana es reactiva e imprevisible, pero puede generar cambios rápidos.

Cómo proteger a los menores en casa

Ninguna sentencia cambiará de un día para otro lo que sucede en las habitaciones de los adolescentes. Asumiendo que, a partir de una cierta edad, privar a los hijos de un teléfono es prácticamente imposible, se recomienda un enfoque gradual. El primer paso es la configuración estricta: "Tiempo de uso" (iOS) y "Family Link" (Android) permiten establecer límites por aplicación y periodos de descanso en los que el terminal queda inoperativo. El segundo es la regla de la habitación: no cargar el móvil en el dormitorio evita el uso nocturno sin supervisión, el de riesgo documentado más elevado. El tercero es el filtrado en el rúter doméstico para bloquear contenido de riesgo. El cuarto es el "contrato tecnológico": un pacto familiar que defina las obligaciones de uso, evitando que el móvil sea moneda de cambio o instrumento de castigo.

Queda el principio menos cómodo: el ejemplo. Difícilmente un adolescente gestionará el scroll compulsivo si ve a sus padres mirando el móvil en la mesa. Las plataformas han diseñado el producto para que sea adictivo para todos. Reconocerlo en familia es el primer paso para salir de la trampa que Aza Raskin lleva dos décadas lamentando haber construido.

stats