Aplicaciones de inteligencia artificial
Act. hace 0 min
Profesora e investigadora en el departamento de sociedad, política y sostenibilidad de Esade
3 min

Eran los años treinta. Robert Moses, el urbanista más poderoso de la historia de Nueva York, ordenó construir unos puentes tan bajos que los autobuses no pudieran pasar por ellos. Los autobuses eran el transporte de los pobres y de la población negra. No hizo falta ninguna ley: el puente era excluyente por diseño y por defecto.

En la versión digital pasa lo mismo: los algoritmos y modelos de lenguaje se convierten en una arquitectura moral. Cuando un equipo homogéneo decide cómo funciona un sistema de reconocimiento facial, cuando la lógica financiera de una empresa determina qué voces se amplifican en un feed de información o cuando una interfaz diseñada sin pensar en la diversidad deja a colectivos enteros fuera, el gesto es idéntico al de los puentes bajos. Cada decisión técnica es, a la vez, una decisión sobre a quién importa y qué es "normal".

Si nos fijamos, más allá de la incompetencia o la malicia, lo que encontramos es la sedimentación inconsciente de una manera de estar en el mundo. El filósofo Peter-Paul Verbeek lo formula con precisión: los ingenieros hacen ética por otros medios. Cuando diseñan una tecnología, materializan una moralidad. No declaran valores, los insertan. Paradójicamente, en el imaginario tecnológico dominante, la ética es una capa de última hora: un comité que revisa, una casilla que se marca. Pero las decisiones cruciales —las que determinan quién puede hablar, quién es escuchado, quién es vigilado, quién queda fuera— cristalizan antes de la primera línea de código. Cuando el comité de ética llega al final del proceso, el mal ya está hecho: la arquitectura ya está ahí y cambiarla cuesta dinero, tiempo y voluntad política, que casi nunca aparecen.

La respuesta no puede ser solo diversificar equipos, aunque es una estrategia necesaria y urgente. Hay que ir más allá: tratar los derechos digitales como derechos fundamentales. El derecho a no ser discriminado por un algoritmo, a entender las decisiones automatizadas que te afectan, a participar en el diseño de los sistemas que estructuran tu vida. Sin un marco de derechos, las víctimas del diseño no tienen nombre ni reparación posible.

Pensemos en los casos documentados de jóvenes que han llegado al suicidio después de una exposición sistemática a contenidos nocivos recomendados algorítmicamente. Hemos visto cómo los responsables de las plataformas se escudan en el cómputo: el algoritmo solo hace matemáticas; el contenido lo generan los usuarios; ellos solo ponen la infraestructura. Es la misma defensa que habría podido hacer Moisés: yo solo construí un puente. Pero, como decía Langdon Winner, los artefactos tienen ideología.

La ley de Conway –"Cualquier organización que diseñe un sistema producirá un diseño cuya estructura es una copia de la estructura de comunicación de la organización"– nos recuerda que los sistemas hablan de sus creadores. Y al otro lado del espejo, lo que hay no es una visión del mundo ni un proyecto colectivo: hay incentivos para crecer sin parar, para servir la mejor bandeja posible a los anunciantes, para mantener la tubería publicitaria inflada a cualquier coste. Los puentes de Moisés tardaron décadas en derribarse. Los algoritmos podrían cambiarse hoy mismo, si las corporaciones comprendieran que ser artífices de una ética alineada con los derechos y la justicia no es buenismo: es la mejor manera de garantizar el negocio a largo plazo.

stats