Cómo los algoritmos deciden lo que queremos o lo que sabemos
La toma de decisiones de empresas, gobiernos y redes sociales cada vez involucra más datos y algoritmos más sofisticados que son capaces de detectar patrones que se escapan del cerebro humano
Cuando hay alerta de huracán, suben las ventas de linternas en las tiendas de la cadena de supermercados Walmart. También se venden más Pop-tarts, un tipo de galletas rellenas. Cuando los analistas de la empresa lo descubrieron en 2004, cada vez que los meteorólogos anunciaban tormenta, los encargados ponían Pop-tarts en la parte frontal de las tiendas. Las ventas de Pop-tarts estallaron.
Esta correlación misteriosa -¿porqué no cereales, chocolate u otros tipos de galletas?- la descubrieron gracias a dos cosas. La primera: una serie histórica de transacciones que registraba los artículos comprados por cada cliente, el coste total de la compra, la hora del día, si había competiciones deportivas e incluso el tiempo que hacía. La segunda: un análisis de esta cantidad ingente de información hecha por un algoritmo que sacó a la luz una relación que había pasado desapercibida a los ojos humanos.
Datos y más datos
La información que damos sin saberlo la procesan máquinas
Este éxito comercial es solo un ejemplo de lo que se puede conseguir con datos, algoritmos y capacidad de computación. “Siempre ha habido datos, lo que pasa es que ahora hay más que nunca, y cada vez habrá más”, dice Josep Puyol-Gruart, investigador del Instituto de Investigación en Inteligencia Artificial del CSIC. Efectivamente, cada vez hay más dispositivos conectados y se espera que con el llamado internet de las cosas, cuando no solo los teléfonos y los ordenadores estén conectados sino también las neveras o las lavadoras, se generarán todavía más datos.
De hecho, cada día generamos datos sin darnos cuenta. Cuando apagamos y encendemos la luz, damos información que las compañías eléctricas utilizan para gestionar la red eléctrica. Cuando ponemos en marcha el agua para ducharnos, lo mismo. Cuando compramos con tarjeta, cuando utilizamos un buscador o interactuamos en las redes sociales, todavía generamos más información. Estas plataformas recogen una muchedumbre de datos: qué miramos, a qué hora, cuánto tiempo lo miramos, con quién nos relacionamos, qué decimos, la velocidad a la que leemos, la velocidad a la que tecleamos, la velocidad de la conexión a internet y un largo etcétera de datos y más datos que cada vez se pueden procesar con algoritmos más potentes y sofisticados, que, a su vez, cada vez tienen menos supervisión humana. Los guía un solo objetivo: predecir qué haremos o qué nos gustará. “Estos algoritmos son cajas negras y este es el gran problema”, explica Gemma San Cornelio, investigadora en cultura digital de la UOC. “Incluso los influencers profesionales se encuentran que los algoritmos de posicionamiento de contenido cambian y tienen que estar adaptándose continuamente”, apunta.
Usar o abusar
Para mejorar la mortalidad del covid o para discriminar a los riders
La cuestión, como pasa siempre con cualquier herramienta tecnológica, desde un cuchillo hasta el algoritmo de inteligencia artificial más complejo, es el uso (o abuso) que se hace de ella. Como los algoritmos permiten detectar patrones inadvertidos para el cerebro humano, se pueden utilizar, por ejemplo, como lo ha hecho la investigadora Carolina Garcia-Vidal, para reducir del 11,6% al 1,4% la mortalidad de los pacientes que ingresaban con covid-19 en el Hospital Clínic de Barcelona.
Las entidades financieras también los usan. A partir de series históricas de datos y del perfil de los clientes, entre los cuales está el código postal y la nacionalidad, los algoritmos calculan el riesgo de un préstamo y le asignan un tipo de interés que crece con el riesgo. Esto hace que las personas con menos recursos lo tengan más difícil para obtener un crédito y les cueste más dinero que los que tienen más recursos, que pueden devolverlo con más facilidad. Y esto, que parece tan razonable desde el punto de vista de los intereses de la entidad financiera, contribuye a consolidar e incrementar la desigualdad. Porque el algoritmo no analiza la persona concreta que pide el préstamo, sino qué han hecho hasta entonces las personas parecidas. Esta falta de personalización hace que en algunos casos concretos las predicciones del algoritmo sean erróneas. Y la homogeneización en la toma de decisiones, que ahorra criterio humano, promueve círculos viciosos como el de los jóvenes a los cuales no contratan por falta de experiencia o los parados de larga duración que no encuentran trabajo porque llevan demasiado tiempo sin trabajar.
Los algoritmos que procesan grandes cantidades de datos también se usan en algunos lugares para seleccionar estudiantes universitarios o trabajadores, para predecir dónde se producirán más delitos o para fijar cuotas de seguros. En la mayoría de casos, tal y como explica la matemática Cathy O’Neil en el libro Armas de destrucción matemática, editado por Capitán Swing, la poca personalización del proceso contribuye a incrementar la desigualdad.
Uno de los últimos ejemplos que lo ha puesto de manifiesto es la reivindicación de los riders de conocer los algoritmos que utilizan las empresas de reparto, cosa que finalmente será posible pronto gracias a la llamada ley rider que ultima el gobierno español. Estos algoritmos puntúan a los repartidores, y esto determina su capacidad de elegir horarios y encargos. Pero los que pueden elegir menos muchas veces no pueden trabajar, porque los encargos ya están asignados y esto hace que cada vez tengan menos puntuación y, por lo tanto, menos oportunidades de elegir. Gracias a la nueva ley, los riders podrán saber, al menos, con qué criterios otorga las puntuaciones el algoritmo, de forma que podrán decidir cómo trabajar para obtener más puntos.
Redes algorítmicas
Un negocio basado en manipular las emociones de los usuarios
Sin embargo, quienes han llevado el uso de datos y los algoritmos a otro nivel son las redes sociales y los motores de búsqueda. Son gratuitas y transmiten la idea que son un ventanal abierto al mundo. Su modelo de negocio, genuino del siglo XXI, se basa en la captación constante de datos y en una capacidad algorítmica fuera de serie. Tal y como se ha dicho muchas veces, si un producto digital es gratuito, el producto somos nosotros, los usuarios. En este caso, el producto es nuestra atención creciente, que se vende a anunciantes con la garantía, más alta que nunca, que los anuncios nos resultarán relevantes. Por lo tanto, el negocio de las redes sociales se basa en conocer a los usuarios, en saber qué les interesará y cómo reaccionarán a ciertas emociones, para proveerlos con contenidos que les hagan estar cada vez más tiempos conectados para que generen más datos y puedan ver más anuncios.
El exexperto de Google en ética del diseño Tristan Harris lo llama tecnología persuasiva, porque se trata de aplicaciones que modifican la conducta. No son simples herramientas que esperan que alguien las utilice, según Harris, sino plataformas que utilizan la psicología humana para generar beneficios. La evolución nos ha modelado durante millones de años para que seamos animales sociales y damos importancia a las relaciones y a lo que la gente piensa de nosotros. Uno de los mecanismos que el tiempo y el azar han seleccionado para regular estas relaciones es la generación de dopamina al cerebro, que se produce durante las interacciones positivas y alimenta los centros de placer. Las redes sociales explotan este mecanismo como nadie había hecho nunca antes. Si en el ascensor o en un semáforo rojo no podemos evitar mirar el móvil es porque está inscrito en nuestra biología.
La clave del éxito de estas plataformas es la capacidad de proporcionar contenidos relevantes a los usuarios. Estos contenidos e interacciones se seleccionan o se promueven para cada usuario en cada momento en función de toda la información que se ha acumulado, incluido su estado de ánimo. Y esto puede crear una cierta adicción y generar malestar y frustración, sobre todo en los adolescentes, una franja de edad en la cual algunas redes fomentan la entronización de cánones estéticos que a menudo se basan en filtros irreales, también seleccionados por algoritmos. “Las redes sociales son susceptibles de generar estos problemas, pero yo no he visitado nunca a nadie con problemas de adicción”, explica la psicóloga Cristina Martínez. Desde el punto de vista psicológico, “las consecuencias del uso abusivo de las redes sociales son muy menores que las de la adicción a los videojuegos o a los juegos de azar”, afirma.
Mundos burbuja
Las redes solo promueven el contacto con gente parecida
La característica más definitoria de las redes sociales es la creación de las llamadas burbujas o cámaras de resonancia. Para mantener a la gente conectada, los algoritmos promueven el contacto con gente parecida, de forma que la promesa de ventana abierto al mundo es fácil que quede en un ojo de buey que da al mismo mundo del usuario. “Si no tienes una actitud activa, te quedas con una visión muy restringida del mundo”, explica San Cornelio. “O buscas información de manera consciente o la información te llega filtrada por los algoritmos”, constata Puyol-Gruart. “El problema es que no hay transparencia”, dice Karina Gibert, catedrática y directora del centro Intelligent Data Science and Artificial Intelligence de la UPC. “No te explican cómo eligen los contenidos que te muestran y tampoco te puedes liberar de esta elección”, añade.
Esta dinámica favorece la polarización, sobre todo en aspectos políticos, lo que actúa como un mecanismo de retención muy eficaz. También actúa así la proliferación de información falsa, que retroalimenta esta polarización y se propaga seis veces más rápidamente que la verídica. Se ha hablado mucho de una posible inteligencia artificial que en un futuro podría destruir a la humanidad. Pero quizás no se ha hablado tanto de la inteligencia artificial que utilizan las redes sociales y que ya ha provocado cambios reales en el mundo. En 2016 Donald Trump gastó 44 millones de dólares en casi 6 millones de anuncios en Facebook, durante una campaña que contribuyó a una polarización medible y estudiada de la sociedad norteamericana (Hillary Clinton publicó 66.000). La misma red se utilizó en 2016 en Birmania para azuzar la violencia hacia los rohingyas, una minoría musulmana que vive en la costa oeste del país.
Según Gibert, uno de los aspectos que hacen más compleja la situación es que “lo que se considera ético depende del contexto cultural”. Un grupo de expertos de la Comisión Europea elaboró hace un año unas recomendaciones para utilizar los algoritmos de inteligencia artificial de manera respetuosa con los datos y la privacidad pero que, según la catedrática, “están enfrentadas con lo que es ético en otros países”. Además, añade, “el mercado de aplicaciones digitales está deslocalizado geográficamente, y todo ello a Europa le genera un conflicto de competitividad”.
Regular un mundo algorítmico
Cultura ciudadana y regulación con exigencia de transparencia
Los datos no desaparecerán. Tampoco lo harán la capacidad de computación ni los algoritmos. Pero los algoritmos no se construyen solo con datos, sino también con decisiones humanas sobre qué datos se utilizan y cómo. “Desde la vertiente técnica, poca cosa podemos hacer -dice Puyol-Gruart-, la regulación tiene que venir de la política”. A parecer de Gibert, una de las claves para mejorar la situación actual es “que haya una cultura ciudadana y que cada uno tenga criterios para decidir cómo se relaciona con la tecnología, qué datos cede y en qué condiciones”.
Por otro lado, “las empresas tendrían que ser transparentes y explicar con qué criterios diseñan los algoritmos y con qué datos los entrenan, lo que es perfectamente compatible con el secreto industrial”, explica Gibert. Como la regulación de toda esta potencia algorítmica es compleja y, por lo tanto, lejana, el uso o abuso actual de esta tecnología depende de cada uno. De forma que si queréis abriros al mundo y no realimentar vuestra burbuja digital, es mejor que no leáis este texto si os llega a través de alguna red social.