David Casacuberta: “El primer mandamiento del usuario de internet es no esparcir las mentiras”
A las personas nos mueven las emociones, pero el mundo está cada vez más guiado por algoritmos, los programas que aprovechan los millones de rastros que dejamos cada día en la red para buscar patrones de comportamiento y sacar conclusiones: escucha esta canción (Spotify), mira esta serie (Netflix) o lee esta novela romántica (Amazon). David Casacuberta (Barcelona, 1967) se dedica a la búsqueda de las implicaciones sociales, culturales y cognitivas de las tecnologías digitales. Fue invitado por el profesor Daniel Gamper en el Diàleg de Pedralbes dedicado a hablar de cómo convertirse en un ciudadano libre en la red y del uso de los algoritmos como herramientas políticas. De la política pasamos a la vida y a cómo el algoritmo nos puede denegar un crédito, una cama en la UCI o la entrada en un país si los reguladores públicos no se toman muy seriamente la tendencia a lo que el ponente denomina “solucionismo tecnológico”.
¿Què es un algoritmo?
Un algoritmo es un listado de instrucciones precisas escritas en un lenguaje matemático que tiene que ejecutar un programa. Por ejemplo, detrás del Word, que nos permite escribir, hay un algoritmo. Pero cuando hoy hablamos de algoritmo nos solemos referir a un programa que analiza millones de datos, saca unos patrones, busca parecidos y hace predicciones. Amazon recoge información sobre millones de compras de libros y por eso un día recibes un mensaje que te hace decir “¿cómo sabe que me interesa este libro?” Esto lo hace un algoritmo que denominamos de aprendizaje automático.
O sea que las máquinas aprenden.
Sí, a pesar de que las máquinas no tienen un sistema conceptual que les permita entender qué están haciendo. Una máquina de reconocimiento facial no sabe qué es una nariz, ni una boca, ni un peinado. Simplemente, recibe muchos píxeles y busca parecidos. Por eso, si los píxeles tienen una pequeña distorsión, el programa te deja de reconocer. Hay unas pegatinas que te puedes poner enganchadas en la frente y la cámara ya no te reconoce porque distorsionan el algoritmo. En cambio, si yo me pusiera una pegatina en la frente, tú me reconocerías igual porque tu conocimiento sobre caras es el de un humano, que puede ver que hoy tengo la barba más larga que el otro día, por ejemplo. Y esto no es banal: si resulta que un día decido arreglarme la barba igual que la de un terrorista en una base de datos, todas las alarmas de los aeropuertos podrían detectarme como terrorista. Y no sería muy agradable.
O sea, usamos una aplicación como si fuera una herramienta, pero la aplicación también nos usa a nosotros, porque aprende por lo que le pedimos.
Nada más y nada menos. El CEO de Netflix dijo que su competidor no son la HBO ni Filmin, sino Fortnite, porque el rato que estás jugando al Fortnite no estás viendo sus series. Y cuando estás con ellos, les das información sobre qué serie funciona. Vivimos en un capitalismo de datos que está organizado a partir de explotar nuestra atención. Cuando dejas de estar en una red, la red pierde dinero.
Pues mi móvil me dice una vez a la semana si he estado más o menos tiempo conectado a la máquina.
Esto lo hace Apple porque su negocio es vender máquinas, no los datos. Google no te dirá que has estado demasiado rato buscando en Google. Apple te dice que no son como esos que quieren saberlo todo de ti. La política de Apple es que no te preocupes, que tus datos están seguros con ellos.
Total, que estamos muy expuestos.
Sí. Cuando dices acepto en una página, pueden registrar no solo lo que hacemos ahí sino también en otras páginas, el rato, la interacción, etcétera. Esto crea perfiles genéricos para hacer anuncios, y hay todo un mercado underground de bases de datos que se pueden revender a una aseguradora, por ejemplo, que puede utilizar lo que se sabe de nosotros para decidir si somos de riesgo con nuestro comportamiento. Esto está pasando.
Y nos tenemos que preocupar.
Lo que hace falta es actuar como sujetos políticos y pedir moratorias de usos indiscriminados de información de las redes. Por ejemplo, hay un programa de reconocimiento facial destinado a detectar comportamientos peligrosos a partir de la ropa o las características faciales, y esto es una combinación terrible que nos acerca al racismo. Hay un software que se está utilizando en los juzgados de los Estados Unidos para decidir si una persona puede salir bajo fianza o se tiene que quedar en prisión preventiva. El programa recibe una ficha policial y hace una recomendación del peligro de reincidencia de esa persona del 1 al 10. Pues una revista de investigación política descubrió que esta categoría estaba muy sesgada a favor de los blancos, porque la máquina estaba alimentada con decisiones judiciales de un país en el que los jueces meten en la prisión a más personas negras que blancas. El algoritmo aprende lo que le das, y si lo que le das es racista, te devolverá una cosa racista. O los algoritmos para decidir quién está más calificado para hacer un trabajo, que tienden a favorecer a los hombres y no a las mujeres en la alta dirección. La razón es la misma: hay menos mujeres que hombres y el algoritmo lo recomienda.
Y si la máquina tiene el mismo sesgo que el juez, el veredicto no cambiará.
Pero el juez y el policía pueden hablar y pedirse explicaciones. En cambio, el algoritmo no habla, dice: “Probabilidad de criminalidad: 90%”, y no lo podemos discutir, porque los algoritmos vienen cerrados, son secretos para que no los copie la competencia. El peligro es la obsesión por automatizarlo todo, por esta supuesta eficiencia, alimentada porque una máquina ahorra sueldos de trabajadores. Creer que los algoritmos son objetivos porque son matemáticos es una fantasía. Los algoritmos serán tan objetivos como la información que les introducimos. Y no olvidemos que si la máquina que juega a ajedrez no entiende qué es el ajedrez, imaginémonos decidir sobre el mundo humano, con su complejidad. Vas al banco a pedir un crédito y el algoritmo dice que no, porque dice que no lo devolverás.
El algoritmo pasa delante del director de la oficina, que es quien te conoce.
Sí, y lo que ha hecho la máquina es comparar tu historia con historias de personas que se parecen a ti. ¿Y si vives en un barrio en el que el 70% no devolverá el crédito? Por eso la Unión Europea está pidiendo que los algoritmos generen explicaciones. Ahora estoy en un proyecto de investigación sobre los algoritmos en un hospital. Imagínate una emergencia, al programa le pasan el historial clínico del enfermo y la máquina decide si está en condiciones o no para ir a la UCI, si será viable. Cuidado con estos usos.
¿Y los algoritmos en política?
Si entras en Facebook y vas diciendo que esto me gusta y esto no me gusta, la máquina genera un perfil y solo te enviará cosas que te gusten, y puedes acabar pensando que todo el mundo piensa como tú. Y esto crea una burbuja ideológica. Mucha gente no entendió que ganara Trump porque en Facebook o en Twitter todo el mundo decía que Trump era un loco que no ganaría nunca. Y si los diarios se alimentan de lo que se dice en las redes se potencia este efecto burbuja, que es problemático para la democracia. Hay un fenómeno general que es la carrera hacia lo que es más básico porque es lo que tiene más “Me gusta”. Y por eso lo que aparece es cada vez más llamativo. Y después hay estrategias.
¿Cuáles?
Una típica de la extrema derecha europea para llegar a un público de izquierdas es decir una cosa provocativa. Entonces toda la gente de izquierdas se enfada y lo reenvía: “Mirad estos fachas lo que están diciendo!” Resultado: personas que nunca habían recibido directamente el mensaje de la extrema derecha lo pueden recibir. Aquello de “tu abuela 400 euros, un mena 4.000 euros” ya lo explicaba George Lakoff. Tú al final no te quedas con la aclaración de que aquella cifra es falsa, te quedas con la idea de que los menores no acompañados viven mejor que los jubilados. Y como buena parte de la prensa hace caso de lo que es trending topic en las redes sociales, todavía lo amplifican más. El anuncio de la abuela y los menores solo estaba en el metro, pero salió en todas partes. El otro día, en TV3 salieron a la calle a preguntar por la frase de Ayuso: “¿A usted le gusta vivir en una ciudad para no encontrarse a su ex?” Pensé: “¿Pero por qué le hacéis el trabajo sucio?”
O sea que mejor no reenviar nuestra indignación con según qué.
Sí, porque la falta de atención los mata. El primer mandamiento del usuario de internet es no esparcir mentiras, no esparcir los despropósitos de los otros, que mueran en ti todos los mensajes de WhatsApp que no hacen ningún bien.
¿Todavía hay un potencial emancipador en las redes? ¿O la única manera de emanciparse es emanciparse de las redes?
Cuidado con caer en el solucionismo tecnológico. El problema no es la tecnología. El problema es la política. Ahora, en Twitter, cuando intentas reenviar un artículo, primero te pregunta si te lo has leído. Es un poco molesto, pero está bien. Y esto solo lo han hecho porque mucha gente como nosotros nos hemos quejado. A veces es un problema de diseño de la red. Twitter se volvió mucho más tóxico cuando se facilitó el retuit con comentario. Si odias a un político, te esperas que diga algo para poderlo masacrar.
¿Ha abandonado alguna red?
Yo salí de Facebook por la política de privacidad tan agresiva que tiene y porque el tipo de cosas que corrían por ahí no me aportaban nada. Y ahora hay otras redes que son de algoritmo abierto y no recopilan datos sobre nosotros. El Mastodont, por ejemplo. Está el equivalente de Facebook o de Twitter en libre. Tienes buscadores como el DuckDuckGo, que al contrario de Google no crea perfiles personales, sino que pone anuncios en función de las palabras que has puesto y no guarda ningún registro tuyo. Pero querría acabar con un mensaje de confianza.
¿Cuál?
Tengo la suficiente edad como para recordar cuando salieron los primeros móviles: todo el mundo se ponía en la calle a hablar para demostrar que tenía móvil. La fiebre por comunicarse constantemente pasará dentro de cinco años, y veremos que no hay que reenviar 50 cosas cada día. Mirad el caso de esta chica norteamericana que ha demandado a sus padres porque un día entró en Facebook y de repente empezó a ver muchas fotos suyas de cuando tenía 6 o 7 años y que no había visto nunca, y se enfadó. Las redes se especializarán y estas grandes redes masivas irán perdiendo capacidades. Y cada vez hay más control legal. La UE se ha puesto muy seria en esto. La ley de protección de datos, por ejemplo, funciona bastante bien. La nueva ley sobre el uso de algoritmos para tomar decisiones es restrictiva. Piden a los programas que puedan explicar las decisiones.