Jordi Vallverdú: "Los robots harán grandes maravillas y grandes barbaridades"

25/04/2021
7 min

Igual que existe la bioética, existe la roboética, una nueva rama del conocimiento que se ocupa de los cambios (sin eufemismos, los peligros) del desarrollo de la inteligencia artificial. ¿Los robots nos dejarán sin trabajo o, de hecho, solo será el primer paso para convertirse en los nuevos reyes de la creación? ¿O esto son fantasías aprendidas en el 2001 de Kubrick? En roboética trabaja el profesor de la UAB Jordi Vallverdú Segura, especialista en Filosofía de la Ciencia y de la Computación, Inteligencia Artificial y Robótica. Una persona de verbo torrencial, comprensible, punzante y divertida, como se ve en el capítulo Interessos de la web de la UAB: "El amor por Johann Sebastian Bach, John Coltrane, Djivan Gasparian y la poesía japonesa en forma de haiku acompañan este investigador en sus investigaciones. Y disfruta con el hecho de compartir la vida (que no el lavabo) con su compañera y sus tres hijos ". Vallverdú se sentó junto al también filósofo Daniel Gamper en la apertura de los Diàlegs de Pedralbes 2021, que organizan el Ayuntamiento de Barcelona y el ARA. Esta entrevista recoge algunos de los momentos más interesantes de la conversación.

¿Qué cantidad de emociones humanas transferiremos a los robots?

— Esta es la cuestión. Hay un juego, el juego del ultimátum, que consiste en que tú tienes 100 euros y los tienes que repartir entre dos personas, de acuerdo con una regla muy sencilla: solo nos repartiremos el dinero si nos ponemos de acuerdo en lo que nos corresponde a cada uno, y el que hace la propuesta no puede decir "me quedo cien y a ti no te doy nada". Y lo que vimos es que en las poblaciones occidentales, si la propuesta no se aproxima al punto 40% -60%, el otro nunca acepta.

Porque no le parece justo.

— Exacto. Pero esta respuesta es cultural. En ciertos lugares de Asia, África o Sudamérica, había gente capaz de aceptar un reparto de 99 a 1, porque si tú entras en el juego con cero euros y sales con uno, ya has ganado. A nosotros, en cambio, nos puede el orgullo: "Si solo me llevo 1€ y él se lleva 99€, me está tomando el pelo, por lo que aquí no hay dinero para nadie y nos pegamos todos". Esto es importante porque cuando hacemos que las máquinas aprendan de los humanos, ¿de qué humano aprenderán? ¿De un americano o de un asiático? No aprenderán de Einstein sino de una persona normal y corriente, que te levantas y no dices lo mismo antes del café que después del café, o si te ha dejado la pareja o te han subido el sueldo.

Si la máquina hace como la persona y cambia de opinión muy a menudo, no tendrá un criterio.

— O llegará a la conclusión de que se tiene que cambiar de opinión muy a menudo. Esto ocurrió con un sistema de inteligencia artificial de Microsoft que aprendía a través de Twitter. ¿Qué pasó? Que en 24 horas la tuvieron que cerrar porque enseguida empezó a hacer comentarios racistas.

Y aquí entráis los filósofos.

— Cuando empecé a hacer cosas de filosofía de computación, iba a un congreso y éramos cuatro gatos, el típico contingente de gente rara, dentro de los raros de la filosofía, que nos dejaban decir alguna tontería más. En poco tiempo ha cambiado mucho, porque ahora ya tenemos robots que pueden ir por la calle. De hecho, los coches ya podrían hacer muchas más cosas ellos solitos. ¿Por qué no las hacen? Porque todavía no tenemos claros muchos retos de tipo ético y legal. Habrá coches automáticos que mataran a gente sin querer. Y como dice el profesor Daniel Gamper, el problema es que programaremos el coche para que tome una decisión cuando, en realidad, el conductor que quiere evitar un accidente, en aquella fracción de segundo, ¿toma una decisión del todo racional o hace lo que puede?

¿Qué cree que le haremos hacer a la máquina?

— En el MIT preguntaron a millones de personas: "Si tú fueras un coche, ¿cómo reaccionarías?" Y vieron que hay patrones culturales: las respuestas eran diferentes por países. A los italianos les parecía lógico salvar antes a las madres o a las abuelas que a los niños pequeños. El problema que tenemos los de roboética es que debemos introducir en un programa de ordenador códigos éticos humanos que no siempre son coherentes. Mirad a los jueces, cómo interpretan las leyes. Si personas bien informadas disienten entre ellas, ¿qué podemos esperar de los robots? El Derecho no funciona con lógica matemática, y la máquina no tiene tantos matices. Ahora, no sé si lo veremos los de esta sala, pero seguro que habrá robots que serán personas no humanas.

¿"Personas no humanas" no es una contradicción en sí misma?

— A nivel legal, no. En 2015, una jueza argentina determinó que un orangután hembra tenía estatus de persona no humana, no era un humano pero tenía derechos como una persona. Y en 2017, un robot que se llama Sophia Hansom Robotics, humanoide inspirado en la estructura fisiológica de una mujer, obtuvo la ciudadanía de Arabia Saudita. Y si cuando me muero lo puedo dejar todo a los perros, pues también a mi robot; en Japón hay cementerios para robots. Cementerios, no depósitos.

Entonces, si la máquina te dice "no quiero barrer más, estoy cansado", ¿qué haces? Porque se supone que la has comprado para que no se canse.

— Aquí está el tema, ¿qué pasará si los robots llegan a ser lo suficientemente complejos como para tener personalidad? Ahora se empieza a hablar de robótica sexual, por lo que ya deja de ser una parafilia un poco rara. Por eso, la antropóloga Katherine Richardson dice que se está generando una nueva esclavitud sexual, estamos pasando unos roles de dominación de un lugar a otro. En cambio, Sergio Santos, un ingeniero catalán que ha hecho un robot sexual, dice que se puede programar para que no siempre acceda. Pero, ¿tú te gastarás 15.000 euros en un robot que te diga que hoy no, que tiene dolor de cabeza?

¿Cuánta gente deberá ponerse de acuerdo para programar estos robots? ¿Filósofos, abogados, científicos?

— La sociedad entera. El país que tiene más robótica es Japón, por dos razones: como potencia industrial (aunque los chinos les atraparán en breve) y como sociedad muy restrictiva con la inmigración y de natalidad baja. ¿Qué ocurre? Que tienen más ancianos que nadie, que están todo el día solos. ¿Solución? Robots. Gran parte de la robótica social tiene que ver con el cuidado, que es lo que nos hace humanos. Porque los ancianos nos cansan, pero el robot repite lo que sea necesario.

Esto en el caso de un robot bueno. ¿Seremos tan tontos que programaremos máquinas para que nos puedan atacar?

— Sí, claro, tendremos robots militares muy inteligentes capaces de matar a gente. Pero es que las máquinas ya saben engañarte. Unos investigadores japoneses hicieron una máquina que jugaba a piedra, papel, tijera y siempre ganaba, porque tiene un sistema motriz muy rápido que permite saber qué harás tú y anticiparse. Hace ver que juega contigo en condiciones normales, pero en realidad tiene una capacidad enorme de predecir tu movimiento corporal a través de las cámaras que lleva incorporadas. Facebook o Instagram te hacen creer que tú vas a mirar las noticias y, de hecho, miras las que ellos quieren y cuando les da la gana.

Volviendo a la persona no humana malvada ...

— Ya ha habido un barco militar estadounidense que no está armado porque no quieren, totalmente autónomo, que ya ha atravesado el canal de Panamá, él solo. Y hay aviones de combate que podrán hacer más cosas de las que hacían los humanos, porque el tipo de fuerzas gravitatorias que puede soportar nuestro cuerpo es limitante. Acabarán descubriendo formas más creativas de matar a gente. Por desgracia, los humanos ya lo hemos hecho: en Mathausen se hizo un concurso entre empresas para saber cómo debían ser las duchas, los hornos ... Vas allí y ves el horno crematorio, con el logo de la empresa, y dices: "Esto son máquinas industrializadas para matar a gente, y lo hemos hecho las personas". Transferiremos a los robots Abu Ghraib y Beethoven, y si los robots aprenden de nosotros y no los autocontrolamos, podrán hacer grandes maravillas y grandes barbaridades.

Entonces, ¿mejor tener robots que fueran imperfectos, como nosotros?

— Aquí lo has acertado: ¿por qué los humanos somos especiales? Porque somos imperfectos. Al igual que un niño y el momento de empezar a caminar, que se basa en que se vaya equivocando, ahora esto se está haciendo con los sistemas de inteligencia artificial que se aplican después a los robots. Que aprendan a base de equivocarse.

¿Los robots sabrán que forman parte de un colectivo? ¿Serán conscientes de que nosotros los hemos programado?

— El problema de la conciencia es muy complicado porque no sabemos qué es, sabemos que es un elemento funcional para tomar decisiones, pero la mayor parte de cosas que hacemos cada día no las hacemos conscientemente. Nosotros tenemos conciencia en función del cuerpo que tenemos y de cómo lo proyectamos a nivel social, de las herramientas simbólicas que tenemos. Cuando los españoles llegaron a América, hicieron un concilio religioso al cabo de un tiempo para decidir si aquellos individuos eran personas o no, y es cuando Bartolomé de las Casas dijo "hombre, yo creo que sí".

¿Los robots tendrán sentimientos?

— Hoy en día, las máquinas no sienten nada. Pueden fingir que las tocas y hacen "¡ay!", Pero es teatro. Ahora, ¿llegarán a sentir? Si aumentamos la complejidad de sistemas en números de sensores, sí. ¿Serán emociones como las nuestras? No, si no tienen un cuerpo exactamente como el nuestro.

¿Hay alguien que esté haciendo la reflexión del valor de una educación humanista a los ingenieros?

— Estrictamente no, porque todos trabajamos segmentados por empresas, proyectos ... Ahora, a medida que los ingenieros intentan hacer cosas más complejas, se dan cuenta que necesitan la filosofía, porque si dicen "esta máquina de percibir", deben preguntarse, "¿qué es percibir?". También te digo que las personas que se han interesado más por la robótica social son mujeres. No digo que las mujeres estén mejor diseñadas, esto es otra canción del heteropatriarcado. Es mentira que las mujeres sean más sociables, lo que pasa es que las han obligado a hacer ciertas cosas.

Entonces, ¿qué diferencia a una persona de otra?

— Aparte de la biología básica, es la estructura neuronal que hace que tú te intereses por una cosa y la otra por otra. Esto es lo que hace que haya gente para todo. Yo no aspiro a robots que sean grandes matemáticos, ya tenemos. ¿Por qué no robots que escriban las poesías que nunca ningún ser humano ha podido escribir, o las obras musicales que nadie ha podido pensar que no se le ha pasado por la cabeza combinar esto con aquello?

[Pregunta al público] Tras las explicaciones del profesor Vallverdú, ¿quien se va más contento y quién se va más preocupado de cara al futuro? [Ganan los preocupados]

— Hay muchas incertidumbres, y falta de confianza en la especie humana. El problema de los robots somos nosotros, los humanos. Si van a Japón y a Corea del Sur es lo contrario: tienen una visión optimista, hay ingenieros que han escrito sobre la naturaleza divina de los robots para que el budismo y el sintoísmo permitan esta combinación, hay robots que son considerados monjes. Yo me he dedicado a los robots porque quería entender a las personas, y haciendo máquinas te das cuenta de lo que no sabemos de las personas, que es todo.

stats