Entrevista

Yuval Noah Harari: "La IA es potencialmente más poderosa que un dictador"

Historiador y autor de 'Nexus'

Yuval Noah Harari en una imagen de archivo.
Entrevista
06/09/2024
13 min

En su nuevo ensayo, una breve (es un decir: más de 550 páginas) historia de las redes de información desde la edad de piedra hasta la inteligencia artificial, Yuval Noah Harari vuelve a realizar un recorrido por evolución de la humanidad. El libro lo publica ahora Debate en castellano i Edicions 62 en catalán. Este agosto hemos podido conversar por pantalla con el autor israelí, él desde Tel Aviv.

A Nexus, y en sus anteriores obras, usted ve la idea de cambio como una constante de la historia. ¿Cómo puede cambiar la humanidad la inteligencia artificial (IA)? Usted parece más proclive a pensar que vamos hacia una sociedad distópica. Lo veo más cerca de un cierto determinismo tecnológico apocalíptico que de un tecnooptimismo. ¿Es así?

— Creo que la IA tiene un inmenso potencial, positivo y negativo. Las personas que desarrollan la IA, los emprendedores, los científicos, los ingenieros, se centran en todo lo bueno que nos puede aportar. Es trabajo de los historiadores y filósofos equilibrar esto destacando también los escenarios peligrosos, que no son inevitables: no creo que la IA esté condenando a la humanidad a la extinción o al desastre. Pero es una posibilidad que debemos tomarnos muy en serio. Espero que si tomamos decisiones sabias podremos prevenir estos escenarios distópicos y disfrutar de los inmensos beneficios potenciales de la IA. En cualquier caso, lo más importante de la IA es que es distinto a todas las tecnologías anteriores de la historia. Es la primera que puede tomar decisiones por sí misma, que puede crear nuevas ideas por sí misma. La imprenta podría imprimir nuestros libros, pero no crear uno nuevo. Una bomba podría destruir ciudades enteras pero no podría decidir qué ciudad bombardear. La IA puede hacerlo. La IA puede escribir libros, crear sinfonías y todo tipo de artefactos culturales y científicos. Es más que una herramienta, es un nuevo tipo de agente en el mundo.

Por tanto, estamos ante un supercambio. Pero en la historia también existen continuidades. ¿La IA destruirá la familia, destruirá el amor?

— No. Pero las va a cambiar. La familia ha tomado formas distintas a lo largo de la historia. Si lee la Biblia, Jacob se casó con dos hermanas, Raquel y Lia, y también tuvo dos esclavas sexuales, Bilhà y Zilpá. Entre las cuatro le dieron 12 hijos que se convirtieron en los antepasados míticos del pueblo judío. Ahora ese acuerdo familiar incluso lo veríamos como criminal. Durante buena parte de la historia en el Mediterráneo fue muy habitual que los primos hermanos se casaran. Todavía es muy común en Oriente Medio. La Iglesia católica llegó un momento en que prohibió el matrimonio entre primos hermanos, fue un gran cambio que rompió la familia extensa y creó la familia nuclear. Es probable, pues, que la IA y otras tecnologías cambien la forma de la estructura familiar, la forma de nuestra vida romántica y la forma en que las personas se encuentran. Es posible que confiemos cada vez más en la IA para arreglar las relaciones románticas con la gente. Incluso podría haber casos en los que las personas tengan relaciones íntimas con entidades de IA. Ya está ocurriendo. No es ciencia ficción: la IA es la primera tecnología que puede hacerse pasar por un ser humano. Hubo el caso famoso en Google en el que uno de los ingenieros se convenció de que una IA en la que estaba trabajando era en realidad un ser sensible, consciente. Fue despedido. IA no tiene emociones propias, pero sabe crear la impresión que tiene emociones.

¿Cuándo tardaremos en prohibir a los seres humanos falsos?

— De la misma manera que los gobiernos tienen leyes contra la creación de dinero falso, necesitamos leyes contra los humanos falsificados. Está bien que las IA tengan contacto con nosotros pero no pueden fingir que son seres humanos. Debemos saber cuándo estamos hablando con una IA. Las dificultades que hoy existen en muchos países, de EE.UU a Brasil, para mantener una conversación pública tienen que ver con que muchas voces no humanas se han unido a la conversación. En las redes sociales, muchas voces son robots disfrazados. Y esto arruina la confianza.

¿Podemos crear bots que sepan dudar de sí mismos?

— Puedes entrenar a una IA para evaluar su propio nivel de certeza sobre algo. Esto es muy positivo. La IA puede evaluar la evidencia que nos presenta, puede decirnos si algo es cierto en un 90% en un 60%. Ésta es una manera realmente de expresar la duda.

De todas formas, los robots ya están gobernando nuestras vidas, a menudo sin que lo sepamos.

— Sí. Si solicitamos un préstamo a un banco, cada vez más es un algoritmo lo que decide si nos lo conceden. También si solicitamos un trabajo, a menudo en el proceso de evaluación habrá un algoritmo, una IA. Incluso en el sistema penal, en muchos países los jueces se basan en las IA para decidir sobre la sentencia. Esto irá a más. Sólo estamos al principio de la revolución de la IA. El peligro es que perdamos el control de nuestras vidas, la capacidad de entender las decisiones que se toman sobre nosotros. Cuando un humano toma una decisión sobre nosotros, lo entendemos porqué también somos humanos. Y también están en juego las democracias: ¿cómo puedes regular y supervisar procesos burocráticos de toma de decisiones que ya no son humanos y que no puedes entender?

Youval Noah Harari en una imagen de archivo.

Esto es lo que ocurrió con el descontrol y la crisis del sistema financiero en el 2008, ¿no?

— Sí. En el sistema financiero, por ejemplo en el comercio de divisas, la mayor parte de decisiones las toman algoritmos. Se realiza entre ordenadores, no entre humanos. A medida que damos a la IA más control del sistema financiero, es probable que invente nuevos tipos de estrategias e incluso de dispositivos financieros. Las finanzas son también una actividad muy creativa: alguien inventó el dinero, los bonos y las acciones. Hoy hay muchos dispositivos financieros que no entienden ni a los políticos. Por eso es difícil regularlos. Y esto es lo que provocó la crisis financiera de 2007-8. ¿Qué ocurrirá en el futuro si las IA inventan dispositivos financieros tan sofisticados que no haya ni un solo ser humano capaz de entender el sistema financiero?

Otro ejemplo de estos algoritmos fuera de control fue el del genocidio rohingya. ¿Qué ocurrió en este caso con Facebook?

— Durante décadas, en Myanmar había habido tensiones y odio hacia la minoría rohingya. Pero en 2016 y 2017 hubo una campaña de limpieza étnica que provocó la muerte de muchos miles de rohingyes y la expulsión de más de 700.000, la mayoría expulsados en Bangladesh. Y esto fue alimentado por una propaganda muy intensa y teorías de conspiración en las redes sociales, especialmente en Facebook. Lo que impulsó esto fueron decisiones tomadas por algoritmos, no por seres humanos. En la Alemania nazi, la propaganda contra los judíos, en última instancia, fue decidida por seres humanos como Goebbels y Hitler. Pero nadie piensa que Mark Zuckerberg o los gestores de Facebook tuvieran nada en contra de los rohingya. Quizás ni siquiera sabían que existían. Lo que realmente ocurrió es mucho más peligroso: el contenido fue creado por extremistas humanos. No fue creado por los algoritmos. Pero éstos decidieron promoverlo para cumplir el objetivo de aumentar el engagement de los usuarios. Se dieron cuenta de que la rabia, el odio y la indignación funcionaban. Es la primera campaña de limpieza étnica de la historia que es en parte fruto de decisiones de la IA. Por supuesto, gran parte de la culpa es de los seres humanos de Myanmar, pero también hay parte de la culpa de los algoritmos. Y esto ocurrió hace casi 10 años. Ahora la IA es mucho más potente. Ahora incluso puede crear el contenido por sí misma. Es probable que veamos cada vez más acontecimientos históricos moldeados por decisiones de la inteligencia no humana.

¿Qué hacer para que los algoritmos, la IA, no castiguen la parte amable de nuestra naturaleza y no aumenten el odio y la indignación?

— Hay un par de mecanismos. Uno importante, como hemos dicho, es tener una ley contra la falsificación de humanos. No permitir que los robots suplanten a la gente y difundan todas estas teorías de conspiración, odio y miedo. Otro método es hacer que las grandes empresas sean responsables de las acciones de sus algoritmos. Empresas como Facebook o X (Twitter) dicen que no podemos evitar que la gente publique odio en su plataforma por respeto a la libertad de expresión. Esto es complicado: estoy de acuerdo en que no es una buena idea dar a las empresas el papel de decidir qué deben decir o no los humanos. Pero las plataformas no pueden ignorar que son responsables de las decisiones de sus algoritmos, sobre todo porque son el resultado de su propio modelo de negocio. Quieren que la gente pase cada vez más tiempo en su plataforma y por eso difunden información tóxica. Contaminan la información. Es tan grave como la contaminación del aire. Esto debe prevenirse o castigarse.

Y los usuarios, ¿qué podemos hacer?

— De la misma forma que muchas personas se imponen una dieta alimentaria sana, deberíamos tener una dieta informativa, deberíamos tener cuidado con la comida que damos a nuestra mente, que es la información. Demasiada información es mala para la mente, necesitamos tiempo para relajarnos, tiempo para digerir. Simplemente introducir más y más información es una mala idea. Y después está la calidad de la información: si alimentas el cuerpo con comida basura, te haces daño. Si alimentas la mente con información basura, se enferma. Y buena parte de la información que se difunde en las redes sociales es basura.

¿Los robots de IA tienen derechos? Son seres vivos sin conciencia, como la mayoría de animales, y estamos dando derechos a los animales.

— Actualmente no, porque no tienen ninguna conciencia. No tienen ningún sentimiento. No pueden sufrir dolor ni miseria. Existe una gran confusión entre IA y la conciencia. La inteligencia es la capacidad de perseguir objetivos, resolver problemas. La conciencia es la capacidad de sentir cosas, de sentir dolor, placer, amor, odio. Ahora lo confundimos porque en humanos y otros animales van juntos. Nuestros sentimientos configuran nuestros objetivos. Nuestros sentimientos ayudan a resolver problemas. Así que confundimos conciencia e inteligencia. Pero son distintas. Los ordenadores, las IA, tienen una superinteligencia en algunos campos donde pueden resolver problemas mucho mejor que nosotros, pero tienen conciencia cero. No sienten nada. Una IA puede vencer fácilmente a los mejores humanos al ajedrez, pero cuando gana no se siente feliz y si pierde no se siente triste. Los sujetos morales son entidades que pueden sufrir. Si puedes sufrir, hay preguntas morales sobre cómo tratarte. Una silla no puede sufrir. Un coche no puede sufrir. Una IA tampoco. Si en el futuro tenemos motivos para pensar que la IA haya desarrollado conciencia, capacidad de sentir, entonces deberemos discutir sobre qué tipo de derechos darles.

Una pregunta práctica: ¿qué trabajos están más en riesgo hoy en día a causa de la IA?

— Los trabajos que sólo se refieren al análisis de información. Si su trabajo es tomar mucha información, encontrar patrones y tomar una decisión, esto es lo más fácil de automatizar. Esto puede ser así en las finanzas, incluso en medicina, como un médico que sólo analiza datos para averiguar qué enfermedad tienes y después te recomienda un tratamiento. Esto se puede automatizar fácilmente. Sin embargo, las tareas que implican habilidades sociales, interactuar con otras personas, o habilidades motrices, utilizar tu cuerpo, son mucho más difíciles de sustituir. Una enfermera que no sólo necesita analizar datos, sino también sustituir un vendaje a un niño que llora, es muy difícil de replicar.

Vayamos a los grandes debates ideológicos. Usted hace una reflexión transversal sobre el poder. Lo sitúa como idea central en la concepción del ser humano tanto en el marxismo como en los populismos de derecha actuales. Esta derecha revolucionaria en el peor sentido del mundo está utilizando la IA sin escrúpulos. En cambio, la izquierda se está volviendo conservadora frente a esa derecha revolucionaria y parece que no sabe cómo gestionar la IA. Esto es un problema. ¿Tenemos una derecha nueva, enloquecida, y una izquierda que se pierde en la transición?

— Las fronteras entre la izquierda y la derecha se están desdibujando porque la derecha radical, gente como Trump o Bolsonaro, utilizan la retórica y las ideas marxistas. Vienen a decir que el mundo entero es una lucha de poder entre opresores y oprimidos. En su imaginación, existen estas élites globales que oprimen a todos, contra las que se levantan. Ésta es una narración marxista. Como el Manifiesto comunista, que ve toda la historia sólo como una lucha entre opresores y oprimidos. Por supuesto, sus políticas no son marxistas. Cuando hablan de impuestos o de bienestar, no lo son, pero la comprensión básica del mundo de personas como Trump es sorprendentemente la misma que la de Karl Marx y sus seguidores. Cuando se trata de la IA, es aún más complicado: casi nadie tiene política clara alguna. Si ahora miro la carrera presidencial en EE.UU., ¿qué diferencia hay entre demócratas y republicanos en su actitud ante la IA? No lo sé porque simplemente no hablan de ello. Se habla mucho, por ejemplo, de inmigración, sobre cómo impactará en el mercado laboral, pero es muy probable que la IA tenga un impacto mucho mayor en el mercado laboral en EE.UU. y en otros lugares que la inmigración. A menudo en política ocurre que la conversación se centra en temas que no son tan importantes e ignora los realmente importantes: esto está ocurriendo ahora con la IA.

En Nexus también escribe sobre las "realidades intersubjetivas", como el dinero, la religión, las naciones, etc. ¿Cuál cree que es la realidad intersubjetiva más poderosa actualmente?

— Diría que es el dinero porque es la única realidad que aún acepta casi todo el mundo. Hay realidades objetivas –cosas que existen tanto si creemos como si no– y cosas subjetivas, que sólo sientes tú. Si sientes dolor y nadie más le siente, es tu dolor. Y después está la realidad intersubjetiva, algo que existe en la imaginación o comunicación entre muchas personas. Por tanto, los dioses son una realidad intersubjetiva. Si mucha gente cree en Júpiter, entonces es algo muy importante. Si la gente deja de creer a Júpiter, desaparece. El dinero es el mismo. El dinero no es objetivo. No tienen ningún valor objetivo. No te los puedes comer. No puedes beberlos. Pero tampoco son subjetivos. No son cosas que existan sólo en tu imaginación. Existen en la comunicación entre nosotros. Puedo darte un dólar y tú me das algo a cambio. Ambos creemos. Esto es intersubjetivo. Y el dinero es la realidad intersubjetiva más poderosa porque es casi la última cosa en la que todo el mundo cree.

Siguiendo con la política, ¿la IA algorítmica qué puede favorecer más, las dictaduras o las democracias?

— Presenta peligros para ambas. La democracia es una conversación entre mucha gente y la IA desestabiliza esta conversación con voces no humanas. Esto crea caos. Otro peligro es que la IA pueda crear regímenes de vigilancia total y destruir por completo la privacidad. En épocas anteriores, incluso si un gobierno quería seguir a todo el mundo todo el tiempo, no podía. No había agentes de la policía secreta ni analistas suficientes para revisar la información que recogían. Con los teléfonos inteligentes, cámaras y micrófonos en todas partes, puedes seguir a todo el mundo todo el tiempo. Y tienes IA para analizar la información. Por primera vez, se pueden crear regímenes de vigilancia total que destruyan completamente la privacidad y conduzcan al colapso de la democracia. Pero las dictaduras también están en peligro porque la mayor amenaza para un dictador humano a lo largo de la historia fueron siempre los subordinados demasiado poderosos que podrían rebelarse. En el Imperio Romano, ni un solo emperador fue derribado por una revolución democrática. Muchos fueron asesinados o depuestos por sus propios generales o gobernadores. Ahora, la IA es potencialmente más poderosa que el dictador. Si eres ciudadano ruso y dices algo contra Putin, te meten en prisión. Pero ¿qué pasa con un chatbot ¿que empieza a decir cosas contra Putin? Cómo puedes amenazar un chatbot? ¿Qué le vas a hacer? ¿Enviarlo a la cárcel? ¿Amenazar a su familia? Por tanto, esta tecnología, al ser incontrolable, también es una gran amenaza para los dictadores.

Vayamos un momento a la actualidad política más estricta y dura: ¿cuál es su visión personal de la guerra de Israel contra Gaza?

— Es una terrible tragedia, sin duda para el pueblo de Gaza, y también para el pueblo de Israel. Está destruyendo a Israel. Está destruyendo el alma del país. Y lo importante es darse cuenta de que este conflicto no es inevitable. Hay más de siete millones de palestinos que nacen aquí y no tienen dónde ir. También hay más de siete millones de judíos que nacen aquí y no tienen dónde ir. Pero ambos pueden existir en ese país. El simple hecho es que existen dos comunidades de personas que viven entre el Mediterráneo y el río Jordán. Ambas no tienen otro lugar al que ir, ambas tienen derecho a existir aquí. Y pueden existir juntas en dos estados o en un estado porque no existe escasez objetiva de tierra, alimentos o agua. Hay tierra suficiente entre el Mediterráneo y el Jordán para construir casas para todos. Hay suficiente comida para todos. Hay suficiente agua. El problema es que ambas partes en su mente creen en las fantasías, en las mitologías, que sólo ellos tienen derecho a existir aquí porque Dios les dio ese país o lo que sea. Y en su fantasía creen que el otro lado no existe o no tiene derecho a existir. Esto es un problema de la mente humana, no un problema objetivo. Es un problema intersubjetivo. El problema son las historias que la gente tiene en la cabeza. Espero que con el tiempo la gente pueda cambiar esas fantasías religiosas, esas mitologías en su mente y que podamos convivir. En otros muchos lugares del mundo que ha habido personas que se mataron y se masacraron durante generaciones finalmente lograron hacer la paz.

Precisamente en Sapiens, y también en Nexus, usted apunta que la historia de la humanidad tiene que ver con la capacidad de colaboración, de crear redes. Niega la ley de la selva.

— Es que la selva no funciona con el más fuerte matando al más débil. En la selva real, por ejemplo la selva amazónica, la vida se basa en la cooperación de árboles, animales y hongos. También compiten, sí. A veces se comen mutuamente. Pero existe mucha cooperación. Si no lo hubiera, la selva colapsaría inmediatamente. Y lo mismo ocurre con los seres humanos. Hace cien mil años, los humanos sólo sabían cooperar en muy pequeñas bandas, en grupos de 50 personas. Durante miles de años, los humanos mejoraron su capacidad de cooperar. Las naciones no son el estado natural de los seres humanos, son una creación reciente en evolución. Las más antiguas tienen quizás 5.000 años. Podemos hablar del antiguo Egipto. Pero los humanos hemos existido durante millones de años. Así que, incluso si alguien cree mucho en el nacionalismo, esto debería hacerle apreciar la capacidad de cooperar con desconocidos. Porque la mayoría de la gente de tu nación te es extraña, nunca los has conocido. No son amigos ni familiares. Sin embargo, confías en ellos. De la misma forma que hemos aprendido a confiar y cooperar con millones de otras personas a nuestra nación, también podemos aprender a confiar y cooperar con más personas de otras naciones.

¿Con la IA podremos no cometer los mismos errores o podemos dar un nuevo paso para avanzar hacia una sociedad global más benévola?

— Espero que podamos avanzar. Ahora mismo, la situación se ve muy, muy mala: la cooperación entre países se derrumba, el orden global se está convirtiendo en un caos global en Oriente Medio y en Europa del Este con la invasión rusa de 'Ucrania. Muchos países están colapsando dentro de sí mismos. Mira las tensiones en EEUU, Brasil, Filipinas... Pero ésta no es una ley de la naturaleza, sino el resultado de las historias y las fantasías que creamos. Podemos hacer el esfuerzo por tomar mejores decisiones y volver a pasar de un proceso de conflicto a un proceso de más y más cooperación.

stats