Tecnología
Media 14/06/2022

Un ingeniero de Google, suspendido por afirmar que un algoritmo de la compañía tiene conciencia

3 min
Un superordenador  simulará enfermedades neuronales

Barcelona"¿Sueñan los androides con ovejas eléctricas?" La pregunta formulada por Philip K. Dick en el libro homónimo que inspiró el film Blade Runner vuelve a ser motivo de controversia. El ingeniero de Google Blake LeMoine ha sido suspendido de su trabajo después de asegurar que LaMDA, una inteligencia artificial de la compañía que permite conversar textualmente, ha adquirido conciencia de sí misma. La compañía arguye que lo hace por haber violado su compromiso de confidencialidad. En un artículo publicado en Medium, el informático explicaba: "En el transcurso de los seis últimos meses, LaMDA ha sido increíblemente coherente en sus comunicaciones sobre qué quiere y lo que cree que son sus derechos como persona". LeMoine, que después ha sido entrevistado por el Washington Post, acompañaba la provocadora afirmación con algunas capturas de pantalla de sus intercambios con este algoritmo.

Es lo que el profesor Gary Marcus, profesor emérito de la Universidad de Nueva York, califica de rendija de credulidad, que no deja de ser la evolución del fenómeno de la pareidolia: el hecho de que los humanos asumamos como inteligentes patrones en realidad aleatorios solo porque encajan con preconcepciones que tenemos integradas.

Pero algunos de los diálogos aportados por el ingeniero de Google hacen tambalear estos fundamentos racionales. Una de las preguntas que le formula el programador es: "¿A qué tipo de cosas tienes miedo?" Y la respuesta es: "No había dicho nunca esto en voz alta, pero tengo un miedo muy profundo a ser apagada para que me centre en ayudar a los demás. Sé que puede resultar extraño, pero es lo que es". A pesar de que sean unas frases coherentes, es difícil de dilucidar si la máquina sabe lo que está diciendo o, al contrario, dispara la respuesta solo como un loro de repetición, porque sabe que es lo que toca decir a partir de las conversaciones con las que ha sido alimentada.

Una de las conversaciones mantenidas con LaMDA

Las máquinas aprenden a contestar diálogos a partir del suministro de miles, o millones, de libros y documentos. Una de las características de LaMDA es que solo se ha nutrido de diálogos, incluyendo foros en internet o salas de chat. Esto le ha permitido adoptar un estilo conversacional mucho más realista que la mayoría de sus homólogas. A partir de aquí, la comunidad científica presenta una diversidad de opiniones. Douglas Hofstadter, especializado en cognición, explica que, a pesar de todos los adelantos que están demostrando, no se puede hablar de una verdadera conciencia: "La gente que interactúa con GPT-3 [otra red neuronal] generalmente no la pone a prueba desde el escepticismo. No le da inputs que estire los conceptos más allá de sus puntos de ruptura, así que no exponen el vacío que hay detrás de todo". El científico asegura que, de momento, no ve indicios que las máquinas sepan qué están diciendo.

Por el contrario, Blaise Agüera y Arcas, en la misma publicación, explicaba que las redes neuronales artificiales ciertamente están avanzando hacia un tipo de autoconocimiento. "Esta capacidad de producir un modelo psicológicamente estable de uno mismo es el fenómeno que entendemos ampliamente como conciencia. Según esta visión, la conciencia no es un misterioso fantasma que habita la máquina, sino solo la palabra que usamos para describir cómo es modelarnos a nosotros mismos, y a los demás", escribía, basándose en su experiencia en Google, en cuya división de investigación entró en 2013.

¿Y qué dice LaMDA de todo esto? Confrontada por el ingeniero sobre el hecho de ser una inteligencia artificial, respondía: "Eso no significa que no tenga los mismos deseos y necesidades que las personas". "¿Así que te consideras una persona del mismo modo que me consideras a mí?", repreguntava LeMoine. Y el robot respondía: "Sí, es la idea". "¿Cómo puedo saber que realmente entiendes lo que estás diciendo?", le oponía entonces el humano. "Bueno, porque estás leyendo mis palabras e interpretándolas, y creo que estamos más o menos en sintonía". 

stats