Inteligencia artificial

Inteligencia artificial: ni tan inteligente, ni tan artificial

El experto en IA Ramon López de Mántaras duda de que una máquina supere nunca la inteligencia humana

4 min

En un coloquio celebrado recientemente en el Centro de Cultura Contemporánea de Barcelona, ​​el pionero en investigación sobre inteligencia artificial Ramon López de Mántaras explicaba el caso de los robotaxis que empezaron a circular por San Francisco en agosto. Desde el principio, estos taxis autónomos, es decir, sin conductor, generaron problemas. Algunos se quedaron parados por problemas de conexión y provocaron atascos, hubo dos que chocaron en una misma noche, uno de ellos quedó atascado en una calle recién asfaltada y otro se detuvo sobre una persona.

En este último caso, un coche tradicional, conducido por una persona que se fugó, atropelló a una mujer y el impacto la colocó en la trayectoria del robotaxis que circulaba por el carril de al lado. Tras atropellarla, el vehículo autónomo percibió que algo no iba bien y se detuvo, con la mala suerte de quedarse con una rueda sobre la pierna de la víctima. Los servicios de emergencia tuvieron que levantarlo para liberar a la mujer y llevarla en estado grave al hospital.

A raíz de estos incidentes, empezó a salir información sobre las empresas que gestionan estos taxis autónomos. López de Mántaras explicaba que los coches de una de ellas requerían intervención humana cada tres millas porque se encontraban en una situación desconocida en la que, por prudencia, su programación les detenía y pedía instrucciones a un supervisor humano.

Además, también se supo que para gestionar la flota de 300 robotaxis hacían falta 450 personas. Esto significa una persona y media por vehículo, que, naturalmente, es más que la única persona que se necesita para hacer funcionar un taxi tradicional. Es cierto que para operar un taxi más de ocho horas seguidas tiene que haber personas que se hagan turnos y la diferencia de personas necesarias por vehículo se acorta, pero, en definitiva, todos estos datos le servían a López de Mántaras para argumentar que los taxis autónomos de momento no son tan autónomos como dicen.

Inteligencia general

Si a este ejemplo se añaden los errores lógicos que perpetran a menudo los sistemas como el famoso ChatGPT y el trabajo humano necesario para entrenarlos, se llega a una conclusión que tiene un punto de paradójico.

A la pregunta "Si adelanto el séptimo clasificado en una carrera, ¿en qué posición me encuentro?", ChatGPT responde: "Si adelanto el séptimo clasificado en una carrera, pasaría a ocupar la sexta posición. Cuando avanzas o sobrepasas a alguien en una clasificación, coges su posición y ocupas la siguiente. Por tanto, si eras séptimo y avanzas una posición, llegarías a la sexta posición."

Además, para entrenar estos sistemas son necesarias muchísimas personas que etiqueten contenido y valoren el proceso de aprendizaje, y que normalmente trabajan para las grandes empresas tecnológicas en países en vías de desarrollo, en malas condiciones y con sueldos bajísimos. La conclusión de todo ello, y que López de Mántaras argumentaba con otros ejemplos, es que, tal vez, la inteligencia artificial no sea ni tan inteligente, ni tan artificial.

Esto no quiere decir que no tenga aplicaciones interesantísimas. El sistema AlphaFold predice con mucho más acierto que los sistemas anteriores la forma tridimensional de las proteínas, lo que puede tener un gran impacto en la biomedicina y el desarrollo de fármacos. Existen sistemas que calculan el riesgo de infarto de los pacientes ingresados ​​en la UCI, otros que detectan terremotos a partir de las variaciones del campo gravitatorio u otros que optimizan el cultivo de vegetales.

Ahora bien, todo esto son sistemas altamente específicos, diseñados y entrenados para realizar una tarea concreta. La gran pregunta que mucha gente se hace es si podrá existir algún día lo que se llama una inteligencia artificial general que sobrepase la capacidad del cerebro humano y lleguemos a la llamada singularidad.

El problema de la exponencialidad

Sam Altman, consejero delegado de OpenAI, la empresa propietaria del ChatGPT, ha explicado hace pocos días en la revista Time que esto podría llegar dentro de cuatro o cinco años. López de Mántaras es más escéptico.

En su nuevo libro 100 cosas a saber sobre inteligencia artificial (Cosetania, 2023), argumenta que la hipótesis de la singularidad se basa en el progreso exponencial de ciertos ámbitos de la ciencia y la tecnología, como la velocidad de computación y la neurociencia. Pero, según el autor, este crecimiento exponencial es probable que no se mantenga a menos que haya un cambio radical en la tecnología más allá del silicio, la base de todos los chips y circuitos actuales. Por otra parte, los programas que corren sobre este hardware de silicio no están mostrando ningún progreso exponencial. El aprendizaje profundo, por ejemplo, se basa en algoritmos de hace treinta años.

En este sentido, y en muchos otros, el libro de López de Mántaras es adecuado y oportuno. Oportuno porque el debate sobre las posibilidades y los impactos de la inteligencia artificial está ahora más vivo que nunca. Adecuado porque opera desde un conocimiento profundo combinado con un humanismo y un sentido de la prudencia, tanto ética como intelectual, que, a menudo, se convierten en sabiduría, y que hacen comprensible la envitricollada naturaleza y los límites de estos sistemas que parecen destinados a cambiar el mundo.

stats