Laboral

Jeremias Adams-Prassl: "La revolución de la productividad de la IA no se nota"

Profesor y vicedecano de derecho en la Universidad de Oxford

Jeremias Adams Prassl, vicedecano de Derecho en la Universidad de Oxford, en el Palau Macaya.
8 min

Barcelona¿Quiénes serán los ganadores y los perdedores en una economía basada en la automatización? ¿Cómo debemos asumir la irrupción de la inteligencia artificial (IA) en el mundo del trabajo? Buena parte de la búsqueda de Jeremias Adams-Prassl versa sobre algunas de estas preguntas, y otras muchas que aparecen con el estallido de esta tecnología y su impacto ya visible en nuestra vida cotidiana. El profesor y vicedecano de derecho en la Universidad de Oxford expuso algunas de estas ideas en una conferencia en el Palacio Macaya de la Fundación La Caixa hace unas semanas.

Esta entrevista antes la habría transcrito reescuchándola, pero ahora utilizamos una herramienta de IA para agilizar el proceso.

— Es un buen ejemplo de cómo pensar en el impacto de la IA en el trabajo, ¿verdad? A menudo la gente tiene un enfoque demasiado general y dice cosas como "todo el mundo perderá el trabajo", cuando en realidad el impacto es mucho más granular. Puede haber tareas dentro de un trabajo que se automaticen, como la transcripción. Los abogados siempre debían realizar mucha revisión de documentos, lo que implica pasar por una gran cantidad de textos. Nadie se quejaría de no tener que hacerlo más. Así que la versión positiva de la historia es que ciertas tareas tradicionales, repetitivas o aburridas, pueden automatizarse.

¿Cómo cree que la tecnología está cambiando la naturaleza del trabajo?

— Está teniendo un impacto fundamental en la calidad del trabajo, y ésta es la historia importante. A menudo pensamos en la cantidad de puestos de trabajo y en si la gente perderá su trabajo, en si las máquinas los sustituirán. Cuando en realidad lo que olvidamos es que la tecnología también crea trabajos nuevos. Desde una perspectiva reguladora, es mucho más interesante su impacto en la calidad del trabajo. Porque la tecnología puede mejorarla muy significativamente, pero también puede empeorarla mucho.

¿Dónde está la línea? ¿Cómo hacemos que tenga un impacto positivo y no negativo?

— Depende mucho de las decisiones que tomamos a la hora de desplegar la tecnología. Por ejemplo, imagina que puedes monitorear a los trabajadores de forma muy detallada. Podrías utilizarlo para la salud y la seguridad: para asegurar que la gente no trabaje demasiadas horas, para detectar lesiones a causa de movimientos repetitivos, etc. Pero también puedes utilizarla para presionar a los trabajadores para que hagan más tareas, lo que es mucho más problemático y tiene consecuencias negativas. Lo que la ley debe hacer es condicionar estas decisiones. Mediante incentivos previos, cómo exigir que se hable con los trabajadores sobre cómo se desplegará la tecnología. Y posteriormente, dando a los trabajadores el acceso a datos sobre el impacto global de la tecnología.

¿A qué se refiere cuando habla de "la gerencia a través de algoritmos"?

— Históricamente, la gerencia ha controlado todo el ciclo de la relación laboral: contratar, gestionar el día a día y despedir. Lo primero que vimos en la economía de plataformas fue el uso de sistemas algorítmicos, incluida la IA, para automatizar o ayudar en estas tareas. Por ejemplo: filtrado automático de CVs, entrevistas online automatizadas, control a través de la aplicación o la desactivación automática de los trabajadores si su puntuación baja demasiado. Pero a partir de 2017, estas tecnologías empezaron a infiltrarse lentamente en otros puestos de trabajo, más allá del sector de las plataformas.

Y esto no ha sido tan visible, ¿no? No como los repartidores con la mochila en la espalda.

— No, no es tan visible. Mucha tecnología de vigilancia está integrada en el software que utilizamos todos los días. Ya no es necesario instalar cámaras: los datos provienen de las aplicaciones de oficina o del software de videoconferencia. Además, tuvimos la pandemia. Imagina que en 2020 las cabezas hubieran dicho que teníamos que poner cámaras en la cocina o en el dormitorio. Habría habido una revolución. Pero tres meses después todo el mundo utilizaba las videollamadas, y el nivel de vigilancia se convirtió en algo normal. Ahora esto lo damos por supuesto, cuando en realidad la cantidad de datos que se están recogiendo y esos niveles de vigilancia no son algo natural ni necesario.

¿Esto ya está provocando litigios?

— Hay resistencia incluso antes de los tribunales. Como ocurre con cualquier fenómeno de vigilancia, la gente reacciona. Por ejemplo, existen almohadillas de ratón que lo mueven automáticamente para engañar al software que detecta si estás trabajando. También vemos litigios contra las prácticas más invasivas de recogida de datos, a menudo no en derecho laboral, sino en protección de datos.

¿Hasta qué punto la IA ya interviene en decisiones empresariales, como por ejemplo cerrar una fábrica porque considera que no es rentable?

— Creo que ya está ocurriendo cosas así. No necesariamente se están automatizando del todo estas decisiones, pero sí vemos más. La contratación es el área más afectada: la mayoría de las firmas de servicios profesionales utilizan hoy en día herramientas algorítmicas en los procesos de selección. Es el campo en el que la tecnología está más desarrollada.

Sabemos que la IA puede tener sesgos de género o raciales. ¿Es seguro que las empresas la utilicen para contratar?

— No es seguro en absoluto. Las empresas deben ser muy cuidadosas. Que se utilice tecnología no significa que la ley deje de aplicarse. En contratación siempre han existido normas contra la discriminación. Las personas tienen sesgos, conscientes e inconscientes, y éstos están sujetos a un control legal. Con sistemas automatizados, aunque prometen ser más objetivos y neutrales, debes ser doblemente cuidadoso. Está muy demostrado que, dado su entrenamiento, estos sistemas pueden tener incluso más sesgos que los humanos.

¿Este aumento de productividad que se asocia al uso de la IA, cómo se traduce en mejores condiciones laborales para los humanos?

— Bien, podemos empezar con la pregunta de la productividad, porque aquí la respuesta es muy clara. No estamos viendo ningún impacto de productividad en las estadísticas. Cuando miras los datos del mercado laboral, la revolución de productividad de la IA no se ve, a pesar de las enormes cantidades de inversión y dinero gastado tanto en el lado de las plataformas de IA como en el de las empresas.

¿Cómo se explica esto?

— Existen distintas teorías. La que encuentro interesante es la noción deAI slop [contenido basura generado por IA, en catalán]. Uno de los grandes peligros es que ahora sobre todo hablamos de tecnologías como ChatGPT y modelos de lenguaje que intentan generar estos resultados. Pero lo que producen es algo vagamente plausible, nada más que eso. Puedo producir mucho más, pero no necesariamente de mejor calidad. Si encargo a la IA un informe para un compañero de trabajo que después debe revisarlo, este último acaba haciendo mucho más trabajo que si lo hubiera escrito yo. Inicialmente parece que hago muchas cosas más fácilmente, pero a largo plazo acabo teniendo más trabajo. Puedo utilizar ChatGPT, pero puede que la IA se invente cosas. Es un buen ejemplo que puede acabar produciéndose una reducción de la productividad, porque inyectamos este tipo de slop en el sistema.

Así pues, ¿por qué las empresas se han volcado tanto?

Bien, hay mucha parte de marketing. Tienes valoraciones altísimas y debes justificarlas de alguna manera. Se venden sistemas como si tuvieran capacidades que técnicamente puede que no tengan. En contratación, te venden un sistema de IA que dice que puedes subir un vídeo de tres minutos y te dirá cómo es esa persona en el trabajo en equipo o en el trato con los clientes. Pero es un generador de cifras aleatorias. No es un sistema técnicamente válido. De todas formas, esto no impide que se venda. Creo que la gente tiene FOMO [las siglas de fear of missing outmiedo a perderse algo]: si la competencia lo utiliza, quizá yo también debería utilizarlo. Mi esperanza es que podamos llegar a un mundo en el que entendamos que no existe necesariamente una relación entre productividad y calidad o cantidad de trabajo.

Jeremias Adams Prassl, experto en IA y futuro del trabajo.

¿Se trasladará el trabajo bruto de la IA a los países del Sur Global?

— Desgraciadamente, sí. Las plataformas de externalización online han tenido un papel clave en el desarrollo de la IA, ya menudo no se habla suficientemente. Toda la limpieza de datos y el entrenamiento de sistemas a menudo se externalizan allí. La moderación de contenidos es otro ejemplo clásico: pensamos que se encarga un algoritmo sofisticado, pero en realidad es trabajo humano, a menudo peligroso desde el punto de vista psicológico y de salud laboral, muy mal pagado y externalizado a estos países. Incluso ocurre con los coches autónomos: cuando se bloquean, muchas empresas acuden a una persona, que interviene desde un centro de atención remota. Por tanto, la historia de la IA es también la historia del trabajo oculto.

¿Cómo debería regularse este impacto?

— Una posible solución es garantizar la rendición de cuentas en las cadenas de suministro globales. Las regulaciones de la UE se centraron más en la capa de aplicación, es decir, en el uso final. Y esto es un aspecto interesante de la ley de inteligencia artificial (AI Act): por primera vez reconoce que existen distintos actores dentro de la cadena de suministro de la IA. No llega muy lejos en términos de medidas concretas, pero es ya un paso.

¿Qué huecos ve en esta normativa?

Lo que hace es crear mucha regulación y burocracia, que quizás no sea buena para las empresas, pero tampoco consigue mucho en términos de protección de las personas. El motivo es que intenta ser un instrumento aplicable a la IA en muchos ámbitos distintos. Usa un único conjunto de normas que se aplica independientemente del contexto. Pero, en realidad, los retos y oportunidades que tenemos con la IA en el ámbito sanitario son completamente diferentes a los de las finanzas, de los consumidores o del trabajo. Por tanto, tener un solo conjunto de normas para todos estos contextos genera problemas.

¿Existen sectores en los que ve que esta tecnología tiene potencial para mejorar las condiciones de trabajo? ¿Y al revés?

— En cuanto a usos positivos, una cuestión histórica ha sido la activación del mercado laboral: crear oportunidades para que más personas puedan trabajar y llevar trabajo a un abanico mucho más amplio de comunidades, incluidas personas que, por diversas razones, han sido sistemáticamente excluidas del mercado laboral. El lado más negativo que estamos viendo es cuando la tecnología se utiliza con fines esencialmente ilegales. Por ejemplo, software que predice cuando una persona podría quedarse embarazada para despedirla antes. Esto es profundamente incorrecto.

¿Estas prácticas se están volviendo habituales?

— En la Unión Europea, este tipo de cosas son totalmente ilegales. Lo que sí vemos a menudo es, por ejemplo, la automatización completa de los despidos, o el uso de software para predecir la sindicalización.

¿La destrucción de puestos de trabajo por la IA debe preocuparnos?

— La destrucción de puestos de trabajo es un elemento que debemos tener presente cuando hablamos del impacto de la IA y la tecnología en el mercado laboral. Pero no deberíamos permitir que nos distraiga de los importantes debates políticos sobre la calidad del trabajo que tenemos ahora mismo. Históricamente, ha habido muchos debates de este tipo que después no se han materializado como se preveía.

Por último, un escenario utópico: ¿qué es lo más positivo que podría salir de este debate?

— El escenario más utópico sería aquel en el que pudiéramos automatizar muchas de las tareas más pesadas y repetitivas, y liberarnos para poder dedicar tiempo a trabajos de mayor calidad ya las tareas que realmente queremos realizar. Pero la clave es que, si se generan ganancias de productividad, debemos pensar muy bien cómo las compartimos de forma equitativa. Las ganancias de productividad por sí solos no son suficientes; lo que importa es cómo se distribuyen.

stats