Tecnología

Oriol Vinyals: "Uso un asistente personal de IA"

Vicepresidente de búsqueda de Google DeepMind

27/12/2025

En la Universidad Politécnica de Cataluña no recuerdan ninguna ovación tan larga como la que recibió Oriol Vinyals (Sabadell, 1983) cuando a finales de noviembre fue investido doctor honoris causa. Minutos y minutos de aplausos del público de pie para homenajear al antiguo alumno de la doble titulación en ingeniería de telecomunicaciones y matemáticas que ha contribuido de forma crucial al desarrollo de la inteligencia artificial. De hecho, está en el top 10 de investigadores en IA más citados del mundo.

Después de cursar los estudios en la UPC, en 2006 se marchó a EEUU, donde se doctoró y se incorporó como investigador a Google Brain. Allí se especializó en dos campos de la IA, el aprendizaje máquina y el aprendizaje profundo. Desde 2016 es vicepresidente de investigación y jefe de equipo de aprendizaje profundo de Google DeepMind, en Londres.

Este sabadellense trabajó en el desarrollo de AlphaFold, un sistema de IA que ha resuelto uno de los grandes retos de la biología: cómo predecir las proteínas a partir de su secuencia de aminoácidos. AlphaFold ganó el premio Nobel de química en el 2024. Además, ha sido codirector técnico en el desarrollo de Gemini, el modelo de IA multimodal más avanzado de Google.

Cargando
No hay anuncios

Acaba de realizar una 'masterclass' en su universidad, la UPC, donde había más de 500 personas. Muchas estaban de pie al final porque ya no había espacio.

— No era la primera vez que volvía a la UPC desde que me fui fuera, pero esta vez no me esperaba tantas emociones personales centradas en mí. El acto de ayer [la ceremonia honoris causa] fue muy especial y emotivo, con la gente derecha que no dejaba de aplaudir. No podía dejar de pensar qué había hecho yo para llegar aquí. Y, de hecho, fue lo que intenté explicarles en la charla que hice, por si podía inspirar a alguno de los estudiantes que estaban en el público.

Vuelve a la universidad, donde ahora mismo existe un debate intenso sobre el uso de estas herramientas. En la mayoría de los casos, utilizar IA penaliza al alumnado y se está volviendo a los exámenes orales.

— Todas las tecnologías tienen un uso dual. Aquí nos centramos en pensar qué uso hace un estudiante en una universidad puntera, y está bien. Pero yo, como desarrollador, pienso en las regiones del planeta donde no hay ninguna universidad, o donde la más cercana está a más de tres horas en coche, lo que te cierra el acceso a tomar. La IA brinda un tutor personalizado a estas personas. Globalmente, estas herramientas están reconfigurando el acceso a recursos, tutores, conocimiento. Y esto es el motivo por el que desarrollamos estas herramientas. Cada empresa tiene un enfoque diferente, pero en este sentido Google realiza pruebas antes de poner las herramientas en manos de la sociedad y analiza los potenciales problemas. En el caso de la educación y la IA, contamos con un equipo muy grande que forma Google Education, que revisa estas preocupaciones. La IA es una herramienta que perdurará, y es importante educar en lo posible la sociedad para tener debates sobre su uso. Quizás en las universidades habrá que enseñar otras cosas.

Cargando
No hay anuncios

¿Cuáles?

— Habilidades como negociar, hablar, comunicarse, liderar y emplear la tecnología de forma que ayude a optimizar la enseñanza global de la persona, tanto para que sepa hacer una derivada como para que entienda cómo funciona el mundo y cómo entrar en una sociedad productiva.

Pero no todo lo que enseña la IA es correcto.

— Cierto. Y si no dominas un determinado tema, como el álgebra, o todo lo que sabes lo aprendiste con la IA, no podrás ser crítico. Necesitamos conocimientos para poder dudar de lo que te dice la IA, reevaluar, corregir, ser crítico. En un futuro no va a tener errores, pero ahora sí. Por eso es importante tener este punto crítico. Un catedrático de la UPC, Ferran Marquès, me explicaba que en sus exámenes muestra a los estudiantes dos soluciones hechas con IA a preguntas, y la prueba consiste en encontrar los errores. Me parece una muy buena forma, constructiva, de hacer y proyectar un poco en el futuro, porque el modelo va a mejorar mucho en todos los aspectos.

Cargando
No hay anuncios

¿Cómo se puede distinguir a la gente con talento de la gente que utiliza muy bien la IA?

— Quizás es necesario redefinir qué es el talento. Adaptarse al cambio constante es ahora un talento mejor valorado que, por ejemplo, calcular números de 500 cifras. Pero antes de la aparición de las calculadoras, en cambio, poder hacer esto era muy valorado. Si alguien hoy en día utiliza muy bien la herramienta [de IA] y el resultado que obtiene es muy bueno, esto también es un talento.

¿Cuál es el suyo?

— El mío? Seguramente nunca dejar de aprender. Es una de mis constantes. Siempre elijo estar en lugares donde trabajan en ámbitos nuevos que desconozco. En Google Brain aprendí a refinar el deep learning. Cuando me fui a Londres a DeepMind me adentré en el reinforcement learning, que era otro ámbito nuevo. También tengo el talento de liderar. Lo he hecho, por ejemplo, en Gemini.

Cargando
No hay anuncios
IA, hazme un cuento a medida para niños de 3 años

Vinyals explica que su hija no está, de momento, expuesta en pantallas. Como buen científico, asegura que primero necesita entender el efecto que tienen las tecnologías sobre los niños antes de darlas a la niña, de 3 años. Sin embargo, de forma indirecta sí está expuesta. Sin ir más lejos, el día antes de volar a Barcelona para asistir a la ceremonia de honoris causa en la UPC, Vinyals fue a la guardería de su hija en Londres a contar un cuento. "Pedí a Gemini que me hiciera un pensado para niños de esta edad sobre la historia de Alphafold", explica. Y esto fue lo que leyó a los niños y niñas. "Fue un éxito", afirma orgulloso.

Algunos consideran que la IA banaliza la creatividad. ChatGPT abrió la caja de Pandora posibilitando transformar fotos al estilo del estudio de animación japonés Ghibli, fundado por Hayao Miyazaki. Hay mucho debate sobre si vulneraba las leyes de propiedad intelectual, incluso.

— Hemos creado leyes y sistemas para defender la propiedad intelectual en un marco que considera que el único intelecto en el planeta somos nosotros. Pero si lo pensamos, estas herramientas hacen lo mismo que los humanos: aprenden de lo que ya se ha hecho y creado para generar algo nuevo que transforma el conocimiento humano. ¿O no es esto lo que hacen los artistas, que estudian otros artistas del pasado, se inspiran en ellos, aprenden y se nutren para hacer su obra, donde hacen alguna aportación nueva, que es suya, su creatividad?

¿El algoritmo también hace aportaciones nuevas?

— En DeepMind, por ejemplo, tenemos como misión impulsar el avance científico. Tenemos un sistema llamado Co-Scientist (Cocientífico) que se lee artículos de investigación en un ámbito e intenta encontrar ideas nuevas que después los investigadores pueden desarrollar. Encontramos muchos ejemplos de genuina creatividad a partir de lo que les pides hacer a los modelos, sobre todo en ámbitos bien especializados, como las matemáticas. Los modelos de IA pueden ser un compañero de brainstorming. Está claro que no son perfectos, pero los expertos pueden discernir, cambiar el prompt. Yo mismo uso un asistente personal de IA.

Cargando
No hay anuncios

¿Qué tareas le realiza?

— Dirijo un equipo muy grande y compartimos documentos con ideas. El asistente tiene acceso y me indica si hay que prestar atención a un canal en concreto porque hay buenas ideas, o si debería hablar con alguien del equipo en concreto sobre una idea. El resultado es que establece conexiones. También lee los estudios científicos que aparecen en mi ámbito, me hace resúmenes de las ideas más innovadoras, me apunta nuevas líneas de trabajo. Haría falta que repensáramos conceptos como talento, creatividad, para que estas herramientas aceleran el avance.

¿Estos modelos de IA acabarán generando conciencia?

— El debate sobre la conciencia de la IA le miro muy pragmáticamente. Cuando interactúo con los modelos, no siento que por lo menos hoy sean conscientes. En el futuro dependerá de hacia dónde vaya la tecnología. Es posible que acaben teniendo un cierto nivel de conciencia o existencia.

Cargando
No hay anuncios

Ya hay casos de personas que se han casado con una IA o incluso que se han suicidado aconsejados por un chatbot.

— Sobre todo cuando una herramienta se utiliza a gran escala, existe el peligro del doble uso. Siempre habrá minorías que se situarán en los casos más extremos, pero es preciso recordar que los usos más habituales son positivos.

Existe preocupación por la presencia del catalán en un ecosistema dominado por el inglés.

— Es una pregunta muy relevante si eres usuario de chatbots. Está claro que por lo menos de momento la forma de obtener los mejores resultados cuando haces una consulta en la IA es en inglés, porque es el idioma dominante en internet y el idioma universal de la ciencia. Cómo hacemos con machine learning, podemos calcular qué ocurre cuando hacemos la misma pregunta en inglés o en catalán; medir numéricamente las diferencias nos permite empezar a optimizar y entender cómo podemos introducir los idiomas, y entonces es cuando la herramienta mejora. En Google ahora es prioritario que Gemini sea preciso en muchas lenguas. ¡Y estamos mejorando mucho! De hecho, hay muchos catalanes que trabajamos en Google, y hay evidentemente mucho interés. Quizás todavía hay diferencias entre el inglés y otros idiomas, pero serán cada vez menos y menos perceptibles con las nuevas generaciones del modelo.

Cargando
No hay anuncios

¿Qué estaremos haciendo con la IA dentro de cinco años que ahora no imaginamos?

— Nuestra interacción será mucho más rica, multimodal. Ahora ya podemos hacer cosas como pedir al modelo que nos genere un dibujo inspirado en un podcast, por ejemplo. O visualizarlo con gráficos. Incluso podemos pedirle el resumen en vídeo de una entrevista muy larga y que añada elementos visuales. En cinco años esto habrá ido a más: tendremos tutores personalizados en vídeo. Por ejemplo, si queremos aprender cómo funciona un reactor nuclear, el modelo te hará un pequeño simulador con el que podrás interactuar; una infografía del reactor. Las respuestas serán mucho más ricas, con una interfaz gráfica que se adaptará a ti.

El consumo de recursos de la IA seguirá subiendo...

— En Google tenemos la promesa de ser neutrales en carbono. Evidentemente la demanda de IA está creciendo muchísimo. Nuestro objetivo es que la tecnología llegue a todo el mundo, sobre todo a la gente que no tiene acceso a la educación. Y también queremos bajar la emisión de gases de efecto invernadero, plantar árboles, poner paneles solares infinitos en los desiertos. Que los modelos sean cada vez más rápidos, tiene que ver con la intensidad de computación. Los chips que estamos fabricando, los vatios que se necesitan para realizar la misma computación de la generación 2 a la 6, han bajado 30 veces. La energía que gastamos sobre todo cuando estamos entrenando a los modelos es razonable y estamos optimizando el proceso muchísimo. Además, estamos utilizando la tecnología para intentar descubrir nuevos materiales de fusión. Usamos energía, sí, pero aceleramos avances en superconducción o fusión que a su vez permitirán bajar el consumo energético y combatir el cambio climático.