Enseñanza

La irrupción de la inteligencia artificial obliga a las universidades catalanas a repensar la docencia

A corto plazo no se plantea ningún cambio de protocolo para evitar el fraude con el sistema ChatGPT

Una persona ante el ordenador haciendo os de Chat GPT
Diana Silva
18/01/2023
5 min

Barcelona"Si hay una máquina que puede suplantar al estudiante significa que la actividad no tiene sentido". Esta afirmación del vicerrector de transformación educativa, cultura y comunicación de la Universitat Pompeu Fabra, Manel Jiménez, podría servir para resumir cómo encaran las universidades catalanas la irrupción de la inteligencia artificial (IA) en las aulas. A pesar de que la IA hace tiempo que se utiliza en muchos ámbitos de la vida cotidiana, como por ejemplo cuando un editor de texto te propone una palabra mientras estás escribiendo, el boom del ChatGPT está poniendo en alerta a todo el sistema educativo. El ChatGPT es una herramienta que te puede crear desde cero una redacción para la escuela, un poema o incluso un trabajo de fin de grado universitario. De este modo, los textos creados con este recurso se pueden saltar los diferentes filtros de plagio porque no copian la información de ningún sitio, sino que la crean. A estas alturas la única universidad que reconoce haber detectado un caso en el que un alumno había usado la IA de manera fraudulenta es la UPF. Un primer caso que les resultó alarmante, pero que resolvieron tomando "medidas dialogantes" con el alumno, explican.

Ante el hecho de que la irrupción de esta herramienta es muy reciente y no hay un método fácil para pararla, la mayoría de las universidades de Catalunya están optando por, de momento, no cambiar sus protocolos de detección de prácticas fraudulentas del alumnado. En el caso de la Universitat Autònoma de Barcelona (UAB) y la Universitat de Barcelona (UB), reconocen que tienen el tema sobre la mesa y que están reflexionando, pero que el proceso todavía se encuentra en una fase muy inicial. En cambio, desde la Universitat Oberta de Catalunya (UOC) defienden que, como siempre han trabajado con clases a distancia, ya estaban aplicando elementos de control en las evaluaciones que permitan detectar un posible fraude. Aún así, reconocen que no tienen constancia de ningún caso concreto de un alumno que haya usado IA porque los detectores de plagio no incluyen esta función. "Nos hará tambalear a todos, pero no estoy más preocupado ahora que hace dos meses" asegura el vicerrector de Docencia y Aprendizaje, Carles Sigalés. En cambio, desde la Universitat Politècnica de Catalunya (UPC), durante las vacaciones de Navidad pidieron un estudio sobre las aplicaciones de la IA a su Instituto de Ciencias de la Educación. "Queremos saber qué es accesible en estos momentos, qué tipo de respuestas da y de qué tipo de fuentes bebe. El objetivo es definir qué tenemos que tener en cuenta para que el sistema de evaluación no se vea afectado, pero sobre todo, para hacer que este recurso sea una palanca en positivo para mejorar el aprendizaje y no para disminuir la calidad", explica el vicerrector de Política Universitaria, Joan Gispets.

Los tres vicerrectores coinciden en decir que más allá de prohibiciones, la solución pasa por modificar la experiencia de aprendizaje para que estas nuevas herramientas supongan una oportunidad y no una amenaza. "La historia está llena de momentos en los que todo lo que teníamos entendido como aprendizaje tradicional saltaba por los aires. Cuando aparecieron la Wikipedia o Google adaptamos la docencia y es lo que haremos esta vez", insiste Gispets. En el caso del vicerrector de la UPF, considera que hay que cambiar qué se pide que haga el alumno en clase o en casa. "La IA puede ser un buen apoyo para el estudiante. Si sirve para suplantarlo es que estamos fallando en el enfoque pedagógico. Tradicionalmente, se explicaba en el aula y los alumnos hacían los deberes en casa. Ahora, los estudiantes, con todos los recursos que tienen, preparan las sesiones en casa y vienen al aula a demostrar los conocimientos que han adquirido", defiende Jiménez. En este sentido, el vicerrector de Política Universitaria de la UPC pide reflexionar sobre la importancia que se da al hecho de evaluar al alumno. "La gestión de la IA en las aulas es un reto muy difícil, pero la clave es quitar peso a la evaluación, que a veces puede ser un factor limitador, y ponerlo en el aprendizaje".

De cara a crear una estrategia común entre todas las facultades catalanas, a diferencia de lo que pasa con escuelas e institutos, en Catalunya cada universidad tiene su propia autonomía. Por este motivo, según el departamento de Investigación y Universidades, una opción puede ser plantear la cuestión al Consell Interuniversitari de Catalunya (CIC), un órgano de coordinación donde se podrían trazar líneas de actuación comunes entre todas las universidades.

Respecto a si hay que replantear los protocolos para evitar el fraude, todas las universidades consultadas por el ARA defienden que siempre existe el filtro de lo que se hace en clase. Ya sea una prueba con papel y boli o una presentación oral. Aún así, no descartan a la larga tomar medidas para tratar de evitar esta suplantación. A la hora de la verdad, sin embargo, tener un sistema que detecte el contenido realizado con IA es muy complicado. Ferran Marquès, coordinador del grado en ingeniería de datos de la UPC, explica que, a corto plazo, "se podría hacer algo porque solo hay una herramienta que proporcione este servicio. El ChatGPT tiene sus marcas y, por lo tanto, tú podrías hacer otro programa con IA que analizara los datos y diera una estimación de qué probabilidad hay de que aquel texto se haya hecho con la herramienta".

El problema es que esta solución sería solo momentánea. "Sería un parche porque el aprendizaje de estas herramientas es el autoengaño. Cada vez que se construya una medida para intentar detectar si un texto es falso o no, el programa la usará para mejorar y volver a engañar el sistema de detección", explica. Marquès defiende que es necesario hacer algo para frenar el fraude, pero que lo que hace falta es educar en el uso de estas herramientas y hacer una legalización bajo un marco positivo. "Este cuatrimestre tengo alumnos que usan el ChatGPT para mejorar lo que escriben y me parece bien. Lo prefiero antes que Patatabrava o Rincón del Vago".

Primera guía para las escuelas

"La IA ya se está usando en las escuelas. Hay vídeos de youtubers con títulos del estilo de Saca un 10 en todos los exámenes, y eso se ha hecho viral", asegura el director de proyectos de la Fundació Bofill, Hèctor Gardó. A la vez, sin embargo, manda un mensaje tranquilizador: "Cuanto más bajas sean las etapas educativas, menos impacto tendrán estos recursos. A diferencia de lo que pasa en bachillerato o en las universidades, el sistema pedagógico no se basa tanto en la repetición de contenidos. En las escuelas el aprendizaje está más basado en proyectos y creatividad. Son competencias que con las soluciones de la IA no se pueden cubrir". Por este motivo, Gardó considera que "el recurso abre una puerta de oportunidades y no tiene sentido prohibirlo". De hecho, la Fundació ha elaborado una guía, Los algoritmos a examen.

Desde el departamento de Educación comparten esta idea. Fuentes de la consejería aseguran que, a pesar de ser conscientes de que llegarán más herramientas como el ChatGPT, lo que hay que hacer es "abordar sus riesgos y sus oportunidades, pero no prohibirlo para todo el mundo, puesto que sería una medida poco efectiva". Aún así, dejan en manos de cada centro la decisión de cómo gestionar esta nueva herramienta. Una decisión que, según el director de proyectos de la Fundació Bofill, tendrá que "plantear cómo convivir en un mundo donde cada 2 meses habrá nuevas soluciones".

stats