Con el desarrollo actual de la inteligencia artificial generativa, algunos estudiantes se sienten tentados a delegar sus tareas a herramientas como ChatGPT. Pero para asegurar sus conocimientos y el avance de sus logros, ¿es el reto únicamente reforzar la lucha contra el plagio? ¿No es necesario, sobre todo, inventar nuevas formas de evaluación?
En un momento en que las IA denominadas generativas nos asombran con sus logros, ¿cómo evaluar correctamente los logros de los estudiantes? ¿La irrupción del robot conversacional ChatGPT está destinada a alterar las prácticas evaluativas? ¿Los desafíos se plantean de una manera radicalmente nueva o, en última instancia, no hay nada verdaderamente nuevo bajo el sol de estos juicios apreciativos que son las notas y los juicios de evaluación?
El hecho significativo es que las IA generativas son capaces, a partir de instrucciones dadas, los « prompts« , de crear texto, imágenes o incluso música. Las máquinas se apoderan de lo que parece constituir nuestra esencia. ¿No se volverán capaces de realizar, y mejor que nosotros, cualquier tarea cognitiva humana?
El riesgo es que la herramienta de « inteligencia generativa » se utilice masivamente para hacer trampa. Si los logros que buscan las acciones educativas son precisamente tareas cognitivas complejas, la tentación puede ser fuerte, en algunos casos, de hacer que las máquinas inteligentes realicen lo que se supone que deben aprender a hacer durante su formación, como redactar una disertación.
Identificar correctamente las competencias a evaluar
Es toda evaluación realizada fuera de las condiciones estrictas de examen, particularmente « en casa », la que se vuelve sospechosa. Ciertamente, los remedios son bastante evidentes: imponer tiempos ineludibles de evaluación en un entorno « cerrado »; prohibir o, mejor aún, moderar o encuadrar el uso de una IA generativa en situaciones de examen.
Sin embargo, esta posibilidad de hacer trampa, que no es más que la figura moderna del clásico « hacer que otro lo haga » con usurpación de identidad, no debe desviar nuestra atención del problema central que sigue siendo el mismo: ¿cómo permitir que el estudiante evaluado « demuestre lo que sabe », es decir, que proporcione manifestaciones auténticas y probatorias de la realidad de sus logros?
Como en los períodos previos a ChatGPT, se requieren dos condiciones. La primera condición es tener una idea precisa del objetivo educativo que se persigue. En otras palabras, se debe ser capaz de definir en términos operativos la capacidad o competencia que se busca a través de la acción educativa; y, por lo tanto, a través del control o el examen escrito, estos deben ser indicadores de si el objetivo ha sido alcanzado.
Cabe señalar que no basta con designar un conocimiento, sino que se debe especificar lo que la « posesión » de ese conocimiento permite al estudiante hacer de manera visible. Especificar lo que el dominio de este conocimiento permite realizar concretamente: ¿cómo se puede distinguir claramente entre quien posee ese conocimiento y quien no lo posee?
La segunda condición, que va de la mano de la primera, es encontrar « pruebas » de examen, es decir, « tareas », que obliguen a enfrentar una situación en la que se pueda, precisamente, demostrar lo aprendido. Por ejemplo: simplificar fracciones, construir un texto argumentativo, redactar un resumen de un texto filosófico. Entonces, surge el obstáculo del posible reemplazo por una IA generativa: ¿no podrá ella, precisamente, hacer « mis » pruebas, en lugar de mí, si dejo que se crea que su trabajo es el mío?
Crear nuevos ejercicios con la IA
Más allá del problema moral y policial, observemos que esto obliga a hacer un esfuerzo, en cada caso, para buscar la habilidad central que se busca en cada tarea cognitiva que pueda ser objeto de un aprendizaje escolar o universitario. Es decir, razonar en términos de capacidades operativas concretas, de habilidades prácticas.
Estas capacidades pueden ser visibles en los estudiantes a través de los resultados que obtienen (por ejemplo, saber orientarse en una ciudad con un mapa), y no en términos de contenidos que se puedan listar en un programa (como conocer la lista de las prefecturas). Esto podría llevar a distinguir niveles de objetivos de aprendizaje y situaciones de evaluación, según el tipo de capacidad en juego.
En lugar de lamentarnos por las posibilidades (relativamente) nuevas de hacer trampa, lo más útil quizás sea preguntarnos si las IA generativas no podrían ofrecer perspectivas para una mejora significativa de los aprendizajes. Utilizando de manera inteligente la herramienta que son, por ejemplo, en términos de contenidos, ilustraciones, ideas para la planificación de lecciones o la creación de ejercicios.
Para los estudiantes, la IA puede ayudar a implementar aprendizajes personalizados, ofreciendo recursos a medida o interviniendo con asistentes de aprendizaje interactivos.
Finalmente, podríamos, al superar el simple problema de la evaluación, identificar líneas de trabajo para una pedagogía asistida por IA generativa. Una primera vía sería dar a los individuos las herramientas necesarias para dominar las herramientas digitales, que no son más que herramientas.
Otra vía sería intentar entender, en este contexto, cómo funciona la inteligencia lógica; y, de manera más amplia, cómo se desarrolla el pensamiento, interrogando, detrás de los problemas algorítmicos y el funcionamiento de los mecanismos técnicos, los desafíos éticos propiamente dichos. Esto se puede hacer co-creando las pruebas con los estudiantes. Porque el impacto de la IA generativa, en la evaluación, como en general, dependerá en gran medida del uso, bueno o malo, que se haga de ella.
Charles Hadji, Profesor honorario (Ciencias de la educación), Universidad de Grenoble Alpes (UGA)
Este artículo se republica a partir de The Conversation bajo licencia Creative Commons. Leer el artículo original.