Con motivo de LUDOVIA#BE, en Spa, una mesa redonda que reunió a Christophe Batier (Universidad Lyon 1) y Jeff Van de Poël (Universidad de Lausana, UNIL) permitió abordar sin rodeos los grandes retos que hoy plantea la inteligencia artificial en la educación. Más allá del “buzz”, ambos investigadores recuerdan que la IA generativa transforma profundamente nuestra relación con el conocimiento, las prácticas pedagógicas, el acceso a la información… pero también los equilibrios económicos y democráticos.
La IA no es una moda: una ruptura en la historia de la relación con el saber
Para Jeff Van de Poël, la IA no puede calificarse como una “tendencia”: se inscribe en la continuidad de grandes rupturas históricas de la relación con el saber —después del libro y de internet.
¿La novedad?
👉 La IA ya no se limita a proporcionar información: la produce, la reformula y la personaliza, de forma continua y bajo demanda.
Se trata de una nueva dinámica de aprendizaje: una especie de “profesor accesible 24/7”, potencialmente poderoso, pero que cambia la naturaleza de la relación entre el aprendiz y el conocimiento.
Herramientas poderosas… pero concentradas en manos de unos pocos actores privados
Christophe Batier subraya una evolución mayor: a diferencia de la web original, basada en una cultura de intercambio, de igualdad técnica y de bienes comunes, la IA generativa está dominada por un puñado de actores capaces de invertir miles de millones en infraestructuras, como Musk, Zuckerberg, Bezos u Altman, por citar solo algunos.
➡️ Una situación que plantea la cuestión de la gobernanza, la transparencia y, sobre todo… de la independencia de los sistemas educativos frente a modelos económicos de captación.
Las universidades intentan recuperar el control mediante servidores de inferencia internos, que permiten conservar el dominio de los datos, pero el camino aún es largo.
Información vs. conocimiento: el riesgo de una confusión crítica
La mesa redonda insiste en una distinción esencial:
- el conocimiento → procedente de fuentes verificadas y duraderas
- la información → volátil, reciente, a veces dudosa
Un estudio citado (400 búsquedas analizadas) muestra que el 45 % de los resultados sobre actualidad generados por IA contienen errores.
➡️ El peligro no es tanto que las IA se equivoquen —los humanos también lo hacen—, sino que lo hagan de forma muy convincente, con una presentación impecable que desactiva la vigilancia crítica.
Se añade un segundo problema:
👉 la IA genera contenidos… que luego sirven para entrenar nuevas IA, creando un ciclo de autorreferencia que corre el riesgo de empobrecer la calidad global de la web.
El papel clave de la regulación: la esperanza europea
Para ambos ponentes, la solución pasa por una gobernanza sólida. Europa intenta responder con el AI Act, que busca imponer transparencia sobre los conjuntos de datos, la trazabilidad de los algoritmos y obligaciones para el uso de estos modelos en territorio europeo.
Un intento único en el mundo —a veces criticado, pero indispensable para evitar una deriva total hacia sistemas opacos.
¿Hacia IA “limpias” y universitarias? ¿Una utopía posible?
¿Podemos imaginar una IA equivalente a Wikipedia, construida según valores científicos, abiertos y verificados?
Según ambos investigadores: sí, pero no sin obstáculos.
Dos vías emergen:
El enfoque a través del profesorado
Los docentes ya pueden:
- crear sus propios chatbots disciplinares
- alimentar las IA con corpus que ellos eligen
- controlar la calidad de las fuentes y limitar los sesgos
Herramientas como NotebookLM hacen estos usos accesibles desde ahora.
El enfoque a través de la comunidad científica
Algunos países ya avanzan en esta dirección, como los Países Bajos, y con iniciativas europeas como Mistral.
La idea: mutualizar servidores, financiar proyectos multidisciplinares y producir IA fiables basadas en conocimientos certificados.
👉 Una cooperación compleja de implementar, pero que los expertos consideran que podría hacerse realidad en pocos años.
Conclusión: un horizonte compartido, pero un camino exigente
La mesa redonda concluye con una constatación común:
- La IA en educación es una oportunidad mayor para democratizar el conocimiento.
- También es un terreno frágil, sometido a enormes intereses económicos, riesgos de desinformación y a una explosión de contenidos poco fiables.
- La comunidad educativa y científica debe actuar, tanto a nivel local como colectivo, para construir herramientas de confianza.
Con humor, los ponentes concluyen que «la solución existe»… pero que requerirá paciencia, vigilancia y cooperación —y quizá una cerveza para seguir la conversación 😉.

