Cuando la inteligencia artificial entra al aula: debates, consensos y decisiones pedagógicas
- Nuria Gómez Belart
- hace 3 días
- 5 Min. de lectura

La discusión sobre el uso de la inteligencia artificial en educación suele quedar atrapada entre dos extremos: la fascinación acrítica por la herramienta y el rechazo defensivo frente a lo nuevo. Sin embargo, lo que hoy se juega en el aula no es una batalla entre humanos y máquinas, sino una reconfiguración profunda de los procesos de enseñanza, aprendizaje y evaluación. Para pensar este escenario con cierta serenidad, conviene correrse del ruido y volver a los marcos internacionales que ya vienen trabajando el tema desde una perspectiva ética, pedagógica y social.
Organismos como la UNESCO vienenseñalando desde hace varios años que la interacción con sistemas de inteligencia artificial no se limita al espacio escolar: atraviesa la vida cotidiana, las prácticas profesionales y las formas de producir conocimiento. Por eso, cualquier política educativa que incorpore IA necesita partir de una idea simple pero exigente: no se trata de sumar una herramienta más, sino de revisar qué entendemos por aprender, por enseñar y por evaluar.
Uno de los documentos clave en este recorrido es el Consenso de Beijing (2019), que establece principios orientadores para el uso de IA en educación con un énfasis claro en lo humano. Allí se insiste en que estas tecnologías deben fortalecer —y no debilitar— el pensamiento crítico, la autonomía intelectual y la interacción entre personas. La IA aparece como recurso de apoyo, no como sustituto del vínculo pedagógico.
IA generativa, modelos expertos y plataformas educativas
En el centro del debate actual se encuentran los modelos de IA generativa, capaces de producir texto, imágenes, música, video o código. Su potencia reside en que generan contenido nuevo a partir de patrones aprendidos durante el entrenamiento. Esto los vuelve útiles para crear borradores, estructurar textos, proponer versiones alternativas o simular situaciones problemáticas para trabajar en clase.
Desde la perspectiva de la UNESCO, el horizonte deseable no es que cada docente diseñe su propio “modelo experto” —algo inviable por costos y complejidad—, sino avanzar hacia plataformas educativas de alcance nacional o regional, adaptadas a contextos locales y pensadas específicamente para el ámbito escolar. Algunos países del norte de Europa ya ensayan este camino, con infraestructuras públicas que buscan reducir dependencias comerciales y asegurar criterios pedagógicos comunes.
Pero más allá del tipo de plataforma, hay un punto estructural que no conviene perder de vista: estos sistemas están entrenados para responder siempre. No “saben” en sentido humano; producen probabilidades lingüísticas. Cuando no encuentran información suficiente, completan con inferencias que pueden resultar verosímiles… y falsas. Las llamadas “alucinaciones” no son fallas azarosas, sino efectos del modo en que combinan datos.
Esto vuelve imprescindible instalar en el aula una actitud de cotejo permanente. Ninguna respuesta de la IA debería circular sin contraste con otras fuentes. Leer críticamente lo que devuelve el sistema —buscar inconsistencias, sesgos, vacíos— pasa a ser una competencia central.
Datos sensibles, ética y responsabilidad
Otro eje fuerte del debate gira en torno al uso de información personal o institucional. Boletines de calificaciones, informes psicopedagógicos o fonoaudiológicos, contratos, diagnósticos: todo ese material, si se carga en plataformas abiertas, queda alojado en servidores externos y puede alimentar futuros entrenamientos del modelo.
La regla práctica es clara: si se necesita trabajar con un documento real, hay que anonimizarlo antes o reemplazar nombres propios por marcas neutras. La frontera de lo “sensible” no la define solo la tecnología, sino también los acuerdos de confidencialidad y el sentido común profesional. Subir datos privados a un sistema de IA equivale, en términos de exposición, a publicarlos en una red social.
A esto se suma el problema del sesgo. Las inteligencias artificiales reproducen los prejuicios presentes en los corpus con los que fueron entrenadas. El criterio ético que propone el Consenso de Beijing exige que docentes e instituciones prueben las herramientas antes de llevarlas al aula, detecten posibles discriminaciones y trabajen explícitamente estos puntos con los estudiantes.
Del producto al proceso: un cambio de foco
Quizás la transformación más profunda que introduce la IA en educación no tenga que ver con la tecnología, sino con la evaluación. Si un sistema puede producir un texto “correcto” en segundos, pierde sentido seguir midiendo solo el resultado final.
El desplazamiento necesario va hacia el proceso: cómo se formula la consigna, qué decisiones toma el estudiante, qué versiones descarta, cómo revisa, qué criterios aplica al corregir, de qué manera reconstruye la información. La escritura deja de ser un acto puntual y se convierte en una secuencia de iteraciones. Allí aparecen espacios fértiles para observar razonamientos, argumentaciones y elecciones lingüísticas.
Este giro recuerda lo que ocurrió cuando las calculadoras entraron en la enseñanza de la matemática: el foco pasó del cálculo mecánico a la comprensión de procedimientos. Con la IA sucede algo similar. El valor pedagógico ya no está en “hacer” el texto, sino en leerlo, evaluarlo, reformularlo y sostener una posición crítica frente a él.
En ese marco, el aula tiende a adoptar un formato de taller. Se trabaja en grupo, se comparan versiones, se discuten respuestas del sistema, se buscan errores deliberadamente. El tiempo pedagógico se reorganiza alrededor del análisis y la mediación, no de la mera producción.
El rol docente frente a la automatización
Este escenario obliga a revisar también la figura del docente. Cuando la tarea se limita a transmitir contenidos, cualquier modelo generativo puede cumplir esa función con paciencia infinita. La diferencia aparece cuando el trabajo pedagógico se centra en orientar, acompañar, problematizar y generar condiciones para que el pensamiento se vuelva visible.
Lejos de desaparecer, el rol docente se vuelve más exigente: implica diseñar consignas abiertas, sostener debates, ayudar a formular buenas preguntas, enseñar a detectar falacias y construir criterios de validación. La IA acelera procesos, organiza información y propone alternativas; no reemplaza la experiencia humana ni la responsabilidad educativa.
Desde esta perspectiva, incorporar inteligencia artificial al aula no consiste en “dejar que el chat responda”, sino en enseñar a dialogar con la herramienta, a ponerla en duda y a usarla como punto de partida para pensar mejor.
Una oportunidad pedagógica, no un atajo
El riesgo más grande no es que los estudiantes usen IA, sino que la usen como atajo para evitar el trabajo intelectual. Frente a eso, la respuesta no pasa por prohibiciones generales, sino por rediseñar las prácticas: plantear tareas que exijan intervención humana, promover la lectura crítica, valorar los procesos y no solo los productos.
La inteligencia artificial puede ayudar a armar borradores, estructurar trabajos en formato académico, generar casos problema o simular voces narrativas. Pero su verdadero potencial educativo aparece cuando se la integra como objeto de análisis y no solo como generadora de respuestas.
El debate actual no gira alrededor de si la IA debe estar en el aula —ya está—, sino de cómo se la incorpora. Los consensos internacionales ofrecen un marco claro: tecnología al servicio de lo humano, pensamiento crítico como eje y mediación docente como garantía. Todo lo demás depende de decisiones pedagógicas concretas.



Comentarios