Me invitaron a compartir algunas reflexiones sobre educación e inteligencia artificial (IA). Como ocurre con muchos temas tecnológicos, es un campo amplio lleno de aristas. Al elegir el punto de entrada decidí ponerme en el lugar de los y las docentes para pensar qué sería lo primero que haría para reducir la complejidad que implica incorporar la IA en el aula. Acá mis reflexiones.
Mientras que para las y los estudiantes la inteligencia artificial ya es una realidad cotidiana -aprenden, se comunican e imaginan su futuro utilizando herramientas basadas en IA-, la mayoría de instituciones educativas y sus docentes no los acompañan. Esta brecha se explica, en buena medida, por incertidumbres y preocupaciones legítimas y también se siente en contextos donde la comunidad educativa aún no tiene acceso directo a estas tecnologías, allí subsiste la responsabilidad de prepararlos para un futuro en donde la IA estará presente.
Los docentes tienen diversas posturas. Algunos adoptan la IA con entusiasmo o, al menos, con curiosidad: exploran, por ejemplo, la escritura colaborativa estudiantes-IA. Otros, en cambio, optan por refugiarse en herramientas analógicas para evitarla -como volver a los exámenes escritos a mano en clase-. Y también están quienes simplemente la ignoran por completo.
Las reacciones son comprensibles. El desarrollo exponencial de la tecnología deja poco margen para la reflexión pedagógica, y la IA, en particular, genera inquietudes profundas. Sin embargo, como ha ocurrido en otras ocasiones, es poco probable que la estrategia del avestruz -enterrar la cabeza esperando que la amenaza desaparezca- funcione durante mucho tiempo.
La incorporación de la IA en la educación plantea preguntas existenciales relevantes: ¿qué ocurre con la creatividad cuando una máquina redacta el trabajo en segundos? ¿Están realmente aprendiendo si es tan fácil hacer trampa? Aunque estas preguntas son válidas y sus respuestas complejas, conviene ampliar la mirada más allá de la pérdida de credibilidad (algo que, vale decirlo, no es exclusivo de la comunidad estudiantil, también ocurre en el ámbito docente).
Existen otras preocupaciones que comprometen derechos y valores fundamentales de la sociedad, y la escuela, al fin y al cabo, es un espacio de preparación para la vida en comunidad. La IA facilita prácticas de vigilancia y la vulneración de la privacidad de los datos personales; tiene un impacto ambiental significativo debido a los altos requerimientos energéticos del entrenamiento de grandes modelos de lenguaje; conlleva ambigüedades éticas asociadas a la recopilación masiva de datos; y está atravesada por fuertes asimetrías de poder que determinan quién diseña, controla e impulsa los sistemas inteligentes.
Desde la perspectiva docente hay preguntas inevitables: ¿cómo abordar estas preocupaciones y trasladarlas al aula?
Una forma de hacerlo es explicarles que esas herramientas tan cotidianas tienen costos asociados. Por ejemplo, explicar que cada vez que generamos un video “divertido” o seguimos una tendencia viral, existen consecuencias ambientales y sociales. ¿Queremos ser parte de ese circuito? ¿En qué condiciones y con qué límites? Podríamos explorar en el aula el principio de precaución, reflexionando sobre la legitimidad del no uso en ciertos contextos, por ejemplo, en etapas tempranas del aprendizaje de la escritura a mano.
También podemos mostrar que la IA descansa sobre estructuras de explotación invisibilizadas. El entrenamiento de grandes modelos de lenguaje -como Gemini o ChatGPT- implica la recolección masiva de datos, muchas veces sin consentimiento, y su posterior limpieza y clasificación por parte de trabajadores precarizados y mal remunerados, generalmente en países del sur global. Incluso como usuarios y usuarias contribuimos a este proceso cada vez que participamos en dinámicas aparentemente triviales.
Asimismo, es clave explicar que la IA privilegia ciertas voces y reproduce sesgos. Vale la pena preguntarse sobre quién decide qué está bien y qué es correcto en estos sistemas, qué tipo de conocimiento se considera válido, qué narrativas se conservan y cuáles se borran según el algoritmo dominante del momento.
En este escenario, si yo fuera docente, seguiría el consejo del profesor Demian Hommel y abordaría la IA como una oportunidad para fortalecer el pensamiento crítico. En línea con Paulo Freire, la enseñanza no es un acto neutral: el diálogo y la reflexión crítica sobre la realidad son centrales en el proceso educativo. Por ello, independientemente de si promuevo, tolero o rechazo el uso de la IA, comenzaría por explicitar mi posición desde la primera clase y fundamentarla. A partir de allí, establecería reglas claras sobre su uso en el aula, convirtiendo ese ejercicio en una primera lección curricular centrada en la reflexión sobre la tecnología. Tal como propone Hommel, no se trata solo de fijar límites, sino de hacer pedagogía.
Y si me sintiera especialmente audaz, avanzaría para convertir esa clase en un ejercicio de cocreación de las reglas. Definir colectivamente cómo usaremos la IA, para reflexionar sobre mis inquietudes. Así, las reglas dejan de ser una imposición y se transforman en un marco compartido de comportamiento y responsabilidad.