Foto: Pexels
La inteligencia artificial ya escribe, dibuja, resume, programa y responde en segundos. Asombra por su velocidad y por la fluidez con la que produce respuestas verosímiles. Sin embargo, ahí aparece el reto educativo: plausible no equivale a verdadero.
Si queremos que nuestros estudiantes participen en la vida pública con criterio, la tan necesaria formación ciudadana del siglo XXI pasa por el pensamiento crítico aplicado a un ecosistema donde lo humano y la tecnología computacional conviven a cada clic y cada segundo.
Conviene empezar por una verdad incómoda: los grandes modelos de lenguaje no saben, predicen; no entienden, simulan comprensión; y no piensan, computan patrones. Tampoco tienen conciencia, intenciones, o criterio moral. Estiman la próxima palabra más probable y, por eso, pueden sonar convincentes, pero equivocados.
Lee también: ¿Puede la inteligencia artificial ayudar a mejorar el acceso a la justicia?
Las propias fichas técnicas reconocen límites que se conocen como “alucinaciones”, cuando el sistema produce contenido incorrecto con tono de certeza. Educar en este contexto significa enseñar a leer con lupa, a verificar con método y a desconfiar de la elocuencia sin evidencia.
La respuesta pedagógica no es prohibir herramientas, sino encuadrarlas en un proyecto humanista. La UNESCO propone una aproximación centrada en la persona y por edades, con diseños didácticos y validaciones éticas claras.
Traduzco esa guía así: que la IA entre al aula como instrumento bajo supervisión, no como oráculo; que complemente la práctica docente, no que la sustituya; que eleve la conversación sobre fuentes, sesgos y propósitos, no que la rebaje a atajos. Esa es la diferencia entre delegar nuestro juicio y fortalecerlo.
Existe, además, un desafío informativo que no podemos minimizar. La IA abarata la producción de piezas verosímiles, mas no verdaderas, y acelera su circulación. La literatura reciente advierte que las estrategias tradicionales para detectar y frenar desinformación —visuales, heurísticas o basadas en señales superficiales— pierden eficacia ante contenidos generados por modelos cada vez más pulidos. En otras palabras: el volumen, la velocidad y la personalización han cambiado las reglas del juego y exigen nuevas tácticas de verificación humana y holística. y sistémica.
A la par, emergen datos sobre su presencia en nuestras conversaciones públicas. Un análisis de mensajes en WhatsApp durante procesos políticos en la India (Nature) sugiere que el contenido político generado con IA ya circula a gran escala y que la frontera entre lo auténtico y lo sintético se vuelve, para muchas personas, difícil de distinguir en tiempo real.
Saber esto no busca alarmar; busca preparar mejor nuestras prácticas educativas y cívicas. Aquí la lección para el aula es clara: enseñar qué sabemos, cómo lo sabemos y qué límites tiene nuestro saber, sea humano o algorítmico.
¿Cómo se traduce esto en formación ciudadana crítica? A través de prácticas coherentes y sostenidas. Pedir siempre autoría y trazabilidad: ¿quién lo afirma y dónde puedo ver la fuente primaria? Exigir, ante estas declaraciones, tiempo y contexto: ¿de qué fecha es el dato y en qué condiciones se recogió? Cruzar múltiples miradas antes de opinar: la discrepancia honesta es aliada del aprendizaje, no su enemiga. Y documentar el camino: no solo la conclusión, también los descartes, las dudas y los criterios que llevaron a una decisión. Cuando la evaluación reconoce ese proceso, el estudiante aprende que el rigor no se improvisa.
Hay un componente ético irrenunciable. La velocidad no puede pasar por encima de la dignidad. Frente a temas sensibles —violencia, justicia, salud, menores de edad— el principio es: verificar antes de publicar y proteger a quien podría salir dañado por una exposición irresponsable. El pensamiento crítico no es burocracia; es cuidado. No sólo es objetividad, sino compasión, es decir, comprensión a profundidad. En un entorno que premia la reacción, elegir el tiempo de la razón es un acto de responsabilidad ciudadana.
Quisiera dejar una convicción que guía nuestro trabajo: la IA puede potenciar el aprendizaje si la situamos dentro de un marco de sentido. Nos ayuda a explorar, a simular, a comparar, a escribir mejores primeras versiones. Pero la brújula sigue en manos humanas: fines, valores, evidencias, decisiones.
Lee también: Así es como la IA puede impactar en nuestro pensamiento crítico
En Tecmilenio apostamos por esa síntesis —tecnología con propósito, competencias con ética, innovación con bienestar — para formar personas capaces de pensar por cuenta propia en medio del ruido y de usar las herramientas de su época sin cederles la conciencia.
El futuro no nos pide certezas instantáneas; nos pide criterio. Y el criterio se cultiva. Se cultiva leyendo más allá del titular, dialogando con quien discrepa, contrastando fuentes, corrigiendo cuando nos equivocamos y reconociendo los límites de lo que sabemos. La IA acelera; el pensamiento crítico orienta. Si elegimos orientar con rigor y humanidad, la tecnología será un impulso, no una coartada. Y nuestras y nuestros estudiantes, ciudadanos a la altura de su tiempo.
Jóvenes universitarias se han abierto paso entre el acoso, la falta de oportunidades y el…
El nuevo Centro de Estudios Mexicanos UNAM-América Latina permitirá a estudiantes irse de intercambio y…
Conoce diferentes consejos que pueden ser de mucha ayuda para que los chavos cuiden de…
Por Salvador Moreno Luna, estudiante de la Maestría en Políticas Públicas de la Escuela de…
Una tablet puede ayudarte a equilibrar estudio, creatividad y entretenimiento. Aquí revisamos una que promete…
Estos diplomados del ITAM están a punto de iniciar. ¿Estás listo para reforzar tus conocimientos…