Icono del sitio GU – EL UNIVERSAL

Inteligencia Artificial en la educación: de vuelta a las brechas

Inteligencia Artificial en la educación

Foto: Unsplash

Hoy, diversos estudiantes han hecho de Chat GPT su fuente principal para elaborar trabajos. Con un problema: muchas veces no lo citan e incurren en plagio. Por otro lado, hay personas que no tienen el mínimo acercamiento con una inteligencia artificial (IA). Vaya contradicción la que vivimos. Y que ineludiblemente nos lleva al tema de las brechas. De acceso, uso, apropiación. Pero también de responsabilidad por las decisiones que “están tomando” las inteligencias artificiales.

Pues dentro del universo de la educación, en varias universidades de nuestro país, la IA ya no es solo una promesa futurista, sino que ahora hay diversidad de problemas derivadas de su uso. Esto lo observo en los talleres y clases que imparto, donde cada día hay más casos desbordados del uso deshonesto en herramientas como Chat GPT. Por lo que, sin duda, en esta compleja realidad social, aún hay muchas brechas por dialogar y resarcir.

También lee: Guiando la integridad académica: un manual ético para la IA en educación

Al respecto, Alejandro González espeta: “De acuerdo con el Instituto Nacional de Estadística y Geografía (INEGI) y el Instituto Federal de Telecomunicaciones (IFT), en 2022 había 93.1 millones de personas usuarias de internet en México, lo que representó el 78.6 por ciento de la población de 6 años o más. Esto fue un aumento de 4.5 por ciento más de usuarios que en 2021 (…) Bueno, pues la cifra de personas conectadas que arroja el INEGI nos muestra que aún hay alrededor de 32 millones de personas que no tienen acceso a la conectividad. Pero lo anterior es sólo una referencia y contexto para decirles que la brecha que la Inteligencia Artificial puede generar no es la de falta de conectividad, sino la de conocimiento.”

En este orden de ideas, resulta ineludible pensar, una vez más, en estudios que ya se han hecho previamente con otras tecnologías, pero que al mismo tiempo precisan una investigación particularizada en sociedades informacionales generativas (lo que envuelve a las IA´s).

Por lo que, necesitamos volver a pensar las brechas de acceso, uso y apropiación sobre las ideas de autoras como Delia Crovi y Alma Rosa Alva, quienes ya habían problematizado este hecho tiempo atrás. Así que, no basta con tener acceso. Por lo que es necesario además del acceso, fomentar apropiaciones críticas.

La IA, entre la ética, la apropiación crítica y sus paradojas

Recordemos que las brechas de apropiación implican que las personas han pasado por un uso y acceso de la tecnología. Asimismo, la investigadora mexicana Delia Crovi distingue entre la brecha tecnológica, relacionada al acceso a la tecnología, en donde está presente la infraestructura tecnológica disponible y las condiciones materiales específicas en las que se realiza dicho acceso.

Ahora bien, si pensamos en la inteligencia artificial, se marca una triple brecha; pues hay un carencia de acceso a la tecnología, luego a programas de IA (como Sci Space o Connected Papers), y además inequidades en el acceso a versiones plus de las IA, pues éstas suponen un costo extra.

Ante lo que podemos preguntarnos: ¿Qué habilidades deja de desarrollar alguien que no utiliza la IA? Ante los nuevos GPT´s de programas de paga, ¿de qué manera quedan en desventaja quienes tienen versiones gratuitas, o incluso, aquellos que siguen sin poder acceder?

En el contexto de este debate, se identifica una distinción crucial: la existencia de una brecha cognitiva relacionada con la utilización de la tecnología. Esta brecha se evidencia en la disparidad de habilidades informáticas y el capital cultural que poseen los usuarios. Así, el acceso y la utilización de la tecnología se concretan en su apropiación, entendida como la integración de estas herramientas en las prácticas sociales diarias de los individuos. Este fenómeno introduce una problemática compleja, ya que la apropiación tecnológica está intrínsecamente ligada a los capitales culturales. Sin embargo, no todos los individuos cuentan con oportunidades educativas o entornos sociales que faciliten dicho proceso de apropiación, tal como señala Crovi (2010).

Para nosotros esta idea es clave, pues nos invita a formar y potenciar un pensamiento crítico en derredor de las tecnologías y la IA generativa. Pasar de marcos prohibitivos a escenarios de apropiación con profesores, estudiantes y otras comunidades.

La IA, entre la ética, la apropiación crítica y sus paradojas (2)

Toda vez que el mero acceso a las inteligencias artificiales resulta insuficiente; su verdadero valor reside en la capacidad de integrarlas efectivamente en la vida diaria y las prácticas sociales. Sin esta apropiación, su función se reduce a la de un elemento decorativo en lugar de servir como una herramienta esencial que demanda el ejercicio del pensamiento crítico y la creatividad social. Es crucial, por tanto, abordar esta temática desde las esferas de la educación, la política y la comunicación, para fomentar una utilización más profunda y significativa de estas tecnologías.

Pero aún más, en los últimos estudios que hemos hecho, y discutido en las sesiones del Laboratorio de Inteligencia Artificial para la Investigación Social en la UNAM, hallamos que hoy también se discute la brecha de responsabilidad. Lo que plantea: ¿A quién se va a responsabilizar de las consecuencias del uso de IA? Desde carros automatizados que atropella a transeúntes, hasta trabajos hechos por alguna IA y no por el ser humano.

De acuerdo con los estudiosos Schiff y Rakova, la brecha de responsabilidad se identifica como un problema de “muchas manos”, cuya definición refiere a la distribución confusa de las responsabilidades durante el desarrollo y aplicación de la IA. Luego, se le considera un proceso iterativo de tres dimensiones: 1) Análisis interno: Evaluar posibles daños, riesgos, usuarios y usos de interesados y no interesados (sin limitarse a la privacidad, prejuicios o transparencia). 2) Participación de usuarios y partes interesadas: Relación entre desarrolladores y usuarios para preguntar sobre impactos (psicológicos, económicos, relaciones sociales, trabajo, salud y vida personal). 3) Recopilación de datos: Encuestas, enfoques, grupos, fuentes disponibles públicas o generadas de los resultados del sistema.

Sugerimos que esto tiene que quedar claro en quien ya usa la IA (ciudadanos y usuarios), aunque por las mismas brechas resulta un tema complejo. Y de nuevo emergen interrogantes: ¿Qué perjuicios puede tener la inteligencia artificial además de sus ventajas (pensemos educativa, social y psicológicamente)? ¿Quiénes desarrollan las IA? ¿Cuáles son sus intereses?

Muchas ocasiones, como usuarios no estamos conscientes que la información que hallamos en la IA tiene sesgos, obedece a ciertas bases de datos, y precisa pasar por filtros cognitivos. Es decir, hay todo una cadena de responsabilidades. Por lo que, sin duda, nos sumamos a especialistas que apelan a formar equipos multidisciplinarios para generar y evaluar las consecuencias en el uso de la IA generativa.

Aunado a ello, volvemos a la necesidad de discutir no sólo quién tiene acceso a estas tecnologías, sino también a quién puede utilizarlas de manera que beneficie su inclusión en la sociedad de la información. Además, de dialogar sobre ética y responsabilidad en su uso.

Porque, más allá de proporcionar herramientas ilimitadamente sin análisis crítico, es esencial fomentar una comprensión crítica de estas tecnologías, promoviendo una participación activa y consciente de varios sectores de la sociedad. En suma, una alfabetización digital. Es menester, no sólo comprender las dimensiones técnicas de la brecha; sino también las socioeconómicas y culturales, apuntando hacia soluciones que consideren la complejidad de la interacción humana con la tecnología.

En este contexto, la IA se presenta no como una amenaza, sino como una oportunidad para repensar y remodelar nuestras instituciones educativas y laborales hacia modelos que precisen de un pensamiento crítico. De inicio, trabajemos en políticas públicas que atiendan el problema de las brechas, protocolos educativos que consideren su uso ético, definiciones y aplicaciones de una ética en la IA generativa, talleres de actualización para docentes y estudiantes y demás.

Es fundamental un llamado a la acción para investigadores, educadores, políticos y la sociedad en general. De nuestra parte, seguiremos abordando este tema en próximas columnas. Como se expuso arriba, se trata de un tema para que varias personas hagan de la IA otra fuente de conocimiento.

¿Para qué estudiar un Posgrado?

Comentarios
Salir de la versión móvil