Joy Buolamwini | Foto: cortesía
La IA es muy eficiente para identificar rostros masculinos de tez blanca, pero falla hasta un 35% cuando las personas son femeninas y de piel oscura o con rasgos diferentes a los predominantes en las bases de datos. Esta discriminación ha sido el tema de estudio de Joy Buolamwini, investigadora de IA y autora del libro ‘Unmasking AI: My Mission to Protect What is Human in a World of Machines’.
La conferencista se dirigió en México a los becarios de excelencia académica de la Fundación Telmex-Telcel, durante el evento “México Siglo XXI: Mentes que iluminan el futuro”. Ahí advirtió el riesgo de que exista un sesgo en los sistemas que perpetúen las desigualdades y de no cuestionar la creación de los sistemas actuales, pues podrían replicar estereotipos y profundizar la brecha en diferentes sectores sociales.
Buolamwini explicó a los estudiantes la forma en que inició su tesis cuando era estudiante de posgrado en el Media Lab del MIT. Entonces, descubrió un gran sesgo racial y de género en los servicios de IA de empresas como Microsoft o Amazon, en lo que la autora define como la “mirada codificada”.
Lee también: Universidad Tecnológica de Nuevo Laredo abre laboratorio de IA
“Cuando hablo de la mirada codificada, me refiero a un reflejo del poder para darle forma a la tecnología. ¿Quién decide las prioridades? ¿Qué productos vamos a desarrollar? ¿Qué empresas vamos a crear? ¿Quién va a establecer las preferencias? ¿Quién va a estar ahí de forma predeterminada? Y también los prejuicios que están incluidos en la tecnología.
“Si no sabes nada de México, podrías no incluir a México cuando desarrollas un producto. Esto quiero decir cuando hablamos de la mirada codificada, es decir cuáles son las perspectivas”, explicó a los 10 mil asistentes en el Auditorio Nacional.
Por eso, advirtió que el desarrollo de la IA no puede realizarse con parámetros que amplifiquen la discriminación y los sesgos sociales. Así, son las diferentes entidades como gobiernos, empresas y comunidades quienes deben impulsar modelos equitativos que representen la diversidad humana.
La ponencia de Joy Buolamwini sobre el sesgo algorítmico, en la plataforma de TED, tiene más de un millón de reproducciones; y la metodología de su tesis del MIT ha sido reconocida en más de 40 países.
En su platica a los becarios de la Fundación Telmex Telcel, enfatizó que las personas nunca deben dejar de soñar porque hubo quienes dudaron de su capacidad de entender y aprender de IA. Sin embargo, ella creyó en sí misma y en su capacidad para convertirse en una líder en este tema; incluso, fundó la Algorithmic Justice League (Liga de la Justicia Algorítmica) para crear un mundo con tecnología más equitativa y responsable.
Lee también: Nano Banana, Grok, Copilot o ChatGPT: cuál IA genera mejores imágenes
Respecto a México, Buolamwini destacó que el país tiene la oportunidad de convertirse en un referente regional si decide apostar por un marco de referencia con sensibilidad cultural y tecnologías que incorporen, desde su diseño, la diversidad.
En ese sentido, la tercera ponente en esta edición de México Siglo XXI concluyó que la riqueza cultural del país es invaluable y debe ser considerada para enriquecer a la IA.
Autor: Jorge Arredondo
Conoce los protocolos de seguridad de FES Acatlán y aprende a reaccionar ante percances como…
Combinando modelos matemáticos con cómputo y estadística, la Universidad Panamericana presentó una nueva carrera que…
Aprende a cuidar tu dinero e invertir sin miedo con los cursos gratuitos de la…
Ya conocemos quiénes conformarán la primera generación del taller de guionismo impulsado por el gobierno…
El mundo está cambiando y la enseñanza en economía con el. Así es como la…
Bajo la coordinación de Radio IPN, las emisoras universitarias le dan “voz” a bandas emergentes…