De México a Stanford: el mexicano que enseña a la IA a leer la ley. Imagen: Unsplash
En México, estudiar derecho suele significar aprender a leer leyes que ya eran viejas cuando tus profesores eran jóvenes. Estudiar Ingeniería significa lo contrario: escribir el futuro en líneas de código. Alejandro Salinas decidió hacer ambas cosas con ayuda de la IA.
Hoy, con 24 años, combina ingeniería física, derecho y machine learning en Stanford Law School. Su trabajo no es menor: investiga cómo la inteligencia artificial interpreta la ley, dónde se sesga y, sobre todo, cómo desactivar esas deformaciones antes de que entren en un juzgado.
Su currículum parece armado por un guionista cyber —Meta, conocer a Bill Gates, premios nacionales, Stanford—, pero su origen es doméstico y cotidiano: ver a su mamá atrapada durante meses en un proceso legal que la ley prometía resolver en 90 días. “Todo era mecánico, repetitivo, lento…”, recuerda. “La justicia no sólo es lenta: es programable.”
Alejandro estudió ingeniería física porque quería trabajar en la NASA. Pero entonces sucedió un fenómeno extraño: los problemas jurídicos le empezaron a gustar tanto como los cuánticos. Y luego llegó la anécdota más improbable del derecho tecnológico mexicano: quiso predecir resultados.
Aprendió Python. Se obsesionó. Se metió a un concurso de ciencia de datos de Facebook. Fue finalista. Meta le dio clases de programación y luego una internship donde optimizaba el algoritmo de Reels y Stories.
Entonces pensó, si la IA podía decidir qué video verías a las 11:03 AM, ¿por qué no iba a poder decidir cómo leer un expediente judicial?
Leer también: Alumna del Tec de Monterrey gana hackaton en Singapur con investigación financiera
Cuando regresó a México, en una Semana Tec, construyó un modelo que predecía probabilidades de culpabilidad en casos de feminicidio y estupro. Ganó el primer lugar nacional del INACIPE.
Hoy en Stanford, Alejandro trabaja en uno de los temas más tabú del ecosistema tecnológico: los sesgos raciales de los modelos de lenguaje.
Su hallazgo fue incómodo incluso para quienes trabajan en ética de IA desde hace años: “Cambiar un nombre cambia la respuesta del modelo”, en fatiza. La investigación se realizó en deportes, precios, diagnósticos médicos. Los sesgos seguían allí: incrustados, persistentes, sofisticados.
Pero vino la parte brillante: él y su equipo lograron mapear qué neuronas específicas del modelo se activaban con esos sesgos… y, apagarlas.
La parte menos reconfortante llegó después: los sesgos no están en un solo lugar del modelo. Están distribuidos como migas de pan en una red gigantesca. Reducibles, sí. Borrables del todo, no.
Si los modelos fallan por diversos tipos de sesgos, ¿qué pasa cuando recomiendan tratamientos médicos o sugieren criterios judiciales?
Alejandro ya vio los casos: modelos que asumen que pacientes latinos exageran síntomas, modelos que asignan enfermedades basándose en estereotipos raciales, modelos que favorecen o perjudican a un acusado según su nombre.
Por eso trabaja en algo que suena a Black Mirror, pero que en Stanford se estudia con absoluta seriedad: “persona alignment”, crear un gemelo digital del juez, no para reemplazarlo, sino que para multiplicarlo. “Un segundo tú que piensa como tú… pero no duerme”, señala.
Cuando Alejandro mira a México, ve dos países superpuestos: el primero es el que puede ganar concursos internacionales de tecnología… y el segundo es un país donde abogados aún mandan bicicleteros a revisar notificaciones judiciales.
Nuevo León —dice— es de los más digitalizados a diferencia de otros. Sugiere un contraste: México: expedientes en papel, saturación, plazos ilusorios. Silicon Valley: modelos que analizan millones de documentos en solo unos segundos.
Y en medio, Alejandro suelta la frase que define su tesis: “El Derecho es un código —no lo vemos porque está escrito en español.”
Leer también: UNAM: cuáles son los requisitos de ingreso para los aceptados en SUAyED 2025
Su intuición es simple pero disruptiva: si automatizas lo mecánico, los humanos pueden dedicarse a lo interpretativo. Lo creativo. Lo justo.
Salinas le sugiere a los estudiantes de Derecho en México que “aprendan probabilidad, programación y álgebra lineal. Si no saben cómo funciona un modelo, no podrán regularlo, ni usarlo.”
No se trata de que la IA reemplace a los abogados. Se trata de que los abogados que usan IA reemplacen a los que no la usan.
El derecho del siglo XXI no vivirá solo en libros ni en tribunales. Vivirá en sistemas inteligentes: auditados, corregidos, personalizados, replicados.
Y un mexicano de 24 años —en un laboratorio de Stanford— ya está escribiendo las primeras líneas de este nuevo futuro.
Autor: Juan Pablo Aguilar
En un laboratorio, robots sociales estudian cómo reaccionamos, confiamos y nos incomodamos cuando una máquina…
No estamos rotos, somos personas completas, algunas experimentando depresión, ansiedad o algún otro trastorno mental;…
La UNAM explica qué es el Trastorno Afectivo Estacional, cómo identificarlo y recomendaciones para tratarlo…
¿Sabías que trabajar mientras estudias puede ayudarte a abrir una red de contactos que beneficiará…
Ellos son los estudiantes de la UNAM que representarán a México en el ICPC 2026,…
La tala de árboles no es el único problema ambiental durante Navidad. La UNAM comparte…