Un grupo de especialistas en tecnología y derechos digitales advirtió que los modelos de inteligencia artificial utilizados por empresas mexicanas podrían reproducir sesgos que impactan directamente en decisiones financieras, laborales y de acceso a servicios. La discusión se intensifica mientras el país avanza en nuevas leyes de protección de datos e IA.
Casos recientes en el sector financiero evidenciaron que algunos algoritmos reducen o niegan líneas de crédito basados en patrones no transparentes y potencialmente discriminatorios. “Cuando una máquina toma decisiones sin explicación, el riesgo para el usuario es enorme”, afirmó la abogada en derechos digitales, Natalia Castañeda.
Los especialistas insisten en que las empresas deben realizar auditorías de impacto algorítmico, una práctica que ya se utiliza en Europa y Estados Unidos para detectar sesgos y corregir modelos antes de su implementación masiva. En México, solo el 12% de los corporativos aplica este tipo de evaluaciones internas.
Las implicaciones también alcanzan el ámbito laboral. Plataformas de reclutamiento impulsadas por IA podrían descartar candidatos por variables irrelevantes como el barrio en el que viven, su historial académico incompleto o patrones lingüísticos interpretados de forma incorrecta por el modelo.
Frente a estos riesgos, organismos internacionales recomiendan adoptar principios de explicabilidad, trazabilidad y supervisión humana constante. La falta de transparencia en los sistemas automatizados podría derivar en sanciones regulatorias y demandas por prácticas discriminatorias.
Las autoridades mexicanas ya analizan incorporar estos elementos en un nuevo marco normativo que definirá el uso responsable de algoritmos en el país. De aprobarse, México se convertiría en uno de los primeros países de América Latina en exigir auditorías obligatorias para sistemas de IA utilizados en sectores críticos.
