La investigadora Saiph Savage advierte que los algoritmos de IA aplicados en procesos de contratación pueden discriminar a comunidades indígenas y candidatos con perfiles distintos a los de Estados Unidos.
En entrevista con Pamela Cerdeira para MVS Noticias, Saiph Savage, investigadora de la UNAM y de la Northeastern University, explicó los riesgos de utilizar inteligencia artificial (IA) en procesos de contratación sin considerar la diversidad cultural.
La especialista expuso que los algoritmos están diseñados principalmente para contextos como el de Estados Unidos, lo que genera desventajas para candidatos de otras culturas. “Los algoritmos de inteligencia artificial están optimizados para entender la cultura de países como Estados Unidos y no para las características culturales de otros países”, señaló.
Este sesgo puede traducirse en exclusiones injustas: personas de comunidades indígenas o con nombres poco comunes pueden ser descartadas automáticamente, aun cuando cuenten con experiencia y logros relevantes. “Los algoritmos no reconocen líderes indígenas que han realizado actividades de impacto en su comunidad”, advirtió.
Savage presentó este tema recientemente en la UNESCO, subrayando la necesidad de desarrollar una inteligencia artificial culturalmente consciente, capaz de reconocer trayectorias diversas y no limitar el acceso a oportunidades laborales por criterios de origen cultural.
No te pierdas en vivo a Pamela Cerdeira de lunes a viernes a partir de las 16:00 hasta las 18:00 horas por tu estación favorita 102.5 FM.
















