Aumenta la discriminación en las empresas por el uso de inteligencia artificial en contrataciones

📉 Un estudio reciente, realizado por la empresa Buk en países como Colombia, Chile, Perú y México, revela que un 75% de las empresas enfrentan serias dificultades para encontrar personal calificado. En respuesta, muchas organizaciones recurren a sistemas de inteligencia artificial (IA) para optimizar los procesos de selección, pero estas herramientas no siempre operan de forma equitativa, amplificando sesgos y prejuicios existentes.

🧠 Uno de los casos más conocidos es el sistema de selección de Amazon en 2017, que priorizaba candidatos masculinos, evidenciando cómo la IA puede replicar patrones de discriminación de género. Investigaciones de la Universidad de Cambridge han advertido que, en lugar de fomentar la diversidad, estas tecnologías pueden promover la homogeneidad al buscar “candidatos ideales” basados en perfiles históricos sesgados.


⚠️ ¿Cómo perpetúa la IA los sesgos en las contrataciones?

  1. Entrenamiento con datos históricos: Si los datos usados para entrenar a la IA priorizan candidatos masculinos o de un grupo social específico, estos sesgos se replicarán.
  2. Sesgos algorítmicos: La falta de diversidad en los algoritmos puede excluir a ciertos grupos injustamente.
  3. Subrepresentación en datos: Minorías raciales y mujeres suelen estar infrarrepresentadas, lo que reduce sus oportunidades de ser seleccionados.

💡 Estos sesgos no solo afectan la equidad, sino que limitan la diversidad en las empresas, un factor esencial para la innovación y la competitividad global.


🛠️ Cómo las empresas pueden mitigar el problema

🌍 Diversidad y colaboración: Los departamentos de recursos humanos deben trabajar de la mano con los equipos tecnológicos para identificar y corregir posibles sesgos. La recopilación de datos representativos y la formación continua de los equipos son esenciales para garantizar un uso ético de la inteligencia artificial.

🔒 Privacidad y experiencia: Además, el manejo ético de la IA requiere experiencia en el uso de estas herramientas y garantías de privacidad para los datos de los candidatos.


🌟 Un dato curioso

¿Sabías que el primer caso documentado de sesgo en IA ocurrió en la década de los 80? Un programa desarrollado por una universidad estadounidense descartaba automáticamente a las mujeres para puestos científicos debido a datos históricos que vinculaban esas posiciones con hombres. ¡El problema lleva décadas, pero sigue siendo un desafío en plena era tecnológica!