En California no solo celebramos la innovación tecnológica, también exigimos que avance con justicia. Si estás buscando trabajo o gestionas contrataciones, es clave entender cómo la nueva regulación sobre el uso de Inteligencia Artificial (IA) en procesos de contratación puede afectar tus derechos laborales.
A partir del 1 de octubre de 2025, una nueva norma de la California Civil Rights Council extiende la Ley de Equidad en el Empleo y la Vivienda (FEHA) para abarcar los sistemas de decisión automatizados (ADS, por sus siglas en inglés). Eso significa que si un software decide si recibes una entrevista, promoción o despido, existen límites legales que lo regulan.
🧑💼 ¿Qué se considera sistema automatizado?
Un ADS es un sistema basado en algoritmos, aprendizaje automático o IA que influye en decisiones laborales: selección de candidatos, evaluaciones, entrevistas con análisis de voz o video y orientación de anuncios de empleo.
❌ ¿Qué usos están prohibidos?
- Usar un algoritmo que filtre candidatos por condiciones médicas, discapacidad o restricciones de horario sin considerar adecuaciones justificadas.
- Sistemas que penalizan a persona por rasgos físicos, acento o identidad —por ejemplo, descartarlos en función de expresiones faciales o tono de voz.
- Herramientas que replican patrones de discriminación existentes, como priorizar perfiles demográficamente dominantes.
📋 Requisitos para el uso legal de IA
- Necesidad comercial justificada: debe demostrar que el uso del sistema es relevante para el puesto y no ofrece menos resultados discriminatorios.
- Registro de datos: los empleadores deben conservar datos y criterios utilizados por estos sistemas durante al menos 4 años.
- Responsabilidad ampliada: las empresas también responden por sesgos provocados por proveedores de tecnología que usen en su nombre.
⚖️ ¿Cómo te beneficia como candidato o empleado?
- Mayor control: tienes derecho a ser informado si un sistema automatizado está evaluando tus méritos.
- Transparencia: puedes exigir explicaciones si el sistema te descarta por motivos protegidos, como género, raza o discapacidad.
- Acciones legales: si el uso de IA viola tus derechos (discriminación basada en FEHA), puedes presentar una queja ante el California Civil Rights Department o iniciar una demanda.
En resumen, California marca la pauta en tecnología: si queremos innovar, debemos hacerlo con justicia. En Protector Legal respaldamos tu derecho a una contratación justa y sin sesgos digitales. Si crees que un sistema de selección automatizado te ha afectado de forma injusta, llámanos. Te orientamos y acompañamos para defender tu acceso equitativo al trabajo.