¿Puede un algoritmo despedirlo? Nuevas leyes de IA que protegen a los trabajadores con licencia médica
Usted toma licencia FMLA (Ley de Licencia Familiar y Médica) para una cirugía. Sigue todas las reglas. Cuando regresa, su gerente le dice que su puesto ha sido "eliminado." Lo que nadie menciona es que un sistema automatizado lo marcó como empleado de baja productividad porque contó sus ausencias médicas protegidas en su contra. Esto ya está sucediendo, y tres estados han aprobado nuevas leyes para detenerlo. Esto es lo que necesita saber.
On this page
Cómo la IA ya está tomando decisiones de empleo sobre usted
Si trabaja para un empleador mediano o grande, hay una buena probabilidad de que sistemas automatizados ya estén influyendo en decisiones sobre su carrera. Estas herramientas operan en segundo plano, y la mayoría de los empleados nunca saben que existen.
- Algoritmos de puntuación de asistencia rastrean automáticamente las ausencias y generan "puntuaciones de confiabilidad." Si el sistema no distingue entre la licencia protegida por FMLA y las ausencias injustificadas, su puntuación baja cada vez que va al médico.
- Software de seguimiento de productividad monitorea pulsaciones de teclas, movimientos del ratón, volumen de correos electrónicos y tasas de cumplimiento de tareas. Si toma licencia intermitente por una condición crónica, sus números de rendimiento se ven más bajos que los de sus compañeros, aunque la diferencia se debe completamente a ausencias protegidas.
- Algoritmos de selección para despidos clasifican a los empleados por métricas de desempeño y generan listas recomendadas de despido. Si el algoritmo usa datos de asistencia o productividad que incluyen tiempo protegido por FMLA, perjudica sistemáticamente a trabajadores con discapacidades o condiciones médicas.
- Herramientas de filtrado en contratación filtran currículums y clasifican candidatos antes de que un ser humano los vea. Estos sistemas pueden penalizar brechas laborales causadas por licencia médica, señalar adaptaciones relacionadas con discapacidad en las respuestas de solicitud, o usar indicadores indirectos (como código postal o año de graduación) que correlacionan con el estatus de discapacidad.
El problema no es que los empleadores estén programando estos sistemas intencionalmente para discriminar. El problema es que los algoritmos entrenados con datos históricos reproducirán patrones de sesgo existentes a menos que estén diseñados explícitamente para no hacerlo. Y la mayoría no lo están.
Las nuevas leyes estatales: Colorado, Illinois y California
Tres estados se han adelantado al gobierno federal para regular la IA en el lugar de trabajo. Cada ley toma un enfoque diferente, pero comparten un objetivo común: asegurar que los seres humanos, no los algoritmos, sean responsables de las decisiones de empleo.
La ley de Colorado es la más amplia. Se dirige a "sistemas de IA de alto riesgo" usados en "decisiones consecuentes," incluyendo contratación, despido, promoción y asignación de beneficios.
- Los empleadores deben notificar a los solicitantes y empleados cuando se usa IA antes de tomar una decisión consecuente.
- Si un sistema de IA contribuye a una decisión adversa, el empleador debe explicar el papel de la IA, las razones principales de la decisión, y dar a la persona afectada la oportunidad de corregir datos inexactos en los que se basó la IA.
- Los empleadores deben implementar un programa de gestión de riesgos, realizar evaluaciones de impacto y reportar cualquier discriminación algorítmica descubierta al Fiscal General de Colorado dentro de 90 días.
Illinois enmendó su Ley de Derechos Humanos para hacer que sea una violación de derechos civiles usar IA en reclutamiento, contratación o promoción si la IA discrimina basándose en características protegidas (o usa indicadores indirectos como códigos postales que correlacionan con estatus protegido).
- Los empleadores deben notificar a los empleados cuando se usa IA en decisiones de empleo.
- Las enmiendas al AI Video Interview Act (AIVFA, vigentes en febrero de 2026) requieren consentimiento escrito explícito antes de usar IA para analizar entrevistas en video. Los candidatos no pueden ser descalificados por rechazar el análisis con IA.
- Los candidatos tienen derecho a solicitar revisión humana de su entrevista, y la decisión del ser humano prevalece sobre la recomendación de la IA.
El Consejo de Derechos Civiles de California enmendó la Fair Employment and Housing Act (FEHA, Ley de Empleo Justo y Vivienda) para cubrir explícitamente los sistemas de decisión automatizados (ADS).
- Los empleadores con 5 o más empleados no pueden usar ADS que produzcan resultados discriminatorios, aunque la discriminación sea no intencional.
- Los empleadores son legalmente responsables de resultados discriminatorios incluso si un proveedor externo construyó la herramienta de IA.
- El estado requiere que los empleadores mantengan registros de los datos algorítmicos usados en decisiones de empleo por al menos cuatro años.
Mobley v. Workday: la demanda que podría cambiarlo todo
Presentada en 2023, Mobley v. Workday es una demanda colectiva federal (class action) que alega que las herramientas de filtrado con IA de Workday discriminan a los solicitantes de empleo por raza, edad y discapacidad. El caso ha producido una serie de fallos que están redefiniendo cómo los tribunales tratan a los proveedores de IA:
- Julio de 2024: Un tribunal federal determinó que Workday puede ser responsable como "agente" del empleador. Este fue un fallo importante porque significa que los proveedores externos de IA, no solo los empleadores que usan sus productos, pueden enfrentar demandas directas de discriminación bajo la ley federal.
- Mayo de 2025: Un juez federal otorgó certificación preliminar para una demanda colectiva a nivel nacional bajo la ADEA (Age Discrimination in Employment Act, o Ley contra la Discriminación por Edad en el Empleo) para solicitantes mayores de 40 años que fueron filtrados por el software de Workday.
- Julio de 2025: La clase se amplió para incluir a los solicitantes procesados por las funciones de filtrado con IA "HiredScore" de Workday.
La importancia de este caso va más allá de Workday. Si el tribunal finalmente determina que los proveedores de IA pueden ser responsables de resultados discriminatorios, cada empresa que construya o venda software de contratación necesitará demostrar que sus algoritmos no excluyen sistemáticamente a grupos protegidos, incluyendo personas con discapacidades y condiciones médicas.
Cómo los algoritmos afectan a los trabajadores con licencia
La intersección de la IA y la licencia médica crea un problema específico y peligroso. Así es como funciona:
Un empleador usa un sistema automatizado para generar listas de despido basadas en métricas de productividad y asistencia. El algoritmo no está programado para excluir las ausencias protegidas por FMLA o la licencia médica ordenada por la ADA de sus cálculos. Los empleados que tomaron licencia protegida aparecen como "bajo rendimiento" o "alto riesgo de ausentismo" en los resultados del sistema.
Cuando ocurren los despidos, esos empleados aparecen al principio de la lista de terminaciones. Un gerente revisa la lista, ve las métricas y aprueba las terminaciones sin darse cuenta de que los números fueron sesgados por licencia legalmente protegida.
La EEOC y el Departamento de Justicia también han emitido guías conjuntas tituladas "The Americans with Disabilities Act and the Use of Software, Algorithms, and Artificial Intelligence to Assess Job Applicants and Employees" (La ADA y el uso de software, algoritmos e inteligencia artificial para evaluar a solicitantes de empleo y empleados). Esa guía identifica tres formas principales en que la IA viola la ADA:
Exclusión ilegal
Herramientas de IA que excluyen a candidatos porque una discapacidad les impide cumplir con una métrica algorítmica (por ejemplo, seguimiento de pulsaciones de teclas que penaliza a alguien con discapacidad motora, o análisis de video que señala patrones de contacto visual neurodivergentes).
Falta de adaptación
Los empleadores deben proporcionar adaptaciones razonables para las evaluaciones algorítmicas, incluyendo la eliminación del uso de la herramienta de IA por completo si no puede medir con precisión la capacidad real del candidato para hacer el trabajo.
Preguntas prohibidas
La IA no puede usarse para hacer indirectamente preguntas relacionadas con la discapacidad o realizar exámenes médicos. Las evaluaciones de personalidad o herramientas de análisis de comportamiento que detectan condiciones de salud mental pueden violar esta regla.
Su derecho a la revisión humana
Uno de los cambios más significativos en las nuevas leyes estatales es el derecho a que un ser humano, no un software, tome la decisión final sobre su empleo.
| Estado | Derechos de revisión humana | Fecha de vigencia |
|---|---|---|
| Illinois | Derecho a solicitar revisión humana de evaluaciones de entrevistas en video con IA. La decisión humana prevalece sobre la IA. | Febrero de 2026 |
| Colorado | Derecho a una explicación del papel de la IA en decisiones adversas. Derecho a corregir datos inexactos usados por el algoritmo. | Junio de 2026 |
| California | Los empleadores deben mantener supervisión humana sobre los sistemas de decisión automatizados. Se requiere mantener registros por 4 o más años. | Octubre de 2025 |
Aunque no viva en uno de estos estados, la ley federal aún se aplica. Si un sistema de IA produce un resultado discriminatorio, el empleador es responsable bajo la ADA, Title VII o ADEA, exista o no una ley estatal sobre IA. Las nuevas leyes estatales le dan herramientas adicionales para impugnar la decisión.
Qué hacer si sospecha que un algoritmo lo marcó
Si fue despedido, no fue considerado para una promoción, o no fue contratado, y sospecha que un sistema automatizado jugó un papel, estos son sus próximos pasos:
Pida a su empleador (o ex empleador) una explicación escrita de los factores que llevaron a la decisión. Pregunte específicamente si algún sistema automatizado, algoritmo, herramienta de IA o modelo de puntuación estuvo involucrado. En Colorado, están legalmente obligados a proporcionar esta información para decisiones adversas después de junio de 2026.
Recopile registros de toda la licencia FMLA tomada, solicitudes de adaptación bajo la ADA, ausencias relacionadas con discapacidad, o cualquier otra actividad protegida. Si su asistencia o productividad fue afectada por licencia legalmente protegida, esa documentación es crítica para demostrar que el algoritmo usó datos contaminados.
Dependiendo de su situación, puede presentar una queja ante el DOL (Departamento de Trabajo, por violaciones de FMLA), la EEOC (por discriminación bajo la ADA o Title VII), o la agencia de derechos civiles de su estado. En Colorado, también puede reportar discriminación algorítmica directamente al Fiscal General. La EEOC ha hecho de la discriminación por IA una prioridad estratégica de aplicación.
Los casos de discriminación por IA son complejos. Un abogado laboral puede ayudarle a solicitar descubrimiento (discovery) sobre los sistemas algorítmicos del empleador, obtener los datos del proveedor mediante citación judicial (subpoena), y construir un caso basado en la teoría de impacto desigual (disparate impact). Muchos abogados laborales ofrecen consultas iniciales gratuitas y trabajan a contingencia.
Preguntas frecuentes sobre la IA y las decisiones de empleo
Sí, pero las nuevas leyes estatales restringen cómo. La Ley de IA de Colorado (vigente en junio de 2026) requiere aviso, explicación y derechos de corrección de datos. Illinois y California tienen protecciones similares. Las leyes federales antidiscriminación también aplican, lo que significa que el empleador es responsable si la IA produce resultados discriminatorios.
Si un sistema automatizado cuenta sus ausencias protegidas por FMLA en su contra, eso constituye interferencia ilegal con la FMLA bajo 29 CFR § 825.220. Su empleador es responsable sin importar si un ser humano o un algoritmo hizo el cálculo. Muchos sistemas de IA no están programados para excluir la licencia protegida, lo que crea una exposición legal seria para los empleadores.
Mobley v. Workday es una demanda colectiva federal que alega que las herramientas de contratación con IA de Workday discriminan por raza, edad y discapacidad. Un fallo de 2024 determinó que Workday podría ser responsable como "agente" del empleador. El caso recibió certificación de demanda colectiva en 2025 y podría establecer un precedente a nivel nacional para la responsabilidad de los proveedores de IA.
En algunos estados, sí. Illinois requiere revisión humana de evaluaciones de entrevistas en video con IA. Colorado requiere explicación y derechos de corrección de datos para decisiones adversas. California requiere supervisión humana de los sistemas de decisión automatizados. Incluso sin una ley estatal específica, las leyes federales antidiscriminación aplican a todas las decisiones de empleo basadas en IA.
Solicite una explicación escrita de los factores detrás de su despido. Pregunte específicamente si algún sistema automatizado o herramienta de IA estuvo involucrado. Documente toda actividad protegida (licencia FMLA, adaptaciones bajo la ADA). Presente una queja ante el DOL o la EEOC. Consulte a un abogado laboral que maneje casos de discriminación por IA.
Conozca sus derechos de licencia
Ya sea que las decisiones sobre su empleo las tome un ser humano o un algoritmo, sus protecciones federales y estatales de licencia siguen vigentes. Nuestra herramienta gratuita de verificación de derechos evalúa su situación en pocos minutos. No se almacenan datos.
Verifique sus derechos ahora