De qué trata la norma en California que busca frenar la discriminación laboral causada por IA

De qué trata la norma en California que busca frenar la discriminación laboral causada por IA

La normativa, que entró en vigor el pasado 1 de octubre, busca proteger a los trabajadores de supuesta discriminación por parte de sistemas automatizados.

Enlace generado

Resumen Automático

02/10/2025 16:47
Fuente: Prensa Libre 

El pasado 1 de octubre, en California, entró en vigor una norma que busca proteger a los trabajadores ante supuestos casos de discriminación laboral por el uso de inteligencia artificial u otros sistemas automatizados.

La disposición, anunciada el 30 de junio, fue propuesta por el Consejo de Derechos Civiles de California (CRD) y busca “aportar mayor claridad sobre cómo se aplican las leyes antidiscriminatorias existentes al uso de la IA en decisiones laborales“.

La norma obligaría al sector privado, a agencias de reclutamiento y a proveedores tecnológicos a modificar sus procedimientos internos al momento de tomar decisiones respecto de los trabajadores de cualquier empresa, ya se trate de grandes corporaciones, proveedores tecnológicos o pequeñas y medianas empresas.

El texto establece que toda evaluación basada en un sistema automatizado deberá archivarse durante al menos cuatro años. Además, se deja en claro que toda decisión tomada con un sistema de IA —ya sea para contrataciones, ascensos o despidos— queda bajo la responsabilidad del empleador.

“Estamos orgullosos de actualizar estas normas para proteger mejor a los californianos de la posible discriminación laboral que supone el uso generalizado de los sistemas automatizados de toma de decisiones“, afirma Hellen Hong, integrante del CRD.

De acuerdo con la norma, actualmente los sistemas de inteligencia artificial —los cuales pueden basarse en IA o algoritmos— se utilizan con mayor frecuencia en los entornos laborales, en especial al momento de seleccionar personal para un puesto específico.

Estos sistemas, a pesar de ofrecer varios beneficios, también pueden reproducir “prejuicios existentes y conllevar a resultados discriminatorios“, según el CRD.

“Ya se trate de una herramienta de contratación que rechaza a las candidatas imitando las características existentes de la plantilla masculina de una empresa o de un sistema de publicación de anuncios de empleo que refuerza los estereotipos de género y raza al dirigir los anuncios de cajera a las mujeres y los de taxista a los trabajadores negros“, señala el documento.

El CRD indica que cualquier persona que pudiera verse afectada por una decisión automatizada podrá solicitar a la empresa los registros de datos personales y de procesos automatizados, lo cual será de cumplimiento obligatorio.

TFAIA

El 29 de septiembre, el gobernador de California, Gavin Newsom, firmó una ley pionera que exige que las principales empresas de inteligencia artificial divulguen públicamente sus protocolos de seguridad.

La Ley de Transparencia en la Inteligencia Artificial Fronteriza (TFAIA, en inglés) fue diseñada con base en las recomendaciones del primer informe nacional de California, presentado a inicios de este año por expertos en la materia, tras las crecientes preocupaciones sobre los riesgos que supone la IA.

La ley fue el segundo proyecto regulatorio sobre IA presentado por el senador Scott Wiener, quien el año pasado intentó aprobar una medida más amplia que desencadenó un debate con grandes compañías como Meta y OpenAI, creadora de ChatGPT.

Lea también: El impacto de la inteligencia artificial en las empresas y el futuro de los agentes IA