Las herramientas de “bossware” operadas por inteligencia artificial que rastrean de cerca el paradero, las pulsaciones de teclas y la productividad de los trabajadores también pueden ser una violación de las leyes de discriminación, indicó la titular de la agencia estadounidense encargada de hacer cumplir los derechos civiles en los lugares de trabajo.
Charlotte Burrows, presidenta de la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC por sus siglas en inglés), dijo a The Associated Press que la agencia está tratando de educar a los empleadores y proveedores de tecnología sobre el uso de estas herramientas de vigilancia, así como herramientas de IA que agilizan el trabajo de evaluar las perspectivas laborales.
PUBLICIDAD
Y si no tienen cuidado con, por dar un ejemplo, los algoritmos draconianos de control de horarios que penalizan los descansos de mujeres embarazadas o de musulmanes que toman tiempo para rezar, o que permiten que un software defectuoso evalúe a los egresados de universidades para mujeres o históricamente negras, no pueden culpar a la IA cuando la EEOC intervenga.
“No tengo reparo para usar nuestra autoridad de aplicación cuando es necesario”, dijo Burrows. “Queremos trabajar con los empleadores, pero ciertamente no hay una exención a las leyes de derechos civiles dado que se involucran en la discriminación de alguna forma de tecnología de punta”.
La agencia federal publicó su más reciente conjunto de guías el jueves sobre el uso de sistemas automatizados para la toma de decisiones laborales, como a quién contratar o ascender. Explica cómo interpretar una disposición clave de la Ley de Derechos Civiles de 1964 conocida como Título VII que prohíbe la discriminación laboral por motivos de raza, color, origen nacional, religión o sexo, lo que incluye prejuicios contra los trabajadores homosexuales, lesbianas y transgénero.
Burrows dijo que un ejemplo importante involucra a los evaluadores de currículos ampliamente utilizados y si pueden o no producir un resultado sesgado si se basan en datos sesgados.
“Lo que sucederá es que hay un algoritmo que busca patrones que reflejan patrones con los que ya está familiarizado”, dijo. “Será capacitado en datos que provienen de sus empleados existentes. Y si actualmente tiene un grupo de empleados no diverso, es probable que termine excluyendo inadvertidamente a personas que no se parecen a sus empleados actuales”.