De nombreuses entreprises utilisent l'intelligence artificielle ("IA"), des algorithmes, des logiciels et d'autres formes de technologie pour prendre des décisions liées à l'emploi. Les employeurs disposent désormais d'une gamme d'outils informatiques pour les aider à embaucher des employés, à surveiller le rendement au travail, à déterminer les salaires ou les promotions et à établir les conditions d'emploi. Ainsi, de nombreux employeurs s'appuient sur différents types de logiciels qui intègrent la prise de décision algorithmique et l'IA à diverses étapes du processus d'embauche.
Par exemple, certains employeurs utilisent des scanners de CV qui hiérarchisent les candidatures à l'aide de certains mots-clés, et certains utilisent un logiciel d'entretien vidéo pour évaluer les candidats en fonction de leurs expressions faciales et de leur discours. De plus, certains employeurs utilisent des « assistants virtuels » ou des « chatbots » qui interrogent les candidats sur leurs qualifications et rejettent ceux qui ne répondent pas aux exigences prédéfinies. De plus, certains employeurs utilisent des logiciels de test qui créent des scores « d'adéquation à l'emploi » pour les candidats ou les employés en fonction de leur personnalité, de leurs aptitudes, de leurs compétences cognitives ou de leur « adéquation culturelle ». D'autres utilisent un logiciel de surveillance des employés qui évalue les employés en fonction de leurs frappes au clavier ou d'autres facteurs liés aux tâches. Les employeurs peuvent utiliser ces outils dans une tentative bénigne d'être plus efficaces, d'accroître l'objectivité ou de réduire les effets potentiels des préjugés implicites. Cependant, l'utilisation de ces outils peut désavantager par inadvertance les candidats à un emploi et les employés handicapés et peut même violer l'Americans with Disabilities Act (« ADA »).
En conséquence, le 12 mai 2022, la Commission américaine pour l'égalité des chances en matière d'emploi (« EEOC ») a publié des directives informant les employeurs que l'utilisation de l'IA et d'outils de prise de décision algorithmique pour prendre des décisions en matière d'emploi pourrait entraîner une discrimination illégale à l'encontre des candidats et des employés. handicapés. L'assistance technique de l'EEOC aborde les pièges potentiels dont l'agence souhaite que les employeurs soient conscients pour s'assurer que ces outils ne sont pas utilisés de manière discriminatoire. Plus précisément, les directives décrivent comment les exigences existantes de l'ADA peuvent s'appliquer à l'utilisation de l'IA dans les décisions liées à l'emploi et proposent des «pratiques prometteuses» aux employeurs pour les aider à se conformer à l'ADA lors de l'utilisation d'outils de prise de décision basés sur l'IA. Ces directives ne sont pas censées être une nouvelle politique, mais visent plutôt à clarifier les principes existants pour l'application de l'ADA et les directives publiées précédemment.
L'ADA et les lois étatiques analogues interdisent aux employeurs couverts de discriminer les employés qualifiés et les candidats sur la base de handicaps physiques ou mentaux connus, et exigent également des employeurs qu'ils fournissent à ces employés des aménagements raisonnables pour leurs handicaps.Selon l'EEOC, l'un des les moyens les plus courants par lesquels l'utilisation par un employeur de l'IA ou d'autres outils de prise de décision algorithmique pourraient violer l'ADA sont si l'employeur ne fournit pas un aménagement raisonnable qui est nécessaire pour qu'un candidat ou un employé soit évalué de manière juste et précise par l'algorithme. En outre, des violations de l'ADA peuvent survenir si un employeur s'appuie sur un outil de prise de décision algorithmique qui, intentionnellement ou non, "élimine" une personne handicapée, même si cette personne est capable de faire le travail avec un aménagement raisonnable. De plus, les employeurs peuvent violer l'ADA s'ils utilisent un outil de prise de décision algorithmique qui va à l'encontre des restrictions de l'ADA sur les enquêtes et les examens médicaux liés au handicap.
Avec ces problèmes à l'esprit, l'EEOC a identifié un certain nombre de "pratiques prometteuses" que les employeurs devraient envisager pour aider à atténuer le risque de violations de l'ADA liées à leur utilisation des outils d'IA. Plus précisément, afin de se conformer à l'ADA lors de l'utilisation d'outils décisionnels algorithmiques, l'EEOC recommande les meilleures pratiques suivantes :
1. Les employeurs doivent fournir des aménagements raisonnables lorsque la loi l'exige, et l'EEOC recommande les pratiques suivantes qui aideront les employeurs à répondre à cette exigence :
2. Les employeurs devraient réduire les risques que les outils décisionnels algorithmiques désavantagent les personnes handicapées, intentionnellement ou non. Selon l'EEOC, les employeurs peuvent le faire en :
3. Les employeurs peuvent également chercher à minimiser les risques que les outils décisionnels algorithmiques attribuent de mauvaises notes aux personnes capables d'exécuter les fonctions essentielles du poste, avec un aménagement raisonnable si celui-ci est légalement requis. Les employeurs peuvent atteindre cet objectif en :
Alors que la technologie continue de se développer et que l'utilisation de l'IA dans la prise de décision en matière d'emploi devient de plus en plus répandue, l'EEOC développera probablement ses conseils concernant l'utilisation de l'IA par les employeurs et la manière dont elle recoupe à la fois l'ADA et d'autres lois fédérales anti-discrimination. lois. Comme toujours, nous continuerons à vous tenir au courant de tout nouveau développement qui pourrait survenir.