Много фирми използват изкуствен интелект („AI“), алгоритми, софтуер и други форми на технологии, за да вземат решения, свързани със заетостта. Сега работодателите разполагат с набор от компютърно базирани инструменти, които да им помогнат при наемането на служители, наблюдението на изпълнението на работата, определянето на заплащането или повишенията и установяването на реда и условията на работа. Поради това много работодатели разчитат на различни видове софтуер, който включва алгоритмично вземане на решения и AI на различни етапи от процеса на наемане на работа.
Например, някои работодатели използват скенери за автобиографии, които приоритизират кандидатурите, използвайки определени ключови думи, а някои използват софтуер за видео интервюиране, за да оценят кандидатите въз основа на техните изражения на лицето и говорни модели. Освен това някои работодатели използват „виртуални асистенти“ или „чатботове“, които питат кандидатите за работа за техните квалификации и отхвърлят тези, които не отговарят на предварително определени изисквания. В допълнение, някои работодатели използват софтуер за тестване, който създава оценки за „пригодност за работа“ за кандидати или служители по отношение на техните личности, способности, когнитивни умения или възприемане на „културна пригодност“. Други използват софтуер за наблюдение на служителите, който оценява служителите въз основа на техните натискания на клавиши или други фактори, базирани на задачата. Работодателите могат да използват тези инструменти в добронамерен опит да бъдат по-ефективни, да увеличат обективността или да намалят потенциалните ефекти от неявни пристрастия. Използването на тези инструменти обаче може по невнимание да постави в неблагоприятно положение кандидатите за работа и служителите с увреждания и дори може да наруши Закона за американците с увреждания („ADA“).
Съответно на 12 май 2022 г. Комисията за равни възможности за заетост на САЩ („EEOC“) публикува насоки, в които съветва работодателите, че използването на AI и алгоритмични инструменти за вземане на решения за вземане на решения за наемане на работа може да доведе до незаконна дискриминация срещу кандидати и служители с увреждания. Техническата помощ на EEOC обсъжда потенциални капани, за които агенцията иска работодателите да знаят, за да гарантират, че подобни инструменти не се използват по дискриминационни начини. По-конкретно, насоките очертават как съществуващите изисквания на ADA могат да се прилагат към използването на AI при решения, свързани със заетостта, и предлагат „обещаващи практики“ за работодателите, които да помогнат за спазването на ADA, когато използват инструменти за вземане на решения с AI. Това ръководство не е предназначено да бъде нова политика, а по-скоро има за цел да изясни съществуващите принципи за прилагане на ADA и издадени преди това указания.
ADA и аналогичните държавни закони забраняват на обхванатите работодатели да дискриминират квалифицирани служители и кандидати въз основа на известни физически или умствени увреждания и също така изискват от работодателите да предоставят на тези служители разумни приспособления за техните увреждания. Според EEOC, един от най-честите начини, по които използването на AI или други алгоритмични инструменти за вземане на решения от страна на работодателя може да наруши ADA, е ако работодателят не успее да осигури разумно приспособяване, което е необходимо, за да може кандидатът за работа или служителят да бъде оценен справедливо и точно от алгоритъма. Освен това могат да възникнат нарушения на ADA, ако работодател разчита на алгоритмичен инструмент за вземане на решения, който умишлено или неволно „отсява“ лице с увреждане, въпреки че това лице е в състояние да върши работата с разумно приспособяване. Освен това работодателите могат да нарушат ADA, ако използват алгоритмичен инструмент за вземане на решения, който противоречи на ограниченията на ADA за запитвания и медицински прегледи, свързани с увреждания.
Имайки предвид тези проблеми, EEOC идентифицира редица „обещаващи практики“, които работодателите трябва да обмислят, за да помогнат за намаляване на риска от нарушения на ADA, свързани с използването на AI инструменти. По-конкретно, за да се съобразят с ADA при използване на алгоритмични инструменти за вземане на решения, EEOC препоръчва следните най-добри практики:
1. Работодателите трябва да предоставят разумни условия, когато това се изисква по закон, и EEOC препоръчва следните практики, които ще помогнат на работодателите да изпълнят това изискване:
2. Работодателите трябва да намалят шансовете, че алгоритмичните инструменти за вземане на решения ще поставят в неравностойно положение хората с увреждания, умишлено или несъзнателно. Според EEOC работодателите могат да направят това чрез:
3. Работодателите могат също така да се стремят да сведат до минимум шансовете алгоритмичните инструменти за вземане на решения да дадат лоши оценки на лица, които са в състояние да изпълняват основните функции на работата, с разумно приспособяване, ако такова се изисква по закон. Работодателите могат да постигнат тази цел чрез:
4. Преди да приемат алгоритмичен инструмент за вземане на решения, работодателите трябва да поискат от доставчика да потвърди, че инструментът не задава въпроси на кандидатите за работа или служителите, които е вероятно да извлекат информация за увреждане или да търсят информация за физически или умствени увреждания на дадено лице или здраве, освен ако такива запитвания не са свързани с искане за разумно приспособяване.
Тъй като технологиите продължават да се развиват и използването на AI при вземането на решения за заетост става още по-разпространено, EEOC вероятно ще разшири насоките си относно използването на AI от страна на работодателите и как то се пресича както с ADA, така и с други федерални антидискриминационни мерки закони. Както винаги, ще продължим да ви информираме за всяко ново развитие, което може да възникне.