Съединените щати работят за кодифициране на Националната инициатива за изкуствен интелект (AI), която се фокусира върху шест стратегически стълба: подобряване на иновациите в AI, напредване на надежден AI, създаване на нови възможности за образование и обучение чрез AI, подобряване на съществуващата инфраструктура чрез нови технологии, улесняване на използването на AI от федералния и частния сектор за подобряване на съществуващите системи и насърчаване на международна среда, която подкрепя по-нататъшния напредък в AI. През април 2022 г. Министерството на търговията на САЩ и Националният институт по стандарти (NIST) обявиха членове на учредителния Национален консултативен комитет за изкуствен интелект (NAIAC), който ще бъде натоварен със задачата да съветва администрацията на Байдън как да продължи с националното управление на ИИ усилия. На първото си заседание на 4 май 2022 г. NAIAC обсъдиха използването на AI, свързано с конкурентоспособността на САЩ, въпроси, свързани с работната сила и дали има адекватен национален надзор на системите за AI. Взети заедно, целите на националната инициатива за ИИ и създаването на NAIAC ще осигурят стратегически и навременни подходи към проектирането и внедряването на автономни системи, както и допълнително установяване на национални норми.
Никол Търнър Лий
Старши сътрудник - Проучвания на управлението
Директор - Център за технологични иновации
Twitter@nturnerleeСаманта Лай
Научен сътрудник, Център за технологични иновации - The Brookings Institution
Twitter_SamanthaLai_Също толкова важно е, че технологията трябва да бъде подобрена за случаи на домашна употреба като част от това национално усилие, особено в райони с потенциал за създаване или на различно третиране, или на различно въздействие върху федерално защитените и други уязвими групи от населението. Ако САЩ изключат подобни съображения от дискусиите за национално управление, историческите и системни неравенства ще бъдат увековечени, ограничавайки интегрирането на нуждите и жизнения опит на определени групи в нововъзникващите иновации на ИИ. Лошите или неадекватни решения относно финансовите услуги и кредитоспособността, наемането на работа, наказателното правосъдие, здравеопазването, образованието и други сценарии, които предвиждат социална и икономическа мобилност, задушават приобщаването и подкопават демократичните ценности като справедливост и справедливост. Тези и други потенциални вреди трябва да бъдат съчетани с прагматични решения, като се започне с всеобхватна и универсална дефиниция на пристрастието или конкретната вреда, която се разглежда. Освен това, процесът трябва да включва решения за четливи и приложими рамки, които внасят справедливост в проектирането, изпълнението и одита на изчислителните модели, за да осуетят историческата и съвременната дискриминация и други хищнически резултати.
Въпреки че NAIAC е подходящата следваща стъпка в събирането на принос от различни заинтересовани страни в рамките на частния и публичния сектор, както и от университети и заинтересовани страни от гражданското общество, представители на по-приобщаващи и засегнати групи също са от ключово значение за разработването и изпълнението на по-голяма устойчив подход на управление. През 2021 г. Центърът за технологични иновации на института Брукингс (CTI) свика група от заинтересовани страни преди създаването на NAIAC, за да разберат по-добре и обсъдят променящите се позиции на САЩ относно ИИ. Лидерите представляваха национални и местни организации, застъпващи се за различни исторически неравностойни и други уязвими групи от населението.
Целта на диалога на Брукингс беше да се задълбочи в съществуващите федерални усилия за идентифициране на области за по-съзнателен обмен за гражданска защита и защита на равни права. В крайна сметка експертите от кръглата маса призоваха да се обърне повече внимание на предвидените и непредвидените последици от ИИ върху по-уязвимите групи от населението. Експертите също в голяма степен откриха, че всяка национална структура на управление трябва да включва анализи на чувствителни случаи на употреба, които се влошават, когато системите с изкуствен интелект използват данни с лошо качество, бързат да правят нововъведения, без да отчитат съществуващите защити на гражданските права, и не отчитат по-широките социални последици от неравенствата, които насърчи AI системите да дискриминират или наблюдават определени популации с по-голяма точност.
В някои отношения кръглата маса се съгласи с необходимостта от „Декларация за правата за свят, захранван от изкуствен интелект“, рамка, въведена през 2021 г. от Службата за политика в областта на науката и технологиите (OSTP) на Белия дом. Тук OSTP призовава за изясняване на „правата и свободите, които очакваме да спазват управляваните от данни технологии“ и за установяване на общи предпазни мерки за предотвратяване на злоупотреби в САЩ, но без пряка дискусия за това как пристрастията се дефинират в публичното пространство и какво специфичните случаи на употреба трябва да бъдат приоритизирани, САЩ ще отслабнат в защитата и включването на исторически групи в неравностойно положение с развитието на системите за ИИ.
В този блог предлагаме кратък преглед на ключови точки от дискусията на кръглата маса и допълнително изясняваме дефинициите за пристрастие, които бяха споделени по време на кръглата маса. Ние също така показваме сценарии, при които САЩ могат да осъществят промяна, включително в областта на правоприлагането, наемането на работа, финансовите услуги и др. Завършваме с приоритети, които биха могли да бъдат предприети от новосъздадения консултативен комитет и като цяло от федералното правителство, за да се постигне напредък по отношение на приобщаващи, отговорни и надеждни AI системи за по-уязвими групи и техните общности.
Определяне на пристрастия към ИИ
За начало САЩ се нуждаят от общо разбиране за ИИ и свързаните с него проблеми, които може да генерира, което е важно в пространство, където значенията могат да бъдат двусмислени и в някои случаи фрагментирани. Националната инициатива за изкуствен интелект определи надеждния ИИ като подходящо отразяващ „характеристики като точност, обяснимост, интерпретируемост, поверителност, надеждност, устойчивост, безопасност [,] . . . сигурност или устойчивост на атаки“, като същевременно „гарантираме, че пристрастията са смекчени“. В по-скорошен доклад NIST дефинира отклонението като „ефект, който лишава статистически резултат от представителност чрез системно изкривяване“. Към тези дефиниции са добавени общи дефиниции, приети сред частния сектор, които приравняват смекчаването на пристрастията към моделите на справедливост. Предишен доклад на Brooking подхожда към дефиницията от по-сравнителна гледна точка, очертавайки пристрастията като „резултати, които системно са по-малко благоприятни за индивидите в рамките на определена група и където няма релевантна разлика между групите, която да оправдава подобни вреди“. Освен това авторите предполагат, че алгоритмичните отклонения в моделите за машинно обучение могат да доведат до решения, които могат да имат колективно, различно въздействие върху определени групи хора, дори без намерението на програмиста да дискриминира.
По номинална стойност дефинициите на САЩ обикновено са широки и донякъде обобщени в сравнение с тези от ЕС, който е позиционирал ИИ според практическите степени на риск. Най-вече Законът за изкуствения интелект на ЕС категоризира използването на ИИ в три различни нива. Тези с неприемлив риск ще бъдат забранени (като например използването на лицево разпознаване за правоприлагането), докато високорисковите системи ще бъдат разрешени, но подложени на контрол, преди да могат да получат достъп до пазара на ЕС (като например AI използвани за наемане и изчисляване на кредитни рейтинги). Междувременно изкуственият интелект с ограничен и минимален риск, като чат ботове с изкуствен интелект и използване на изкуствен интелект при управление на инвентара, ще бъдат предмет на леки задължения за прозрачност. Гражданските и човешките права са включени в определенията, предлагани от Организацията за икономическо сътрудничество и развитие (ОИСР) и други международни органи. ОИСР определя иновативен и надежден ИИ като тези, които включват: зачитане на правата на човека и демократичните ценности; определяне на стандарти за приобщаващ растеж; ориентирани към човека ценности и справедливост; прозрачност и обяснимост; здравина, сигурност и безопасност; и отчетност. В сравнение със САЩ, международните субекти са възприели по-проактивен и може би забранителен подход за определяне на пристрастието, за да осигурят общ консенсус относно вредите, които се разглеждат.
Въпреки че участниците в кръглата маса нямаха пълен консенсус относно най-често приетата дефиниция на пристрастия към ИИ, те предложиха перспективи за резултатите, които трябва да бъдат допълнително проучени, особено тези, които изглежда се сблъскват с обществения интерес и справедливостта. Като цяло, разнообразието и включването се третират като последващи мисли при разработването и изпълнението на AI и се маркират, когато системите се объркат, което води до бързи поправки, които не адресират широчината на такива вредни технологии. Експертите от кръглата маса споделиха още, че повечето отклонения възникват в следствие на лошо качество на данните, за което ще стане дума по-нататък в блога. Експертите също така посочиха липсата на неприкосновеност на личния живот в тази технологична ера, което продължава да прави маргинализираните групи по-уязвими за ненамалено събиране на данни без тяхно знание. Накратко, участниците в кръглата маса установиха, че пристрастията на ИИ отразяват по-големи системни проблеми на обществена дискриминация, лошо качество на данните и липса на защита на поверителността на данните. Беше споменато и как липсата на разнообразие на работната сила в компютърните науки и науките за данни възпрепятства по-приобщаващите подходи.
Тези фактори, споделени по време на кръглата маса, в голяма степен подкрепят защо САЩ се нуждаят от по-фокусирани насоки за това как да постигнат приобщаващ, справедлив и справедлив ИИ. Администрацията на Байдън вече е съсредоточила справедливостта сред федералните инициативи, включително ИИ. Изпълнителна заповед 13985, Насърчаване на расовото равенство и подкрепа за необслужвани общности чрез федералното правителство, нарежда на Министерството на отбраната на САЩ да напредне в справедлив AI чрез „инвестиране в отговорно развитие на AI в цялата агенция и инвестиране в развитието на по-разнообразна работна сила за AI, включително чрез партньорства с исторически чернокожи колежи и университети (HBCU) и институции, обслужващи малцинствата (MSI).“ Предишната администрация даде текущ старт на управлението на AI, когато се потопи в дискусии и стратегии за това как федералните агенции могат да използват трансформативните способности на AI. Комисията за равни възможности за заетост (EEOC) започна този процес в собствената си работа, фокусирана върху смекчаване на несъответствията в управляваните от AI инструменти за наемане на хора с увреждания. И все пак трябва да се направи повече в САЩ, за да се приеме категорично съществуването на пристрастия към онлайн данните и да се премахнат областите за промяна.
Червено знаме, случаи на употреба
Фактът е, че ако федералното правителство сгреши в идентифицирането и смекчаването на пристрастията, това ще подкопае доверието в ефикасността на автономните системи, особено сред обикновените граждани, чиито животите стават все по-зависими от тях. По-долу са някои от случаите на употреба в жилищното настаняване, наемането на работа, наказателното правосъдие, здравеопазването, финансите, политическата дезинформация и разпознаването на лица, които вече предизвикват тревога поради ограничен надзор.
ИИ и жилища
Америка има дълга история на расистки жилищни и кредитни политики, активирани от расистки политики, включително Закона за изселването на индианци, Закона за робите-бегълци, Закона за репатрирането и др. Днес пристрастията в оценките на жилищата и одобренията на заеми продължават да създават системни предизвикателства при кандидатстването за ипотека и собствеността, тъй като наредбите за зониране и червеното очертаване водят до големи пропуски за чернокожите кандидати. Докато закони като Закона за справедливо жилищно настаняване от 1968 г. и Закона за равните възможности за кредитиране от 1974 г. предотвратяват масовата дискриминация в областта на жилищата, дискриминацията изобилства с ИИ, който създава още по-голяма прецизност в насърчаването на неравенството. Установено е, че автоматизираните системи за ипотечно кредитиране таксуват чернокожите и латиноамериканските кредитополучатели значително по-високи цени за ипотечни кредити, при разлика от приблизително 800 милиона долара годишно. Междувременно онлайн кредиторите следват тенденциите на дискриминация, установени от кредиторите лице в лице, кумулативно отхвърляйки общо 1,3 милиона кредитоспособни черни и латиноамерикански кандидати между 2008 г. и 2015 г. Докато някои твърдят, че одобренията, базирани на приложения, са показали, че са 40% по-малко вероятно да предлага по-високи ипотечни лихви за цветнокожи кредитополучатели и да не отхвърли молбата на дадено лице само въз основа на тяхната раса, технологията все още насърчава различията, когато става дума за оценки на съществуващи собственици, което води до това, че домовете в мнозинството чернокожи квартали се оценяват за 23% по-малко от имоти в предимно бели квартали – дори с технологията.
ИИ и наемане
С годините все повече компании използват ИИ за намаляване на оперативните разходи и повишаване на ефективността при наемане. Въпреки това, тези системи не са отделени от разликите, които мъжете и жените изпитват на работното място, и алгоритмите за наемане са показали, че благоприятстват белите хора пред цветнокожите. Например, проучване установи, че насочени реклами във Facebook за касиери в супермаркети са били получени от аудитория, която е 85% жени, докато работни места в таксиметрови компании са били показвани на аудитория, която е 75% чернокожа. В друг случай Amazon отмени алгоритъм за наемане, защото отхвърли кандидатки от женски пол или каквато и да е автобиография, в която се посочват дейности на жени; алгоритъмът беше основно обучен върху предимно мъжки набор от данни от инженери. Към тези примери за AI при наемане на работа е добавено използването на технология за разпознаване на емоции (ERT) за оценка на кандидатите по време на процеса на наемане. Изследванията са установили, че чернокожите и испаноговорящите мъже са пропускани за работа, след като са били предварително проверени от такива инструменти за ERT. Непропорционално отрицателните резултати, генерирани от AI, доведоха до тяхната дисквалификация в началото на процеса на наемане.
ИИ и наказателно правосъдие
Историята на пристрастни и дискриминационни закони засили расизма в системата на наказателното правосъдие, която непропорционално контролира и затваря хората с ниски доходи и цветнокожите. Черните хора са затворени пет пъти повече от белите хора. И въвеждането на AI в това пространство само създаде допълнителен извършител на несправедливости в системата. Алгоритъмът PATTERN, създаден от Министерството на правосъдието като част от Закона за първата стъпка, беше използван за прогнозиране на рецидивизъм и съкращаване на наказателни присъди въз основа на добро поведение. И все пак е доказано, че алгоритъмът проявява пристрастия към цветнокожите, предсказвайки свръхрецидивизма сред затворниците от малцинствата в проценти от два до осем процента в сравнение с белите затворници. Други алгоритми за оценка на риска показват подобни отклонения, като например алгоритъма COMPAS, който е бил използван в щатите Ню Йорк, Уисконсин, Калифорния и др. Статия на ProPublica установи, че чернокожите хора са два пъти по-склонни да бъдат етикетирани като високорискови, но не и повторно престъпление, отколкото белите хора, докато белите хора са по-склонни да бъдат етикетирани като нискорискови, но след това да извършат повторно престъпление. Такива инструменти за оценка на риска се използват широко в системата на наказателното правосъдие, от първоначалното осъждане до определянето на предсрочно освобождаване, изостряйки съществуващите пристрастия в системата с малко надзор.
ИИ и здравеопазване
Доказано е също, че използването на ИИ в здравеопазването изостря социалните неравенства. Алгоритъм, използван за определяне на разположението на списъка за трансплантация, има расов коефициент, който поставя чернокожите пациенти по-ниско в списъка от белите пациенти, въпреки че чернокожите американци са значително по-склонни от белите американци да имат бъбречна недостатъчност. Междувременно алгоритъм, използван от болниците за прогнозиране на пациенти, нуждаещи се от последващи грижи, идентифицира група пациенти, която се състои само от 18% черни пациенти и 82% бели пациенти, когато вместо това цифрите трябваше да следват разделяне почти 50/50. Трябва да се отбележи, че изкуственият интелект, създаден за откриване на рак на кожата, е тестван основно върху бели пациенти и не успя да постави точна диагноза на пациенти с по-тъмна кожа. Много от тези въпроси за живота и смъртта са оставени на произвола на пристрастната технология, влошавайки съществуващите неравенства в здравето, пред които са изправени цветнокожите.
ИИ и финансови услуги
Използването на ИИ във финансовите системи поддържа допълнителни пристрастия. Някои FinTech алгоритми поддържат модели на кредитиране, за които е известно, че таксуват латиноамериканските кредитополучатели със 7,9 базисни пункта и афро-американците с 3,6 базисни пункта повече за закупуване и рефинансиране на ипотеки. Докато изследователите са установили, че FinTech дискриминира 40% по-малко от кредиторите лице в лице, исторически маргинализираните общности продължават да бъдат непропорционално засегнати. Съществува и проблемът с невидимостта на кредита, от който страдат 44 милиона американци, тъй като са „изключени от основните финансови услуги и следователно нямат кредитна история“. Тъй като FinTech не може да оцени бъдещото поведение при вземане на заеми или кредит сред тези групи поради липсата на данни, те все още са засегнати от различията в богатството в САЩ, които ограничават финансовата независимост.
ИИ и политическа дезинформация
Неограниченото събиране на данни, съчетано с използването на изкуствен интелект в алгоритмите на социалните медии, даде възможност на лошите актьори да разпространяват дезинформация, насочена към маргинализирани групи. По време на президентските избори в САЩ през 2016 г. руски агенти се възползваха от социалните медии, за да се насочат към чернокожите, като разпространяваха съобщения, целящи да подстрекат расови конфликти и да обезсърчат чернокожите да отидат до урните. Потискането на гласоподавателите онлайн, извършвано чрез подвеждаща информация за присъствието на правоохранителните органи на избирателните места или разпространението на невярна информация за гласуване, се използва за насочване към расови малцинства и предотвратяване на гласуването им. Политическата дезинформация застрашава гражданските права на расовите малцинства, издигайки бариери пред пълното им участие в американската демокрация.
Технологии за лицево разпознаване
Много от споменатите по-горе случаи на употреба разчитат на технологии за разпознаване на лица и лицево разпознаване, което има технически недостатъци, когато става въпрос за идентифициране и класифициране на различни обекти. В системите на правоприлагането или наказателното правосъдие използването на неточни технологии за разпознаване на лица (FRT) доведе до множество неправомерни арести, засягащи непропорционално чернокожото и латиноамериканското население. FRT също доведе до подобни зловещи последици, когато се прилага за наблюдение на обитатели на обществени жилища, чийто достъп до апартаменти е продиктуван от резултатите от FRT.
Дълбочината и широчината на пристрастията към ИИ налагат необходимостта от принципни насоки и решения от федералното правителство. Освен това цифровата конкурентоспособност не може да бъде напълно реализирана в САЩ без рамка, която проактивно се справя с тези и други постоянни вътрешни предизвикателства, ограничаващи приобщаването на нововъзникващите технологии. Но преди да предложат няколко предложения за това как САЩ могат проактивно да се справят с онлайн пристрастията, участниците в кръглата маса подчертаха и два допълнителни елемента, които изострят пристрастията към ИИ – качеството на данните и разнообразието на работната сила.
Травматизирани данни
Съществуващите данни документират исторически несправедливото отношение и недостатъчното представяне на исторически маргинализирани общности. Например, някои реклами за набиране на работа предполагат, че цветнокожите или жените са по-малко квалифицирани, тъй като са по-малко представени в работната сила в сравнение с масовото население или белите мъже. Нито едно от тези предположения не отчита по-големите и по-широки обществени фактори и несправедливости в образованието и пазара на труда, които затрудняват равноправното участие на жените или цветнокожите на пазара на труда. По същия начин жилищните заеми за чернокожите и кафявите общности обикновено са непропорционално по-високи в резултат на десетилетия на дискриминационни жилищни закони и червена линия. В работата си активистът по данни в Университета на Вирджиния и криминологът Рене Къмингс нарича тези несъответствия „травма на данните“, тъй като те емулират историческото наследство, което се вписва в съществуващи набори от данни и се показва в алгоритмите за машинно обучение. И тъй като тези нюанси са тясно свързани с обществото, в което живеем, данните стават по-трудни за разграничаване от тези изрични и несъзнателни предположения. Когато се включат в AI модели, травмата на данните се пренася и нанася на бъдещите поколения, върху които се използват моделите сред множество случаи на употреба, които определят социалната мобилност, икономическата справедливост и дори гражданските права.
Разнообразие на работната сила
Друго важно съображение, повдигнато от участниците в кръглата маса на Brookings, е необходимостта от разнообразие на работната сила в ИИ. Facebook и Google имат номинално представителство на жените в своя изследователски екип съответно 15% и 10%, според AI Now Institute. Тези цифри са още по-ниски за техническите работници. Само 2,5% от работната сила на Google са чернокожи, а цифрите във Facebook и Microsoft са само 4%. Тези проблеми надхвърлят набора от таланти, тъй като „работниците в технологичните компании изпитват дълбоки проблеми с културата на работното място, асиметрията на властта, тормоза, изключващите практики на наемане, несправедливото възнаграждение и токенизацията, които ги карат да напускат или изобщо да избягват да работят в сектора на ИИ. ” Липсата на разнообразие в технологичните пространства означава, че алгоритмите за машинно обучение и други автономни системи се разработват без жизнения опит, необходим за предотвратяване на лошо третиране на данни или създаване на много по-добри продукти или услуги.
Как САЩ трябва да дадат приоритет на увеличените равни възможности в AI
Връщайки се към това, което САЩ правят сега, новосъздаденият NAIAC създаде пет работни групи по време на първата си среща, която включваше: лидерство в надежден AI , лидерство в научноизследователската и развойна дейност, подкрепа на работната сила в САЩ и предоставяне на възможности, лидерство в конкурентоспособността и международно сътрудничество. В допълнение, те също създадоха подкомисия по изкуствен интелект и правоприлагане, натоварена със задачата да разследва проблемите на пристрастията и сигурността на данните. Въпреки че е комерсиално фокусирано, създаването на подгрупите сигнализира за ангажимента на администрацията към ориентирания към човека ИИ и в борбата със съществуващите пристрастия, често срещани в системите за ИИ. ИИ, ориентиран към човека, се стреми да осигури справедливо и отговорно използване на технологиите, като същевременно отчита как изричните пристрастия оформят съществуващите технологии.
Свързано съдържание
Прозрачността е най-добрата първа стъпка към по-добро цифрово управление
Марк МаккартиДекларацията за бъдещето на Интернет е за колебливи демокрации, а не за Китай и Русия
Alex EnglerИнституционализиране на анализа на данни в германското федерално управление
Алекс ЕнглерВъпреки че тези аспекти на NAIAC могат потенциално да се сблъскат с справедливото и честно третиране на различни групи, все още съществува необходимостта от активисти за граждански права и интердисциплинарни експерти да бъдат част от тези дискусии. Ние също така предлагаме набор от допълнителни препоръки за информиране на по-широките консултативни и подгрупи, докато проектират и изпълняват национална стратегия за управление на ИИ.
1. САЩ трябва да предприемат актуализация на съществуващия режим за граждански права, за да определят тълкуемостта на управлението на ИИ.
От години активистите за граждански права се борят за равен достъп до жилища, заеми, работни места и др. В предишните примери е сигурно, че пристрастията на AI ще възпрепятстват този напредък и ще оставят хората с малко средства за отстраняване на вредни и измамни практики. Сегашният режим на гражданските права е зле оборудван и остарял. Например Законът за справедливо жилищно настаняване забранява дискриминацията при жилищно настаняване въз основа на раса, увреждане, пол и други фактори. Въпреки това, той не отчита дискриминационните алгоритми, които позволяват на наемателите да търсят хора от определени раси и етноси. Федералните закони, предотвратяващи сплашването на избирателите, не успяват да се справят с онлайн дезинформацията, която се стреми да отчужди и изплаши цветнокожите общности. В момента също е трудно за хората да завеждат дела срещу технологични компании. Тъй като преживяванията на хората в социалните медийни платформи са различни, за един човек е трудно да установи дали информацията, която гледа, е различна от другите, особено тази, която е хищническа. Сред дългия списък от законодателни действия в Конгреса вече има законопроекти, които се стремят да се борят с цифровите вреди. Това включва законодателство, ограничаващо целенасочената реклама, като Закона за забрана на рекламата за наблюдение, и законодателство, целящо да предотврати онлайн сплашването на избирателите, като Закона за измамни практики и предотвратяване на сплашването на гласоподаватели от 2021 г. Но усилия за актуализиране на нашия режим за граждански права и отвръщане на онлайн вредите ще бъдат неразделна част от защитата на гражданските права на исторически маргинализирани групи. За да се създаде подобрена хармонизация около намаляването на вредите, оценката на съществуващия режим на граждански права е отправна точка към по-отговорен ИИ и по-голяма справедливост.
2. САЩ трябва да идентифицират и определят конкретни случаи на употреба за препоръки за по-строг надзор и потенциални регулаторни действия, включително във финансовите услуги, здравеопазването, заетостта и наказателното правосъдие.
Когато обмисляте риска от ИИ, е важно да очертаете и посочете кои случаи на употреба изискват строг надзор и регулаторни действия. NAIAC може да бъде средство за използване на рамки, подобни на Закона за изкуствения интелект на ЕС, като уточнява и класифицира случаи на употреба с различни степени на риск, за да определи подходящите нива на регулиране. Има и множество агенции, които работят за борба с пристрастията на ИИ в различни сектори, като тази, спомената по-рано в Комисията за равни възможности за заетост на САЩ (EEOC). Наскоро NIST също публикува насоки за управление на предубедения AI. За да продължите, трябва да има инвентаризация, оценка и координация на зоните с червени флагове между правителствените агенции, които да подтикнат към дискусии както за средствата за защита, така и за потенциалните мерки за изпълнение за директно справяне със сценарии с по-висок риск, които изключват равните възможности за уязвимите групи от населението.
3. САЩ трябва да задълбочат своя подход на участие към управлението на ИИ, който насърчава публичния принос, най-добрите практики в индустрията и оповестяването на потребителите.
Управлението на ИИ трябва да бъде демократизирано, за да позволи принос отвъд технолозите. Трябва да се създаде рамка за участие, за да се позволи публичен принос, да се включат най-добрите практики в индустрията и да се предоставят оповестявания на потребителите, за да се увеличи максимално прозрачността за тези, които са най-засегнати от тези нови технологии. Одитите и оценките на въздействието също ще бъдат от ключово значение при въвеждането на нови технологии, като се съсредоточават по-специално върху определянето на различни въздействия и качеството на използваните данни и съхраняваната документация. Особено чувствителните алгоритми – особено тези, използвани от федералното правителство – трябва да се подлагат на редовни прегледи, за да се оцени тяхното дългосрочно въздействие върху по-уязвимите групи. И приносът на потребителите трябва да бъде по-ценен. При статуквото има ограничени средства за потребителите да предоставят предложения и обратна връзка на тези, които създават алгоритми. Например, създаването на регулаторни пясъчни кутии и вериги за обратна връзка с потребителите за модели на ИИ, които представляват значителен риск за гражданите и потребителите, може да се използва в съвещателни, обезсърчаващи усилия.
4. За да постигнат истинска справедливост, САЩ трябва да обмислят и използват антирасистки подход към системите за изкуствен интелект от проектирането до внедряването.
Голяма част от грубостта на пристрастията към изкуствения интелект произтичат от съществуващите системни неравенства, които се коренят в расизма. Въпреки че диверсификацията на екипите за разработчици, внимателното изследване на пристрастията към данните и широко разпространеният потребителски принос ще помогнат за изравняване на условията в дизайна и изпълнението на AI, това не винаги е достатъчно. Разбирането и идентифицирането на отклонението е неразделна част от ефикасността и полезността на алгоритъма. Ето защо САЩ се нуждаят от най-добри практики, които поддържат целостта на процесите на алгоритмичен дизайн и изпълнение и избягват явните дискриминационни и хищнически практики, които са институционално вродени. Това, което кръглата маса разкри, е, че е необходима антирасистка рамка, която подтиква политиците да осигурят приобщаващо представителство чрез справяне със структурните предизвикателства, което включва ограничени изследователски дарения за институции, обслужващи малцинствата, включително HBCU, HSI и дори обществени колежи, или наличие на парапети на Системи с изкуствен интелект, които потенциално възпроизвеждат неравнопоставености на живо, като например в приложения за правоприлагане. Основната тема тук е, че ИИ няма да отмени историческите и структурни обстоятелства, довели до такива различия, ако те не бъдат умишлено признати и адресирани.
Заключение
Националният диалог за управление на ИИ предоставя възможност да се определят нови норми за това как САЩ се справят с пристрастията на ИИ. Провеждането на дискусии по важни въпроси създава възможност за изясняване на дефинициите и въвеждане на промени в политиката със значима вероятност за смекчаване на пристрастията и приближаване към по-приобщаваща икономика. Докато процесът започна с администрацията на Тръмп, Белият дом на Байдън може да го завърши, като вземе предвид нетехническите съображения на нововъзникващите технологии.
Отвъд тези важни съображения, заинтересованите страни в тези нововъзникващи технологии трябва да проследят корените на проблемите, които се крият в липсата на разнообразие в дизайнерските екипи и данни, които продължават да носят травма и дискриминация от миналото. Чрез преразглеждане на съществуващия режим за граждански права, очертаване на случаи, които се нуждаят от надзор, насърчаване на по-демократично участие в управлението на ИИ и включване на антирасистки принципи във всеки аспект на процеса на проектиране на алгоритми, е възможно със съвместните усилия на технологичните компании , правителствени институции, групи за граждански права и граждани, съществуващите пристрастия към ИИ могат да бъдат обърнати. По-важното е, че защитите за исторически маргинализирани групи могат да бъдат по-добре интегрирани в националното управление, доближавайки САЩ до целите за равни възможности за всички в цифровата ера.
Авторите са благодарни за приноса на експертите от срещата през 2021 г. и дискусиите след официалната среща.
Amazon, Apple, Facebook, Google и Microsoft са общи, неограничени дарители на института Брукингс. Констатациите, тълкуванията и заключенията, публикувани в този материал, са единствено на авторите и не са повлияни от каквото и да е дарение.