USA mohou zlepšit svou strategii správy AI tím, že budou řešit on-line předsudky USA mohou zlepšit svou strategii AI governance řešením online předsudků

Spojené státy pracují na kodifikaci iniciativy National Artificial Intelligence (AI), která se zaměřuje na šest strategických pilířů: zlepšení inovací umělé inteligence, rozvoj důvěryhodné umělé inteligence, vytváření nových příležitostí pro vzdělávání a školení prostřednictvím umělé inteligence, zlepšování stávající infrastruktury pomocí nových technologií, usnadnění federálního a soukromého sektoru využití umělé inteligence ke zlepšení stávajících systémů a podpora mezinárodního prostředí, které podporuje další pokroky v oblasti umělé inteligence. V dubnu 2022 Ministerstvo obchodu USA a Národní institut pro standardy (NIST) oznámily členy inauguračního Národního poradního výboru pro umělou inteligenci (NAIAC), který bude mít za úkol radit Bidenově administrativě, jak postupovat s národním řízením umělé inteligence. úsilí. Na svém prvním setkání dne 4. května 2022 NAIAC diskutovalo o používání umělé inteligence týkající se konkurenceschopnosti USA, otázkách souvisejících s pracovní silou a o tom, zda existuje dostatečný národní dohled nad systémy umělé inteligence. Celkově vzato cíle národní iniciativy AI a vytvoření NAIAC zajistí strategické a včasné přístupy k návrhu a nasazení autonomních systémů a dále stanoví národní normy.

Nicol Turner Lee

Senior Fellow – Governance Studies

Ředitel – Centrum pro technologické inovace

Twitter@nturnerlee

Samantha Lai

Výzkumná asistentka, Centrum pro technologické inovace – The Brookings Institution

Twitter_SamanthaLai_

Stejně důležité je, že technologii je třeba vylepšit pro domácí použití jako součást tohoto národního úsilí, zejména v oblastech s potenciálem vytvořit buď rozdílné zacházení nebo nesourodý dopad na federálně chráněné a jiné zranitelné obyvatelstvo. Pokud USA vyloučí takové úvahy z diskusí o národní správě, historické a systémové nerovnosti se udrží, což omezí integraci potřeb a prožitých zkušeností určitých skupin do vznikajících inovací AI. Špatná nebo neadekvátní rozhodnutí týkající se finančních služeb a bonity, náboru, trestního soudnictví, zdravotní péče, vzdělávání a dalších scénářů, které předpovídají sociální a ekonomickou mobilitu, potlačují začleňování a podkopávají demokratické hodnoty, jako je rovnost a spravedlnost. Tyto a další potenciální škody musí být spojeny s pragmatickými řešeními, počínaje komplexní a univerzální definicí zkreslení nebo konkrétní škody, která se má řešit. Dále musí tento proces zahrnovat řešení pro čitelné a vymahatelné rámce, které vnesou spravedlnost do návrhu, provádění a auditu výpočetních modelů, aby se zmařily historické a současné diskriminace a jiné predátorské výsledky.

Zatímco NAIAC je dalším vhodným krokem při shromažďování informací od různých zúčastněných stran v soukromém a veřejném sektoru, jakož i od univerzit a zainteresovaných stran občanské společnosti, zástupci inkluzivnějších a postižených skupin jsou rovněž klíčem k rozvoji a provádění odolný přístup vládnutí. V roce 2021 Brookings Institution Center for Technology Innovation (CTI) svolalo skupinu zúčastněných stran před vytvořením NAIAC, aby lépe porozuměli a diskutovali o vyvíjejících se pozicích USA v oblasti AI. Vedoucí představitelé reprezentovali národní a místní organizace obhajující různé historicky znevýhodněné a jiné zranitelné skupiny obyvatel.

Cílem Brookingsova dialogu bylo ponořit se do stávajících federálních snah o identifikaci oblastí pro záměrnější výměnu za ochranu občanských a rovných práv. Odborníci u kulatého stolu nakonec vyzvali k tomu, aby byla věnována zvýšená pozornost zamýšleným i nezamýšleným důsledkům umělé inteligence na zranitelnější skupiny obyvatel. Odborníci také v drtivé většině zjistili, že jakákoli národní struktura správy musí zahrnovat analýzy citlivých případů použití, které se zhoršují, když systémy umělé inteligence využívají nekvalitní data, spěchají s inovacemi bez ohledu na existující ochranu občanských práv a neberou v úvahu širší společenské důsledky nerovností, které povzbudit systémy umělé inteligence, aby diskriminovaly nebo sledovaly určité populace s větší přesností.

V některých ohledech se kulatý stůl shodl s potřebou „Bill of Rights for the AI-Powered World“, rámce zavedeného v roce 2021 Úřadem pro politiku vědy a technologie Bílého domu (OSTP). OSTP zde vyzývá k vyjasnění „práv a svobod, u kterých očekáváme, že je budou technologie založené na datech respektovat“ a k vytvoření obecných záruk, které zabrání zneužívání v USA, ale bez přímé diskuse o tom, jak je definována předpojatost ve veřejné doméně a co by měly být upřednostněny konkrétní případy použití, USA budou s tím, jak se vyvíjejí systémy umělé inteligence, slábnout v ochraně a začleňování historicky znevýhodněných skupin.

V tomto blogu nabízíme stručný přehled klíčových bodů z diskuse u kulatého stolu a dále objasňujeme definice zkreslení, které byly během kulatého stolu sdíleny. Uvádíme také scénáře, ve kterých mohou USA provést změnu, včetně oblastí vymáhání práva, najímání, finančních služeb a dalších. Na závěr uvádíme priority, které by mohl přijmout nově zřízený poradní výbor a federální vláda ve velkém, aby bylo dosaženo pokroku v oblasti inkluzivních, odpovědných a důvěryhodných systémů umělé inteligence pro zranitelnější skupiny a jejich komunity.

Definování zkreslení AI

Abychom mohli začít, USA potřebují společné chápání AI a souvisejících problémů, které může generovat, což je důležité v prostoru, kde mohou být významy nejednoznačné a v některých případech roztříštěné. Národní iniciativa pro umělou inteligenci definovala důvěryhodnou umělou inteligenci jako vhodně odrážející „charakteristiky, jako je přesnost, vysvětlitelnost, interpretovatelnost, soukromí, spolehlivost, robustnost, bezpečnost[,] . . . bezpečnost nebo odolnost vůči útokům“, a to vše při „zajišťování, aby byla zaujatost zmírněna“. V novější zprávě NIST definoval zkreslení jako „efekt, který zbavuje statistický výsledek reprezentativnosti tím, že jej systémově zkresluje“. K těmto definicím byly přidány obecné definice přijaté soukromým sektorem, které přirovnávají zmírňování zkreslení k modelům spravedlnosti. Předchozí Brookingova zpráva přistupuje k definici z komparativnějšího pohledu a zaujímá zkreslení jako „výsledky, které jsou systémově méně příznivé pro jednotlivce v rámci určité skupiny a kde neexistuje žádný relevantní rozdíl mezi skupinami, který by takové poškození ospravedlňoval“. Autoři dále naznačují, že algoritmické zkreslení v modelech strojového učení může vést k rozhodnutím, která mohou mít kolektivní, nesourodý dopad na určité skupiny lidí i bez úmyslu programátora diskriminovat.

V nominální hodnotě bývají americké definice široké a poněkud zobecněné ve srovnání s definicemi z EU, která umístí AI podle praktických stupňů rizika. Především zákon EU o umělé inteligenci kategorizuje používání umělé inteligence do tří různých úrovní. Systémy s nepřijatelným rizikem by byly zakázány (například používání rozpoznávání obličeje pro účely vymáhání práva), zatímco vysoce rizikové systémy by byly povoleny, ale podléhaly by kontrole, než získají přístup na trh EU (například AI používané pro najímání a výpočet kreditního skóre). Mezitím AI s omezeným a minimálním rizikem, jako jsou chatboti AI a použití AI při správě zásob, budou podléhat lehkým povinnostem transparentnosti. Občanská a lidská práva jsou zohledněna v definicích, které nabízí Organizace pro hospodářskou spolupráci a rozvoj (OECD) a další mezinárodní orgány. OECD definuje inovativní a důvěryhodnou umělou inteligenci jako takové, které zahrnují: respekt k lidským právům a demokratickým hodnotám; stanovení standardů pro růst podporující začlenění; hodnoty a spravedlnost zaměřené na člověka; transparentnost a vysvětlitelnost; robustnost, zabezpečení a bezpečnost; a odpovědnost. Ve srovnání s USA zaujaly mezinárodní subjekty proaktivnější a možná proskriptivní přístup k definování zkreslení, aby zajistily určitý společný konsenzus o škodách, které se řeší.

I když účastníci kulatého stolu neměli úplnou shodu na nejběžněji přijímané definici zkreslení umělé inteligence, nabídli pohledy na výsledky, které by měly být dále prozkoumány, zejména ty, které se zdají být v rozporu s veřejným zájmem a spravedlností. Obecně platí, že diverzita a začlenění jsou při vývoji a provádění umělé inteligence považovány za dodatečné myšlenky a jsou označeny, když se systémy pokazí, což vede k rychlým opravám, které neřeší šíři takových škodlivých technologií. Odborníci u kulatého stolu také sdíleli, že k většině zkreslení dochází v důsledku nízké kvality dat, o čemž bude řeč později v blogu. Odborníci také poukázali na nedostatek soukromí v tomto technologickém věku, který i nadále ponechává marginalizované skupiny zranitelnější vůči neomezenému sběru dat bez jejich vědomí. Stručně řečeno, účastníci kulatého stolu zjistili, že předsudky AI odrážejí větší systémové problémy společenské diskriminace, nízké kvality dat a nedostatečné ochrany soukromí dat. Zazněla také zmínka o tom, jak nedostatek rozmanitosti pracovní síly v počítačových a datových vědách brání inkluzivnějším přístupům.

Tyto faktory sdílené během kulatého stolu v drtivé většině podporují, proč USA potřebují cílenější pokyny, jak dosáhnout inkluzivní, spravedlivé a spravedlivé umělé inteligence. Bidenova administrativa již soustředila spravedlnost mezi federální iniciativy, včetně AI. Executive Order 13985, Advancing Racial Equity and Support for Underserved Communities through Federal Government, nařizuje ministerstvu obrany USA prosazovat spravedlivou AI „investicemi do vývoje AI odpovědného v celé agentuře a investicemi do rozvoje rozmanitější pracovní síly AI, včetně prostřednictvím partnerství s Historically Black Colleges and Universities (HBCUs) a Minority Serving Institutions (MSI). Předchozí administrativa poskytla průběžný začátek správy AI, když se ponořila do diskusí a strategií, jak by federální agentury mohly využít transformační schopnosti AI. Komise pro rovné příležitosti zaměstnávání (EEOC) zahájila tento proces svou vlastní prací zaměřenou na zmírňování rozdílů v náborových nástrojích řízených umělou inteligencí pro lidi s postižením. Přesto je třeba v USA udělat více, aby potvrdily existenci zkreslení online dat a odstranily oblasti pro změnu.

Červená vlajka, případy použití

Skutečností je, že pokud federální vláda nesprávně zjistí předpojatost a zmírní její zmírnění, naruší to důvěru v účinnost autonomních systémů, zejména mezi běžnými občany, jejichž životy jsou na nich stále více závislé. Níže jsou uvedeny některé případy použití v oblasti bydlení, najímání, trestního soudnictví, zdravotnictví, financí, politických dezinformací a rozpoznávání obličeje, které již kvůli omezenému dohledu vyvolávají varovné signály.

AI a bydlení

Amerika má dlouhou historii rasistických politik v oblasti bydlení a půjček, které umožňují rasistické politiky, včetně indických zákonů o odstranění, zákona o uprchlých otrokech, zákona o repatriaci a dalších. Dnes předsudky v oceňování domů a schvalování úvěrů nadále představují systémové problémy v žádostech o hypotéky a vlastnictví, jako jsou územní vyhlášky a zmenšování strmých mezer pro černošské žadatele. Zatímco zákony jako Fair Housing Act z roku 1968 a Equal Credit Opportunity Act z roku 1974 zabraňovaly diskriminaci v oblasti bydlení v masovém měřítku, AI přetéká diskriminací, která vytváří ještě větší přesnost při podporování nerovností. Bylo zjištěno, že automatizované systémy hypotečních půjček účtují černým a hispánským dlužníkům výrazně vyšší ceny za hypoteční úvěry, s rozdílem zhruba 800 milionů dolarů ročně. Mezitím poskytovatelé online půjček sledovali trendy diskriminace stanovené osobními poskytovateli půjček a v letech 2008 až 2015 kumulativně odmítli celkem 1,3 milionu bonitních černošských a latinskoamerických žadatelů. Zatímco někteří tvrdí, že schválení na základě aplikací bylo prokázáno 40 % méně pravděpodobné, že nabídne vyšší hypoteční sazby pro dlužníky s jinou barvou pleti a neodmítne žádost jednotlivce pouze na základě jeho rasy, tato technologie stále posiluje rozdíly, pokud jde o hodnocení pro stávající vlastníky, což vede k tomu, že domy ve většinových černošských čtvrtích jsou oceněny na 23 % méně než nemovitosti v převážně bílých čtvrtích – i s technologií.

AI a nábor

V průběhu let stále více společností používá AI ke snížení provozních nákladů a zvýšení efektivity náboru. Tyto systémy však nejsou odděleny od rozdílů, které muži a ženy zažívají na pracovišti, a bylo prokázáno, že náborové algoritmy pozitivně zvýhodňují bílé lidi před lidmi jiné barvy pleti. Studie například zjistila, že cílené reklamy na Facebooku pro pokladní v supermarketech byly přijímány publikem, které tvořilo 85 % žen, zatímco práce u taxislužeb se zobrazovaly publiku, které bylo ze 75 % černé. V jiném případě Amazon zrušil náborový algoritmus, protože odmítl žadatelky nebo jakýkoli životopis odkazující na ženské aktivity; algoritmus byl primárně trénován na převážně mužské datové sadě inženýrů. K těmto příkladům umělé inteligence při náboru bylo přidáno použití technologie rozpoznávání emocí (ERT) k hodnocení kandidátů během procesu náboru. Výzkum zjistil, že černí a hispánští muži byli propuštěni do zaměstnání, když byli předem prověřeni takovými nástroji ERT. Neúměrně negativní výsledky generované AI vedly k jejich diskvalifikaci v rané fázi náborového procesu.

AI a trestní soudnictví

Historie neobjektivních a diskriminačních zákonů posílila rasismus v systému trestního soudnictví, který neúměrně hlídá a vězní lidi s nízkými příjmy a barevné osoby. Černoši jsou vězněni v pětinásobku počtu bílých lidí. A zavedení umělé inteligence v tomto prostoru pouze vytvořilo dalšího pachatele nespravedlností v rámci systému. Algoritmus PATTERN, který vytvořilo ministerstvo spravedlnosti jako součást zákona o prvním kroku, byl použit k predikci recidivy a zkrácení trestních trestů na základě dobrého chování. Přesto se ukázalo, že tento algoritmus vykazuje zaujatost vůči barevným lidem a předpovídá recidivu mezi vězni v míře dvou až osmi procent ve srovnání s bílými vězni. Další algoritmy hodnocení rizik vykazovaly podobné zkreslení, například algoritmus COMPAS, který byl používán ve státech New York, Wisconsin, Kalifornie a další. Článek ProPublica zjistil, že u černochů je dvakrát vyšší pravděpodobnost, že budou označeni jako vysoce rizikoví než u bělochů, ale nebudou se znovu dopouštět trestné činnosti, zatímco u bílých lidí bude pravděpodobnější, že budou označeni jako nízkorizikové, ale pak se znovu dopustí trestného činu. Takové nástroje pro hodnocení rizik jsou široce používány v celém systému trestní justice, od prvotního odsouzení až po stanovení předčasného propuštění, což zhoršuje stávající zaujatosti v rámci systému s malým dohledem.

AI a zdravotní péče

Prokázalo se, že používání umělé inteligence ve zdravotnictví také prohlubuje sociální nerovnosti. Algoritmus používaný k určení umístění transplantovaného seznamu měl rasový koeficient, který umístil černošské pacienty níže na seznamu než bílé pacienty, i když u černých Američanů je významně vyšší pravděpodobnost selhání ledvin než u bílých Američanů. Algoritmus používaný nemocnicemi k predikci pacientů, kteří potřebují následnou péči, mezitím identifikoval skupinu pacientů, která se skládala pouze z 18 % černošských pacientů a 82 % bílých pacientů, přičemž údaje by měly být založeny na rozdělení téměř 50/50. Pozoruhodné je, že AI vytvořená pro detekci rakoviny kůže byla primárně testována na bílých pacientech a nedokázala vytvořit přesné diagnózy pacientů s tmavší pletí. Mnoho z těchto otázek života a smrti je ponecháno na rozmarech zaujatých technologií, které zhoršují existující nerovnosti v oblasti zdraví, kterým čelí lidé barvy pleti.

AI a finanční služby

Využití AI ve finančních systémech udržuje další zaujatost. Některé algoritmy FinTech udržují vzorce půjčování, o kterých je známo, že dlužníkům z Latinské Ameriky účtují 7,9 bazických bodů a Afroameričané o 3,6 bazických bodů více za nákup a refinancování hypoték. Zatímco výzkumníci zjistili, že FinTech diskriminuje o 40 % méně než osobní věřitelé, historicky marginalizované komunity jsou nadále neúměrně ovlivněny. Existuje také problém úvěrové neviditelnosti, kterou trpí 44 milionů Američanů, protože jsou „odpojení od běžných finančních služeb, a proto nemají úvěrovou historii“. Vzhledem k tomu, že FinTech nemůže posoudit budoucí chování těchto populací při půjčování nebo poskytování úvěrů kvůli nedostatku dat, stále jsou postiženy rozdíly v bohatství v USA, které omezují finanční nezávislost.

AI a politické dezinformace

Neomezené shromažďování dat spolu s využitím umělé inteligence v algoritmech sociálních médií umožnilo špatným aktérům šířit dezinformace zaměřené na marginalizované skupiny. Během prezidentských voleb v USA v roce 2016 ruští agenti využili sociální sítě k tomu, aby se zaměřili na černochy, šířili zprávy s cílem podnítit rasový konflikt a odradit černochy od toho, aby šli k volebním urnám. On-line potlačování voličů, prováděné prostřednictvím zavádějících informací o přítomnosti orgánů činných v trestním řízení ve volebních místnostech nebo šíření nesprávných informací o hlasování, bylo použito k zacílení na rasové menšiny a zabránění jim v odevzdání hlasů. Politické dezinformace ohrožují občanská práva rasových menšin a staví překážky jejich plné účasti v americké demokracii.

Technologie rozpoznávání obličeje

Mnoho z výše uvedených případů použití se spoléhá na technologie detekce obličeje a rozpoznávání obličeje, což má technické nedostatky, pokud jde o identifikaci a klasifikaci různých předmětů. V systémech vymáhání práva nebo trestního soudnictví vedlo používání nepřesných technologií rozpoznávání obličeje (FRT) k mnoha neoprávněným zatčením, což neúměrně postihlo černošskou a latinskoamerickou populaci. FRT také přinesla podobné zlověstné důsledky, když byla aplikována na dohled nad obyvateli veřejného bydlení, jejichž přístup do bytových jednotek byl diktován výsledky FRT.

Hloubka a šířka zkreslení umělé inteligence si vynucuje potřebu zásadových pokynů a řešení od federální vlády. Dále, digitální konkurenceschopnost nemůže být plně realizována v USA bez rámce, který proaktivně řeší tyto a další přetrvávající domácí výzvy omezující inkluzivitu vznikajících technologií. Než však nabídli několik návrhů, jak by USA mohly proaktivně řešit online předsudky, účastníci kulatého stolu také zdůraznili dva další prvky, které zhoršují předpojatost AI – kvalitu dat a rozmanitost pracovní síly.

Traumatizovaná data

Stávající data dokumentují historicky nespravedlivé zacházení a nedostatečné zastoupení historicky marginalizovaných komunit. Některé reklamy na nábor práce například předpokládají, že lidé jiné barvy pleti nebo ženy jsou méně kvalifikovaní, protože jsou méně zastoupeni v pracovní síle ve srovnání s běžnou populací nebo bílými muži. Žádný z těchto předpokladů nezohledňuje větší a širší společenské faktory a nespravedlnosti ve vzdělávání a na trhu práce, které znesnadňují ženám nebo lidem jiné barvy pleti spravedlivou účast na trhu práce. Podobně úvěry na bydlení pro černošské a hnědé komunity mají tendenci být nepoměrně vyšší v důsledku desetiletí diskriminačních zákonů o bydlení a redliningu. Ve své práci rezidenční datová aktivistka z University of Virginia a kriminoložka Renee Cummingsová označuje tyto rozdíly jako „datové trauma“, protože napodobují historická dědictví, která se zapékají do existujících datových sad a objevují se v algoritmech strojového učení. A protože tyto nuance úzce korelují se společností, ve které žijeme, je obtížnější oddělit data od těchto explicitních a nevědomých předpokladů. Po začlenění do modelů umělé inteligence se trauma dat přenáší a působí na budoucí generace, na které se modely používají, mezi množstvím případů použití, které určují sociální mobilitu, ekonomickou spravedlnost a dokonce i občanská práva.

Rozmanitost pracovní síly

Dalším důležitým hlediskem, na který upozornili účastníci kulatého stolu Brookings, je potřeba diverzity pracovní síly v AI. Podle AI Now Institute mají Facebook a Google nominální zastoupení žen ve svém výzkumném týmu 15 % a 10 %. U technických pracovníků jsou tato čísla ještě nižší. Pouze 2,5 % zaměstnanců Google tvoří černoši a čísla ve Facebooku a Microsoftu jsou pouze 4 %. Tyto problémy jdou za hranice talentů, protože „pracovníci v technologických společnostech mají hluboké problémy s kulturou na pracovišti, asymetrií moci, obtěžováním, vylučovacími náborovými praktikami, nespravedlivými odměnami a tokenizací, které je vedou k tomu, že opouštějí nebo se vyhýbají práci v sektoru AI. “ Nedostatek rozmanitosti v technologických prostorech znamená, že algoritmy strojového učení a další autonomní systémy jsou vyvíjeny bez životních zkušeností nezbytných k odvrácení špatného zacházení s daty nebo k vytvoření mnohem lepších produktů nebo služeb.

Jak by USA měly upřednostňovat větší rovné příležitosti v AI

Vraťme se k tomu, co USA nyní dělají, nově zřízený NAIAC vytvořil během svého prvního setkání pět pracovních skupin, které zahrnovaly: vedení v důvěryhodné AI , vedoucí postavení ve výzkumu a vývoji, podpora pracovní síly v USA a poskytování příležitostí, vedoucí postavení v oblasti konkurenceschopnosti a mezinárodní spolupráce. Kromě toho také zřídili podvýbor pro AI a vymáhání práva, jehož úkolem je prošetřovat otázky zkreslení a bezpečnosti dat. Navzdory tomu, že jsou komerčně zaměřené, zřízení podskupin signalizuje závazek administrativy k umělé inteligenci zaměřené na člověka a k boji proti stávajícím předsudkům, které se běžně vyskytují v systémech umělé inteligence. Umělá inteligence zaměřená na člověka se snaží zajistit spravedlivé a odpovědné používání technologií a zároveň zvažovat, jak explicitní předsudky formují stávající technologie.

Související obsah

TechTank

Transparentnost je nejlepším prvním krokem k lepší digitální správě

Mark MacCarthy
TechTank

Deklarace o budoucnosti Internet je pro kolísající demokracie, nikoli pro Čínu a Rusko

Alex Engler
Technology & Inovace

Institucionalizace analýzy dat v německé federální správě

Alex Engler

I když tyto aspekty NAIAC mohou potenciálně čelit spravedlivému a spravedlivému zacházení s různorodými skupinami, stále existuje potřeba aktivistů za občanská práva a interdisciplinární odborníci, aby byli součástí těchto diskusí. Navrhujeme také sadu dalších doporučení, která by informovala širší poradenské a podskupiny při navrhování a provádění národní strategie správy AI.

1. USA musí provést aktualizaci stávajícího režimu občanských práv, aby určily interpretovatelnost správy AI.

Po celá léta bojovali aktivisté za občanská práva za spravedlivý přístup k bydlení, půjčkám, zaměstnání a dalším. V předchozích příkladech je jisté, že zkreslení umělé inteligence takový pokrok zbrzdí a ponechají lidem jen málo možností k nápravě škodlivých a klamavých praktik. Současný režim občanských práv je špatně vybavený a zastaralý. Například zákon o spravedlivém bydlení zakazuje diskriminaci v oblasti bydlení na základě rasy, zdravotního postižení, pohlaví a dalších faktorů. Nezohledňuje však diskriminační algoritmy, které umožňují nájemcům vyhledávat lidi konkrétní rasy a etnika. Federální zákony zabraňující zastrašování voličů zaostávají za řešením online dezinformací, které se snaží odcizit a vyděsit barevné komunity. Právě teď je také obtížné, aby jednotlivci podávali žaloby proti technologickým společnostem. Protože se zkušenosti lidí na platformách sociálních médií liší, je pro jednu osobu obtížné zjistit, zda se informace, které si prohlížejí, liší od ostatních, zejména ty, které jsou dravé. Mezi dlouhým seznamem legislativních opatření v Kongresu jsou již v oběhu návrhy zákonů, které se snaží bojovat proti digitálním škodám. Patří sem legislativa omezující cílenou reklamu, jako je zákon o zákazu dozorové reklamy, a legislativa usilující o zabránění zastrašování voličů online, jako je zákon o klamavých praktikách a zastrašování voličů z roku 2021. Snaha aktualizovat náš režim občanských práv a bojovat proti online škody budou nedílnou součástí ochrany občanských práv historicky marginalizovaných skupin. Pro vytvoření lepší harmonizace v oblasti snižování škod je posouzení stávajícího režimu občanských práv výchozím bodem k zodpovědnější umělé inteligenci a větší spravedlnosti.

2. USA by měly identifikovat a určit konkrétní případy použití pro doporučení přísnějšího dohledu a potenciálních regulačních opatření, včetně finančních služeb, zdravotnictví, zaměstnanosti a trestního soudnictví.

Při zvažování rizika AI je důležité nastínit a specifikujte, které případy použití vyžadují přísný dohled a regulační opatření. NAIAC by mohl být nástrojem pro použití rámců podobných zákonu EU o AI, který by specifikoval a klasifikoval případy použití s ​​různou mírou rizika za účelem stanovení vhodných úrovní regulace. Existuje také několik agentur, které bojují proti předsudkům AI v různých sektorech, jako je ta, která byla dříve zmíněna v americké Komisi pro rovné příležitosti pro rovné příležitosti (EEOC). Nedávno NIST také vydal pokyny pro řízení zkreslené umělé inteligence. Aby bylo možné pokračovat, měla by existovat inventarizace, hodnocení a koordinace oblastí s červenými vlajkami mezi vládními agenturami, které podnítí diskuse o nápravných opatřeních a potenciálních vynucovacích opatřeních k přímému řešení vysoce rizikových scénářů, které brání rovným příležitostem pro zranitelné skupiny obyvatel.

3. USA musí prohloubit svůj participativní přístup ke správě umělé inteligence, který podpoří vstup veřejnosti, osvědčené postupy v oboru a zveřejňování informací pro spotřebitele.

Řízení umělé inteligence by mělo být demokratizováno, aby umožňovalo vstup mimo technologů. Měl by být vytvořen participativní rámec, který umožní vstup veřejnosti, začlení osvědčené postupy v daném odvětví a poskytne spotřebitelům informace s cílem maximalizovat transparentnost pro ty, na které mají tyto nové technologie největší dopad. Audity a posouzení dopadů budou rovněž klíčové při zavádění nových technologií, přičemž se zaměří zejména na určení rozdílného dopadu a kvality používaných údajů a uchovávané dokumentace. Obzvláště citlivé algoritmy – zejména ty, které používá federální vláda – by měly podléhat pravidelným přezkumům, aby se vyhodnotil jejich dlouhodobý dopad na zranitelnější skupiny. A vstup spotřebitelů by měl být více ceněn. Za současného stavu mají spotřebitelé omezené možnosti, jak poskytovat návrhy a zpětnou vazbu těm, kdo vytvářejí algoritmy. Například vytvoření regulačních sandboxů a smyček zpětné vazby spotřebitelů pro modely umělé inteligence, které představují značné riziko pro občany a spotřebitele, by mohlo být použito v uvažujícím a zkreslujícím úsilí.

4. Aby USA dosáhly skutečné spravedlnosti, měly by zvážit a uplatnit antirasistický přístup k systémům umělé inteligence od návrhu až po implementaci.

Velká část nesmyslných předsudků ohledně umělé inteligence pramení ze stávajících systémových nerovností, které mají kořeny v rasismu. I když diverzifikace vývojářských týmů, zkoumání zkreslení dat a rozsáhlé vstupy spotřebitelů pomohou vyrovnat podmínky v oblasti návrhu a provádění umělé inteligence, ne vždy to nestačí. Pochopení a identifikace zkreslení je nedílnou součástí účinnosti a užitečnosti algoritmu. To je důvod, proč USA potřebují osvědčené postupy, které udržují integritu procesu navrhování a provádění algoritmů a vyhýbají se explicitním diskriminačním a predátorským praktikám, které jsou institucionálně vrozené. Kulatý stůl odhalil, že je zapotřebí antirasistický rámec, který by vybízel tvůrce politik k zajištění inkluzivního zastoupení řešením strukturálních problémů, což zahrnuje omezené výzkumné dotace pro instituce sloužící menšinám, včetně HBCU, HSI a dokonce i komunitních vysokých škol, nebo mající ochranné zábradlí. Systémy umělé inteligence, které potenciálně replikují osobní nespravedlnosti, jako jsou aplikace pro vymáhání práva. Hlavním tématem je, že umělá inteligence nezruší historické a strukturální okolnosti, které vedly k takovým rozdílům, pokud nejsou záměrně uznány a řešeny.

Závěr

Národní dialog o správě umělé inteligence poskytuje příležitost stanovit nové normy pro to, jak se USA vypořádávají s předsudky ohledně umělé inteligence. Diskuse o důležitých otázkách vytváří šanci objasnit definice a uzákonit změny politik se smysluplnou pravděpodobností zmírnění předsudků a přiblížení se k ekonomice podporující začlenění. Zatímco proces začal Trumpovou administrativou, Bidenův Bílý dům jej může dokončit a vzít v úvahu netechnické úvahy o vznikajících technologiích.

Kromě těchto důležitých úvah musí zúčastněné strany v těchto nově vznikajících technologiích vystopovat kořeny problémů, které spočívají v nedostatku rozmanitosti v návrhářských týmech a v datech, které nadále nesou trauma a diskriminaci z minulosti. Přezkoumáním stávajícího režimu občanských práv, nastíněním případů vyžadujících dohled, podporou demokratičtější účasti na správě AI a začleněním protirasistických principů do všech aspektů procesu navrhování algoritmů je možné, že společným úsilím technologických společností , vládní instituce, skupiny za lidská práva a občané, stávající předsudky AI by mohly být odstraněny. Ještě důležitější je, že ochranu pro historicky marginalizované skupiny lze lépe integrovat do národní správy, čímž se USA přiblíží k cílům rovných příležitostí pro všechny v digitálním věku.


Autoři jsou vděčni za příspěvek odborníků ze setkání v roce 2021 a za diskuse po oficiálním setkání.

Amazon, Apple, Facebook, Google a Microsoft jsou obecnými neomezenými dárci pro Brookings Institution. Zjištění, interpretace a závěry zveřejněné v tomto díle jsou výhradně výsledky autorů a nejsou ovlivněny žádným darem.

Populární články