Yhdysvallat on pyrkinyt kodifioimaan National Artificial Intelligence (AI) -aloitteen, joka keskittyy kuuteen strategiseen pilariin: tekoälyinnovaatioiden parantaminen, luotettavan tekoälyn edistäminen, uusien koulutus- ja koulutusmahdollisuuksien luominen tekoälyn avulla, nykyisen infrastruktuurin parantaminen uusien teknologioiden avulla, tekoälyn liittovaltion ja yksityisen sektorin hyödyntäminen olemassa olevien järjestelmien parantamiseksi ja kansainvälisen ympäristön edistäminen, joka tukee tekoälyn jatkokehitystä. Huhtikuussa 2022 Yhdysvaltain kauppaministeriö ja National Institute on Standards (NIST) ilmoittivat perustavansa National Artificial Intelligence Advisory Committeen (NAIAC) jäsenet, joiden tehtävänä on neuvoa Bidenin hallintoa kansallisen tekoälyn hallinnassa. ponnisteluja. NAIAC keskusteli ensimmäisessä kokouksessaan 4.5.2022 tekoälyn käytöstä Yhdysvaltojen kilpailukykyyn liittyvissä asioissa, työvoimaan liittyvistä asioista ja siitä, onko tekoälyjärjestelmien kansallinen valvonta riittävä. Yhdessä kansallisen tekoälyaloitteen ja NAIAC:n luomisen tavoitteet varmistavat strategiset ja oikea-aikaiset lähestymistavat autonomisten järjestelmien suunnitteluun ja käyttöönottoon sekä kansallisten normien vahvistamisen.
Nicol Turner Lee
vanhempi tutkija - hallintotutkimukset
johtaja - teknologiainnovaatiokeskus
Twitter@nturnerleeSamantha Lai
Tutkija-assistentti, Center for Technology Innovation - Brookings Institution
Twitter_SamanthaLai_Yhtä tärkeää on, että tekniikkaa on parannettava kotikäyttöön osana Tämä kansallisten ponnistelujen osuus on erityisen tärkeä alueilla, joilla on potentiaalia saada aikaan joko erilaista kohtelua tai erilaisia vaikutuksia liittovaltion suojeltuihin ja muihin haavoittuviin väestöryhmiin. Jos Yhdysvallat sulkee tällaiset näkökohdat pois kansallisesta hallinnosta käytävistä keskusteluista, historiallinen ja systeeminen eriarvoisuus jatkuu, mikä rajoittaa tiettyjen ryhmien tarpeiden ja kokemien kokemusten integroimista esiin nouseviin tekoälyinnovaatioihin. Huonot tai riittämättömät päätökset rahoituspalveluista ja luottokelpoisuudesta, palkkaamisesta, rikosoikeudesta, terveydenhoidosta, koulutuksesta ja muista sosiaalista ja taloudellista liikkuvuutta ennustavista skenaarioista tukahduttavat osallisuuden ja heikentävät demokraattisia arvoja, kuten tasa-arvoa ja oikeudenmukaisuutta. Nämä ja muut mahdolliset haitat on yhdistettävä pragmaattisten ratkaisujen kanssa alkaen kattavasta ja yleismaailmallisesta harhan määritelmästä tai tarkasteltavasta haitasta. Lisäksi prosessiin tulee sisältyä ratkaisuja luettaville ja toimeenpantaville kehyksille, jotka tuovat tasapuolisuutta laskennallisten mallien suunnitteluun, toteutukseen ja auditointiin historiallisen ja nykypäivän syrjinnän ja muiden saalistustulosten estämiseksi.
Vaikka NAIAC on sopiva seuraava askel kerättäessä palautetta erilaisilta yksityisen ja julkisen sektorin sidosryhmiltä sekä yliopistoilta ja kansalaisyhteiskunnan sidosryhmiltä, osallistavampien ja vaikutuspiirien ryhmien edustajat ovat myös avainasemassa kehitettäessä ja toteutettaessa enemmän joustava hallintotapa. Vuonna 2021 Brookings Institution Center for Technology Innovation (CTI) kutsui koolle sidosryhmien ryhmän ennen NAIAC:n muodostamista ymmärtääkseen paremmin ja keskustellakseen Yhdysvaltojen kehittyvistä kannoista tekoälyn suhteen. Johtajat edustivat kansallisia ja paikallisia järjestöjä, jotka puolustivat erilaisia historiallisesti heikommassa asemassa olevia ja muita haavoittuvia väestöryhmiä.
Brookingsin vuoropuhelun tavoitteena oli perehtyä olemassa oleviin liittovaltion pyrkimyksiin tunnistaa alueita, joilla kansalaisten ja yhtäläisten oikeuksien suojaa voidaan harkita enemmän. Lopulta pyöreän pöydän asiantuntijat kehottivat kiinnittämään enemmän huomiota tekoälyn suunniteltuihin ja tahattomiin seurauksiin haavoittuvammassa väestössä. Asiantuntijat ovat myös ylivoimaisesti todenneet, että kaikkien kansallisten hallintorakenteiden on sisällettävä analyyseja arkaluonteisista käyttötapauksista, jotka pahentuvat, kun tekoälyjärjestelmät hyödyntävät huonolaatuista dataa, ryntäsivät innovoimaan ottamatta huomioon olemassa olevia kansalaisoikeuksien suojatoimia ja jättävät huomioimatta eriarvoisuuden laajempia yhteiskunnallisia vaikutuksia. rohkaista tekoälyjärjestelmiä syrjimään tai valvomaan tiettyjä väestöryhmiä tarkemmin.
Joissakin suhteissa pyöreän pöydän keskustelu yhtyi tarpeeseen laatia "Bill of Rights for an AI-Powered World" -kehys, jonka Valkoisen talon tiede- ja teknologiapolitiikan toimisto (OSTP) esitteli vuonna 2021. Tässä OSTP vaatii selventämään "oikeuksia ja vapauksia, joita odotamme dataan perustuvien teknologioiden kunnioittavan" ja luomaan yleisiä suojatoimia väärinkäytösten estämiseksi Yhdysvalloissa, mutta ilman suoraa keskustelua siitä, kuinka puolueettomuus määritellään julkisesti ja mitä Tietyt käyttötapaukset olisi asetettava etusijalle, Yhdysvallat heikkenee historiallisesti heikommassa asemassa olevien ryhmien suojelussa ja osallisuudessa tekoälyjärjestelmien kehittyessä.
Tässä blogissa tarjoamme lyhyen yleiskatsauksen pyöreän pöydän keskustelun keskeisiin kohtiin ja selvennämme pyöreän pöydän keskustelun aikana jaettuja harhamääritelmiä. Esittelemme myös skenaarioita, joissa Yhdysvallat voi saada aikaan muutoksia, mukaan lukien lainvalvonnan, palkkaamisen, rahoituspalvelujen ja muiden aloilla. Päätämme painopisteisiin, jotka äskettäin perustettu neuvoa-antava komitea ja liittovaltion hallitus voisivat toteuttaa, jotta saataisiin edistymään osallistavien, vastuullisten ja luotettavien tekoälyjärjestelmien kehittämisessä haavoittuvimmille ryhmille ja heidän yhteisöilleen.
Tekoälyharhan määrittäminen
Aluksi Yhdysvallat tarvitsee yhteisymmärryksen tekoälystä ja siihen liittyvistä ongelmista, joita se voi aiheuttaa, mikä on tärkeää tilassa, jossa merkitykset voivat olla moniselitteisiä ja joissakin tapauksissa hajanaisia. National Artificial Intelligence Initiative on määritellyt luotettavan tekoälyn siten, että se kuvastaa asianmukaisesti "ominaisuuksia, kuten tarkkuus, selitettävyys, tulkittavuus, yksityisyys, luotettavuus, kestävyys, turvallisuus[,]. . . turvallisuutta tai hyökkäyksien sietokykyä”, kaikki samalla kun ”varmistetaan, että harhaa lievennetään”. Tuoreessa raportissa NIST määritteli harhan "vaikutukseksi, joka riistää tilastollisen tuloksen edustavuuden vääristämällä sitä järjestelmällisesti". Näihin määritelmiin on lisätty yksityisen sektorin keskuudessa omaksumia yleisiä määritelmiä, jotka rinnastavat puolueellisuuden lieventämisen oikeudenmukaisuusmalleihin. Edellinen Brookingin raportti lähestyy määritelmää vertailevasta linssistä ja esittää harhaa "tuloksiksi, jotka ovat systeemisesti vähemmän suotuisia tietyn ryhmän yksilöille ja joissa ryhmien välillä ei ole olennaista eroa, joka oikeuttaisi tällaiset haitat". Lisäksi kirjoittajat ehdottavat, että algoritmiharha koneoppimismalleissa voi johtaa päätöksiin, joilla voi olla kollektiivinen, erilainen vaikutus tiettyihin ihmisryhmiin jopa ilman ohjelmoijan aikomusta syrjiä.
Yhdysvaltalaiset määritelmät ovat nimellisarvossa yleensä laajoja ja jonkin verran yleisiä verrattuna EU:n määritelmiin, jotka ovat sijoittaneet tekoälyn käytännön riskiasteiden mukaan. Erityisesti EU:n tekoälylaki luokittelee tekoälyn käytön kolmeen eri tasoon. Hyväksyttämättömän riskin omaavat kiellettäisiin (esimerkiksi kasvojentunnistuksen käyttö lainvalvontaa varten), kun taas suuren riskin järjestelmät sallittaisiin, mutta niitä tarkastetaan ennen kuin ne pääsevät EU:n markkinoille (esim. tekoäly). käytetään palkkaamiseen ja luottopisteiden laskemiseen). Sillä välin rajoitettuihin ja vähäriskisiin tekoälyihin, kuten AI chatboteihin ja tekoälyn käyttöön varastonhallinnassa, sovelletaan kevyitä läpinäkyvyysvelvoitteita. Kansalais- ja ihmisoikeudet sisältyvät OECD:n (OECD) ja muiden kansainvälisten elinten tarjoamiin määritelmiin. OECD määrittelee innovatiivisen ja luotettavan tekoälyn sellaisiksi, jotka sisältävät: ihmisoikeuksien ja demokraattisten arvojen kunnioittamisen; osallistavaa kasvua koskevien standardien asettaminen; ihmiskeskeiset arvot ja oikeudenmukaisuus; läpinäkyvyys ja selitettävyys; kestävyys, turvallisuus ja turvallisuus; ja vastuullisuutta. Yhdysvaltoihin verrattuna kansainväliset tahot ovat omaksuneet ennakoivamman ja ehkä kieltävän lähestymistavan puolueellisuuden määrittelemiseen varmistaakseen yhteisen konsensuksen käsiteltävistä haitoista.
Vaikka pyöreän pöydän osallistujat eivät olleet täysin yksimielisiä yleisimmin hyväksytystä tekoälyn harhaan liittyvästä määritelmästä, he tarjosivat näkökulmia tuloksiin, joita olisi tutkittava tarkemmin, erityisesti sellaisista, jotka näyttävät olevan ristiriidassa yleisen edun ja oikeudenmukaisuuden kanssa. Yleensä monimuotoisuutta ja osallisuutta käsitellään tekoälyn kehittämisen ja toteutuksen jälkiajatuksina, ja niistä ilmoitetaan, kun järjestelmät menevät pieleen, mikä johtaa pikakorjauksiin, jotka eivät puutu tällaisten haitallisten teknologioiden laajuuteen. Pyöreän pöydän asiantuntijat kertoivat myös, että suurin osa harhoista johtuu huonosta tiedonlaadusta, josta keskustellaan myöhemmin blogissa. Asiantuntijat huomauttivat myös yksityisyyden puutteesta tällä tekniikan aikakaudella, mikä jättää syrjäytyneet ryhmät yhä haavoittuvammiksi rajoittumattomalle tiedonkeruulle heidän tietämättään. Kaiken kaikkiaan pyöreän pöydän osallistujat havaitsivat, että tekoälyn harha heijastaa suurempia systeemisiä ongelmia yhteiskunnan syrjinnässä, huonossa tiedonlaadussa ja tietosuojan puutteessa. Lisäksi mainittiin, kuinka tietotekniikan ja datatieteiden työvoiman monimuotoisuuden puute estää osallistavamman lähestymistavan.
Nämä pyöreän pöydän keskustelussa jaetut tekijät tukevat ylivoimaisesti sitä, miksi Yhdysvallat tarvitsee tarkempaa ohjausta osallistavan, oikeudenmukaisen ja oikeudenmukaisen tekoälyn saavuttamiseksi. Bidenin hallinto on jo keskittänyt tasa-arvon liittovaltion aloitteisiin, mukaan lukien tekoäly. Toimeenpanomääräys 13985, rodun tasapuolisuuden ja alipalveltujen yhteisöjen tukeminen liittohallituksen kautta, ohjaa Yhdysvaltain puolustusministeriön edistämään oikeudenmukaista tekoälyä "investoimalla viraston laajuiseen vastuulliseen tekoälykehitykseen ja investoimalla monipuolisemman tekoälytyövoiman kehittämiseen, mukaan lukien kumppanuuksien kautta Historically Black Colleges and Universities (HBCUs) ja Minority Serving Institutions (MSIs) kanssa." Edellinen hallinto aloitti tekoälyn hallinnassa, kun he sukelsivat keskusteluihin ja strategioihin siitä, kuinka liittovaltion virastot voisivat hyödyntää tekoälyn muuntavia kykyjä. Equal Employment Opportunity Commission (EEOC) aloitti tämän prosessin omassa työssään, joka keskittyi vammaisten tekoälypohjaisten palkkaustyökalujen erojen vähentämiseen. Yhdysvalloissa on kuitenkin tehtävä enemmän, jotta online-tietoharhojen olemassaolo voidaan hyväksyä ja muutoksen kannalta välttämättömät alueet poistetaan.
Punainen lippu, käyttötapaukset
Tosiasia on, että jos liittovaltion hallitus tekee puolueellisuuden tunnistamisen ja lieventämisen väärin, se heikentää luottamusta autonomisten järjestelmien tehokkuuteen erityisesti jokapäiväisten kansalaisten keskuudessa, elämä muuttuu yhä riippuvaisemmaksi heistä. Alla on joitain käyttötapauksia asumisen, vuokraamisen, rikosoikeuden, terveydenhuollon, rahoituksen, poliittisen disinformaation ja kasvojentunnistuksen alalla, jotka ovat jo nostaneet punaisia lippuja rajoitetun valvonnan vuoksi.
Tekoäly ja asuminen
Amerikassa on pitkä historia rasistisesta asunto- ja lainauspolitiikasta, minkä mahdollistavat rotuun perustuvat käytännöt, kuten Indian Removal Acts, Fugitive Slave Act, Repatriation Act ja monet muut. Nykyään asuntojen arvioinnissa ja lainojen hyväksynnöissä esiintyvät vinoutumat aiheuttavat edelleen systeemisiä haasteita asuntolainahakemuksissa ja omistuksessa, koska kaavoitusmääräykset ja mustien hakijoiden jyrkkiä aukkoja kaventavat. Vaikka lait, kuten Fair Housing Act 1968 ja Equal Credit Opportunity Act 1974, estivät asumiseen liittyvän massamittakaavaisen syrjinnän, tekoäly on täynnä syrjintää, mikä luo entistä tarkempaa eriarvoisuutta. Automaattisten asuntolainajärjestelmien on havaittu veloittavan mustilta ja latinalaisilta lainanottajilta huomattavasti korkeampia hintoja asuntolainoista, noin 800 miljoonan dollarin erolla vuodessa. Sillä välin verkkolainanantajat ovat seuranneet kasvokkain olevien lainanantajien asettamia syrjintätrendejä ja kumulatiivisesti hylänneet yhteensä 1,3 miljoonaa luottokelpoista mustaa ja latinalaista hakijaa vuosina 2008–2015. Jotkut väittävät, että sovelluspohjaisten hyväksyntöjen on osoitettu olevan 40 prosenttia. ei todennäköisesti tarjoa korkeampia asuntolainan korkoja värikkäille lainaajille eikä hylkää yksittäisen henkilön hakemusta pelkästään heidän rodun perusteella. Tämä tekniikka lisää edelleen eroja olemassa olevien omistajien arvioinnissa, mikä johtaa siihen, että enemmistö mustien asuinalueista koteja arvioidaan 23 prosentiksi. vähemmän kuin kiinteistöjä enimmäkseen valkoisilla alueilla – jopa tekniikalla.
Tekoäly ja palkkaaminen
Vuosien mittaan yhä useammat yritykset käyttävät tekoälyä toimintakulujen vähentämiseen ja palkkaamisen tehostamiseen. Näitä järjestelmiä ei kuitenkaan ole erotettu eroista, joita miehet ja naiset kokevat työpaikalla, ja palkkaamisalgoritmien on osoitettu suosivan valkoisia ihmisiä värillisten ihmisten sijaan. Esimerkiksi tutkimuksessa havaittiin, että Facebookissa kohdistettuja mainoksia supermarkettien kassoille vastaanotti yleisö, josta 85 prosenttia oli naisia, kun taas taksiyritysten työpaikat näytettiin yleisölle, josta 75 prosenttia oli mustia. Toisessa tapauksessa Amazon peruutti palkkausalgoritmin, koska se hylkäsi naispuoliset hakijat tai minkä tahansa ansioluettelon, jossa viitattiin naisten toimintaan. Algoritmi koulutettiin pääasiassa miespuolisten insinöörien tietojoukon perusteella. Näihin esimerkkeihin tekoälystä palkkaamisessa on lisätty tunteidentunnistusteknologian (ERT) käyttö ehdokkaiden arvioimiseen rekrytointiprosessin aikana. Tutkimukset ovat osoittaneet, että mustat ja latinalaisamerikkalaiset miehet ovat siirtyneet työhön, kun ne on esiseulottu tällaisilla ERT-työkaluilla. Tekoälyn tuottamat suhteettoman negatiiviset tulokset johtivat heidän hylkäämiseensa palkkausprosessin varhaisessa vaiheessa.
Tekoäly ja rikosoikeus
Puoluistettujen ja syrjivien lakien historia on lisännyt rasismia rikosoikeusjärjestelmässä, joka valvoo ja vangitsee suhteettomasti pienituloisia ja värillisiä ihmisiä. Mustia vangitaan viisi kertaa enemmän kuin valkoisia. Ja tekoälyn käyttöönotto tässä tilassa on vain lisännyt epäoikeudenmukaisuutta järjestelmän sisällä. Oikeusministeriön osana First Step Act -lakia luomaa PATTERN-algoritmia käytettiin rikosten uusimisen ennustamiseen ja rikosoikeudellisten tuomioiden lyhentämiseen hyvän käytöksen perusteella. Algoritmin on kuitenkin osoitettu osoittavan ennakkoluuloja värillisiä ihmisiä kohtaan, mikä yliarvioi vähemmistöihin kuuluvien vankien rikosten uusimisen kahdesta kahdeksaan prosenttia verrattuna valkoisiin vankeihin. Muut riskinarviointialgoritmit ovat osoittaneet samanlaisia harhoja, esimerkiksi COMPAS-algoritmi, jota oli käytetty New Yorkin, Wisconsinin, Kalifornian osavaltioissa ja muissa osavaltioissa. ProPublica-artikkelissa todettiin, että mustat ihmiset joutuivat valkoisiin verrattuna kaksi kertaa todennäköisemmin leimatuksi suureksi riskiksi, mutta eivät uusiutumaan, kun taas valkoiset ihmiset todennäköisemmin leimattiin vähäriskisiksi, mutta sitten rikkovat uudelleen. Tällaisia riskinarviointityökaluja käytetään laajalti koko rikosoikeusjärjestelmässä alkuperäisestä tuomiosta ennenaikaisen vapauttamisen määrittämiseen, mikä pahentaa olemassa olevia harhoja järjestelmän sisällä ilman vähäistä valvontaa.
Tekoäly ja terveydenhuolto
Tekoälyn käytön terveydenhuollossa on myös osoitettu pahentavan sosiaalista eriarvoisuutta. Elinsiirtolistalle sijoittamisen määrittämiseen käytetyllä algoritmilla oli rotukerroin, joka sijoitti mustat potilaat luettelossa alemmas kuin valkoiset, vaikka mustilla amerikkalaisilla on huomattavasti todennäköisemmin munuaisten vajaatoimintaa kuin valkoisilla amerikkalaisilla. Sillä välin sairaaloiden käyttämä algoritmi seurantahoidon tarpeessa olevien potilaiden ennustamiseen identifioi potilasryhmän, joka koostui vain 18 % mustista potilaista ja 82 % valkoihoisista potilaista, kun lukujen olisi sen sijaan pitänyt seurata lähes 50/50-jakoa. Erityisesti ihosyövän havaitsemiseen tehtyä tekoälyä oli testattu ensisijaisesti valkoisilla potilailla, eikä se pystynyt tuottamaan tarkkoja diagnooseja tummaihoisista potilaista. Monet näistä elämän ja kuoleman kysymyksistä jätetään puolueellisen teknologian mielijohteille, mikä pahentaa olemassa olevaa terveyteen liittyvää epätasa-arvoa, jota värilliset ihmiset kohtaavat.
Tekoäly ja rahoituspalvelut
Tekoälyn käyttö rahoitusjärjestelmissä lisää ennakkoluuloja. Jotkut FinTech-algoritmit jatkavat lainanantomalleja, joiden tiedetään veloittavan latinalaisilta lainanottajilta 7,9 peruspistettä ja afroamerikkalaisilta 3,6 peruspistettä enemmän asuntolainojen ostamisesta ja jälleenrahoituksesta. Vaikka tutkijat ovat havainneet, että FinTech syrjii 40 prosenttia vähemmän kuin kasvokkain lainanantajat, historiallisesti syrjäytyneisiin yhteisöihin kohdistuu edelleen suhteettoman suuri vaikutus. Ongelmana on myös luottojen näkymätön ongelma, josta 44 miljoonaa amerikkalaista kärsii, koska he ovat "irrotettuina yleisistä rahoituspalveluista eikä heillä siten ole luottohistoriaa". Koska FinTech ei voi arvioida näiden väestöryhmien tulevaa lainanotto- tai luottokäyttäytymistä tiedon puutteen vuoksi, he kärsivät edelleen Yhdysvaltojen varallisuuskuiluista, jotka rajoittavat taloudellista riippumattomuutta.
Tekoäly ja poliittinen disinformaatio
Rajaton tiedonkeruu yhdistettynä tekoälyn käyttöön sosiaalisen median algoritmeissa ovat auttaneet pahat toimijat levittämään syrjäytyneisiin ryhmiin kohdistuvaa disinformaatiota. Vuoden 2016 Yhdysvaltain presidentinvaalien aikana venäläiset toimijat käyttivät sosiaalista mediaa mustien ihmisten kohteeksi ja levittivät viestejä, jotka pyrkivät lietsomaan rotukonflikteja ja luopumaan mustista äänestämästä. Verkossa tapahtuvaa äänestäjien tukahduttamista, joka on toteutettu antamalla harhaanjohtavia tietoja lainvalvontaviranomaisten läsnäolosta äänestyspaikoilla tai levittämällä vääriä äänestystietoja, on käytetty rotuvähemmistöjen kohdistamiseen ja niiden estämiseen äänestämästä. Poliittinen disinformaatio uhkaa rotuvähemmistöjen kansalaisoikeuksia ja asettaa esteitä heidän täysimääräiselle osallistumiselle Amerikan demokratiaan.
Kasvontunnistusteknologiat
Monet aiemmin mainituista käyttötapauksista perustuvat kasvojentunnistus- ja kasvojentunnistusteknologioihin, joissa on teknisiä puutteita erilaisten kohteiden tunnistamisessa ja luokittelussa. Lainvalvonta- tai rikosoikeusjärjestelmissä epätarkkojen kasvojentunnistustekniikoiden (FRT) käyttö on johtanut useisiin laittomiin pidätuksiin, mikä on vaikuttanut suhteettomasti mustien ja latinalaisten väestöön. FRT on myös tuottanut samanlaisia synkän seurauksia, kun sitä on sovellettu julkisten asuntojen asukkaiden valvontaan, joiden pääsy asuntoon on määrätty FRT-tulosten perusteella.
Tekoälyharhaisuuden syvyys ja laajuus pakottavat liittovaltion hallitukselta periaatteellisen ohjauksen ja ratkaisut. Lisäksi digitaalista kilpailukykyä ei voida täysin toteuttaa Yhdysvalloissa ilman kehystä, joka vastaa ennakoivasti näihin ja muihin jatkuviin kotimaisiin haasteisiin, jotka rajoittavat nousevan teknologian osallisuutta. Mutta ennen kuin pyöreän pöydän osanottajat tarjosivat useita ehdotuksia siitä, miten Yhdysvallat voisi ennakoivasti puuttua online-harhaan, he korostivat myös kahta lisätekijää, jotka pahentavat tekoälyn harhaa – tiedon laatua ja työvoiman monimuotoisuutta.
Traumatisoitunut data
Olemassa olevat tiedot osoittavat historiallisesti syrjäytyneiden yhteisöjen historiallisesti epäoikeudenmukaisen kohtelun ja aliedustuksen. Esimerkiksi joissakin työpaikkailmoituksissa oletetaan, että värilliset ihmiset tai naiset ovat vähemmän päteviä, koska he ovat vähemmän edustettuina työvoimassa verrattuna yleiseen väestöön tai valkoisiin miehiin. Mikään näistä oletuksista ei ota huomioon suurempia ja laajempia yhteiskunnallisia tekijöitä ja epäoikeudenmukaisuutta koulutuksessa ja työmarkkinoilla, jotka ovat vaikeuttaneet naisten tai värillisten ihmisten tasapuolista osallistumista työmarkkinoille. Samoin mustien ja ruskeiden yhteisöjen asuntolainat ovat yleensä suhteettoman korkeampia vuosikymmeniä kestäneiden syrjivien asuntolainsäädäntöjen ja uudelleenlinjaamisen seurauksena. Virginian yliopiston dataaktivisti asuinalueella ja kriminologi Renee Cummings kutsuu työssään näitä eroja "datatraumaksi", koska ne jäljittelevät historiallisia perintöjä, jotka leimataan olemassa oleviin tietokokonaisuuksiin ja näkyvät koneoppimisalgoritmeissa. Ja koska nämä vivahteet korreloivat tiiviisti yhteiskunnan kanssa, jossa elämme, dataa on vaikeampi erottaa näistä eksplisiittisistä ja tiedostamattomista oletuksista. Tekoälymalleihin sisällytettynä datatrauma jatkuu ja aiheutetaan tuleville sukupolville, joille malleja käytetään lukuisten käyttötapausten joukossa, jotka määräävät sosiaalisen liikkuvuuden, taloudellisen oikeudenmukaisuuden ja jopa kansalaisoikeudet.
Työvoiman monimuotoisuus
Toinen Brookingsin pyöreän pöydän osallistujien esiin tuoma tärkeä näkökohta on työvoiman monimuotoisuuden tarve tekoälyssä. AI Now Instituten mukaan Facebookin ja Googlen tutkimushenkilöstön nimellinen osuus on 15 prosenttia ja Googlen 10 prosenttia. Nämä luvut ovat vieläkin pienempiä teknologiatyöntekijöiden kohdalla. Vain 2,5 % Googlen työvoimasta on mustia, ja Facebookin ja Microsoftin luvut ovat vain 4 %. Nämä ongelmat ulottuvat lahjakkuuksien ulkopuolelle, sillä "teknologiayritysten työntekijät kokevat syvällisiä ongelmia työpaikan kulttuurien, vallan epäsymmetrian, häirinnän, poissulkevien palkkauskäytäntöjen, epäoikeudenmukaisten korvausten ja tokenisoinnin kanssa, jotka saavat heidät jättämään tekoälysektorin tai välttämään työskentelyn kokonaan. ” Monimuotoisuuden puute teknisissä tiloissa tarkoittaa, että koneoppimisalgoritmeja ja muita autonomisia järjestelmiä kehitetään ilman eläviä kokemuksia, jotka ovat välttämättömiä huonon tiedonkäsittelyn välttämiseksi tai paljon parempien tuotteiden tai palveluiden luomiseksi.
Miten Yhdysvaltojen tulisi asettaa etusijalle yhtäläisten mahdollisuuksien lisääminen tekoälyssä
Palatakseni siihen, mitä Yhdysvallat tekee nyt, vastaperustettu NAIAC loi ensimmäisen kokouksensa aikana viisi työryhmää, joihin kuuluivat: johtajuus luotettavassa tekoälyssä , johtajuutta tutkimuksessa ja kehityksessä, tukemalla Yhdysvaltain työvoimaa ja tarjoamalla mahdollisuuksia, johtajuutta kilpailukyvyssä ja kansainvälisessä yhteistyössä. Lisäksi he perustivat tekoälyä ja lainvalvontaa käsittelevän alakomitean, jonka tehtävänä on tutkia harhaan ja tietoturvaan liittyviä kysymyksiä. Vaikka alaryhmien perustaminen on kaupallista, se on merkki hallinnon sitoutumisesta ihmiskeskeiseen tekoälyyn ja taistella tekoälyjärjestelmissä yleisesti esiintyviä harhoja vastaan. Ihmiskeskeinen tekoäly pyrkii varmistamaan teknologian oikeudenmukaisen ja vastuullisen käytön samalla kun otetaan huomioon, kuinka eksplisiittiset ennakkoluulot muokkaavat olemassa olevia teknologioita.
Aiheeseen liittyvä sisältö
Avoimuus on paras ensimmäinen askel kohti parempaa digitaalista hallintoa
Mark MacCarthyThe Declaration for the Future of the Internet on horjuville demokratioille, ei Kiinalle ja Venäjälle
Alex EnglerData-analyysin vakiinnuttaminen Saksan liittovaltion hallintoon
Alex EnglerVaikka nämä NAIAC:n näkökohdat saattavat kohdata erilaisten ryhmien tasapuolista ja oikeudenmukaista kohtelua, kansalaisoikeusaktivisteja tarvitaan edelleen ja monialaisia asiantuntijoita osallistumaan näihin keskusteluihin. Suosittelemme myös lisäsuosituksia laajemmalle neuvonantajalle ja alaryhmille, kun ne suunnittelevat ja toteuttavat kansallista tekoälyn hallintostrategiaa.
1. Yhdysvaltojen on päivitettävä olemassa oleva kansalaisoikeusjärjestelmä voidakseen määrittää tekoälyn hallinnan tulkittavuuden.
Kansalaisoikeusaktivistit ovat vuosien ajan taistelleet tasapuolisen asunnon, lainojen, työpaikkojen ja muiden saatavuuden puolesta. Edellisissä esimerkeissä on varmaa, että tekoälyn harha hidastaa tällaista edistystä ja jättää ihmisille vain vähän keinoja korjata haitallisia ja petollisia käytäntöjä. Nykyinen kansalaisoikeusjärjestelmä on huonosti varusteltu ja vanhentunut. Esimerkiksi reilu asuntolaki kieltää asumiseen liittyvän syrjinnän rodun, vamman, sukupuolen ja muiden tekijöiden perusteella. Se ei kuitenkaan ota huomioon syrjiviä algoritmeja, joiden avulla vuokralaiset voivat etsiä tiettyihin rotuun ja etnisiin ryhmiin kuuluvia ihmisiä. Liittovaltion lait, jotka estävät äänestäjien uhkailun, eivät riitä torjumaan verkossa esiintyvää disinformaatiota, joka pyrkii vieraanntamaan ja pelottamaan värikkäitä yhteisöjä. Tällä hetkellä yksityishenkilöiden on myös vaikea nostaa kanteita teknologiayrityksiä vastaan. Koska ihmisten kokemukset vaihtelevat sosiaalisen median alustoilla, yhden ihmisen on vaikea saada selville, eroaako hänen katselemansa tieto muiden, erityisesti saalistusperäisten tietojen perusteella. Kongressin pitkän listan lainsäädäntötoimien joukossa on jo liikkeellä laskuja, joilla pyritään torjumaan digitaalisia haittoja. Tämä sisältää kohdennettua mainontaa rajoittavaa lainsäädäntöä, kuten valvontamainonnan kieltämistä koskevaa lakia, ja lainsäädäntöä, jolla pyritään estämään äänestäjien online-uhkailu, kuten petollisia käytäntöjä ja äänestäjien uhkailun ehkäisylaki 2021. Mutta pyrkimykset päivittää kansalaisoikeusjärjestelmämme ja torjua verkkoa vastaan haitat ovat olennainen osa historiallisesti syrjäytyneiden ryhmien kansalaisoikeuksien suojelemista. Jotta haittojen vähentämiseen liittyvää harmonisointia voitaisiin parantaa, nykyisen kansalaisoikeusjärjestelmän arviointi on lähtökohta kohti vastuullisempaa tekoälyä ja suurempaa tasa-arvoa.
2. Yhdysvaltojen tulisi tunnistaa ja määrittää erityisiä käyttötapauksia tiukemman valvonnan ja mahdollisten sääntelytoimien suosituksille, mukaan lukien rahoituspalvelut, terveydenhuolto, työllisyys ja rikosoikeus.
Tekoälyriskiä harkittaessa on tärkeää hahmotella ja määritellä, mitkä käyttötapaukset vaativat tiukkaa valvontaa ja sääntelytoimia. NAIAC voisi olla väline käyttää EU:n tekoälylain kaltaisia puitteita, jotka määrittelevät ja luokittelevat käyttötapauksia, joilla on eri riskiaste, sopivan sääntelyn määrittämiseksi. On myös useita virastoja, jotka pyrkivät torjumaan tekoälyn harhaa eri sektoreilla, kuten aiemmin mainittiin Yhdysvaltain tasa-arvoisten työmahdollisuuksien komissiossa (EEOC). Äskettäin NIST on myös julkaissut ohjeet puolueellisen tekoälyn hallintaan. Jatkamiseksi valtion virastojen välillä pitäisi olla kartoitus, arviointi ja koordinointi punaisten lippujen alueista, mikä herättää keskusteluja sekä korjaustoimenpiteistä että mahdollisista täytäntöönpanotoimista, jotta voidaan käsitellä suoraan suuremman riskin skenaarioita, jotka sulkevat pois haavoittuvien väestöryhmien yhtäläiset mahdollisuudet.
3. Yhdysvaltojen on syvennettävä osallistavaa tekoälyn hallintaa koskevaa lähestymistapaansa, joka rohkaisee julkista panosta, alan parhaita käytäntöjä ja kuluttajien tiedottamista.
Tekoälyn hallintoa tulisi demokratisoida, jotta se mahdollistaa myös teknologioiden ulkopuolella. Olisi luotava osallistava kehys, joka mahdollistaa yleisön panoksen, alan parhaiden käytäntöjen sisällyttämisen ja kuluttajille annettavan tiedon avoimuuden maksimoimiseksi niille, joihin nämä uudet teknologiat eniten vaikuttavat. Tarkastukset ja vaikutustenarvioinnit ovat myös avainasemassa uusien teknologioiden käyttöönotossa, ja niissä keskitytään erityisesti erilaisten vaikutusten ja käytettyjen tietojen ja säilytettävän dokumentaation laadun määrittämiseen. Erityisen herkkiä algoritmeja – erityisesti liittovaltion hallituksen käyttämiä – on tarkasteltava säännöllisesti, jotta voidaan arvioida niiden pitkän aikavälin vaikutukset haavoittuvimpiin ryhmiin. Ja kuluttajien panosta pitäisi arvostaa enemmän. Nykytilanteessa kuluttajilla on rajalliset mahdollisuudet antaa ehdotuksia ja palautetta algoritmien luojille. Esimerkiksi säädösten mukaisten hiekkalaatikoiden ja kuluttajien palautesilmukoiden luomista tekoälymalleille, jotka aiheuttavat merkittävän riskin kansalaisille ja kuluttajille, voitaisiin käyttää harkitseviin ja vääristeleviin toimiin.
4. Todellisen tasa-arvon saavuttamiseksi Yhdysvaltojen tulisi harkita ja soveltaa rasisminvastaista lähestymistapaa tekoälyjärjestelmiin suunnittelusta toteutukseen.
Suurin osa tekoälyn ennakkoluuloista johtuu olemassa olevista systeemisistä epätasa-arvoista, joiden juuret ovat rasismissa. Vaikka kehittäjätiimien monipuolistaminen, tietopoikkeamien tarkastelu ja laaja kuluttajapanos auttavat tasoittamaan tekoälyn suunnittelun ja toteutuksen, se ei aina riitä. Vihan ymmärtäminen ja tunnistaminen on olennainen osa algoritmin tehokkuutta ja hyödyllisyyttä. Siksi Yhdysvallat tarvitsee parhaita käytäntöjä, jotka ylläpitävät algoritmisten suunnittelu- ja toteutusprosessien eheyttä ja välttävät institutionaalisesti synnynnäisiä nimenomaisia syrjiviä ja saalistuskäytäntöjä. Pyöreän pöydän keskustelu paljasti, että tarvitaan rasisminvastaisia puitteita, jotka kannustavat päättäjiä varmistamaan osallistavan edustuksen vastaamalla rakenteellisiin haasteisiin. Tämä sisältää rajalliset tutkimusvarat vähemmistöjä palveleville instituutioille, mukaan lukien HBCU:t, HSI:t ja jopa yhteisön korkeakoulut, tai suojakaiteet. Tekoälyjärjestelmät, jotka mahdollisesti toistavat henkilökohtaisia eriarvoisuuksia, kuten lainvalvontasovellukset. Pääteema tässä on, että tekoäly ei kumoa historiallisia ja rakenteellisia olosuhteita, jotka johtivat tällaisiin eroihin, ellei niitä tietoisesti tunnusteta ja niihin puututa.
Johtopäätös
Kansallinen tekoälyn hallintoa koskeva vuoropuhelu tarjoaa mahdollisuuden asettaa uusia normeja sille, miten Yhdysvallat käsittelee tekoälyn harhaa. Tärkeistä asioista keskusteleminen luo mahdollisuuden selkeyttää määritelmiä ja toteuttaa politiikan muutoksia mielekkäällä todennäköisyydellä lieventää harhoja ja siirtyä lähemmäksi osallistavampaa taloutta. Prosessi alkoi Trumpin hallinnosta, mutta Bidenin Valkoinen talo voi saattaa sen päätökseen ja ottaa huomioon nousevien teknologioiden ei-tekniset näkökohdat.
Näiden tärkeiden näkökohtien lisäksi näiden uusien teknologioiden sidosryhmien on jäljitettävä ongelmien juuret, jotka johtuvat suunnittelutiimien monimuotoisuuden puutteesta ja datasta, joka jatkaa menneisyyden traumaa ja syrjintää. Tarkastelemalla nykyistä kansalaisoikeusjärjestelmää, hahmottelemalla valvontaa vaativia tapauksia, rohkaisemalla demokraattisempaa osallistumista tekoälyn hallintaan ja sisällyttämällä rasisminvastaiset periaatteet kaikkiin algoritmisen suunnitteluprosessin osa-alueisiin on mahdollista, että teknologiayritysten yhteisillä ponnisteluilla. , valtion instituutioiden, kansalaisoikeusryhmien ja kansalaisten, olemassa olevat tekoälyn vinoutumat voidaan muuttaa. Vielä tärkeämpää on, että historiallisesti syrjäytyneiden ryhmien suojelu voidaan integroida paremmin kansalliseen hallintoon, mikä tuo Yhdysvaltoja lähemmäksi yhtäläisten mahdollisuuksien tavoitteita kaikille digitaaliaikana.
Kirjoittajat ovat kiitollisia vuoden 2021 kokouksen asiantuntijoiden panoksesta ja virallisen kokouksen jälkeisistä keskusteluista.
Amazon, Apple, Facebook, Google ja Microsoft ovat yleisiä, rajoittamattomia lahjoittajia Brookings Institutionille. Tässä artikkelissa julkaistut havainnot, tulkinnat ja johtopäätökset ovat yksinomaan tekijöiden tekemistä, eivätkä ne ole vaikuttaneet lahjoituksilla.