Muutama vuosi sitten tietotekniikan tutkija nimeltä Yejin Choi piti esitelmän tekoälykonferenssissa New Orleansissa. Hän heijasti näytölle uutislähetyksen kehyksen, jossa kaksi ankkuria ilmestyi ennen otsikkoa "JUUSTOPUIKKOSTA". Choi selitti, että ihmisten on helppo erottaa tarinan ääriviivat pelkästään näiden kahden sanan perusteella. Oliko joku puukottanut juustohampurilaista? Luultavasti ei. Onko juustohampurilaista käytetty ihmisen puukotukseen? Myös epätodennäköistä. Oliko juustohampurilainen puukottanut juustohampurilaisen? Mahdotonta. Ainoa uskottava skenaario oli, että joku oli puukottanut jotakuta toista juustohampurilaisen päällä. Choi sanoi, että tietokoneet ovat ymmällään tällaisesta ongelmasta. Heiltä puuttuu maalaisjärkeä hylätä ruoka-elintarvikerikollisuuden mahdollisuus.
Tietyissä tehtävissä – shakin pelaamisessa, kasvainten havaitsemisessa – tekoäly voi kilpailla tai ylittää ihmisen ajattelun. Mutta laajempi maailma esittelee loputtomasti odottamattomia olosuhteita, ja siellä A.I. usein kompastuu. Tutkijat puhuvat "kulmatapauksista", jotka sijaitsevat todennäköisen tai odotetun laitamilla; sellaisissa tilanteissa ihmismieli voi luottaa terveeseen järkeen niiden läpiviemiseksi, mutta A.I. järjestelmät, jotka riippuvat määrätyistä säännöistä tai oppineista assosiaatioista, epäonnistuvat usein.
Määritelmän mukaan maalaisjärki on jotakin jokaista; ei kuulosta isolta jutulta. Mutta kuvittele eläväsi ilman sitä, niin se tulee selkeämmin huomioimaan. Oletetaan, että olet karnevaaleilla vieraileva robotti ja kohtaat hauskan talon peilin; Ilman tervettä järkeä saatat ihmetellä, onko kehosi yhtäkkiä muuttunut. Kotimatkalla näet, että paloposti on purkautunut, sataa tiellä; et voi määrittää, onko turvallista ajaa suihkeen läpi. Pysäköit apteekin ulkopuolelle, ja jalkakäytävällä oleva mies huutaa apua ja vuotaa runsasta verta. Saako kaupasta napata siteet joutumatta maksamaan? Kotona on uutisraportti – jotain juustohampurilaisen puukotuksesta. Ihmisenä voit hyödyntää laajaa implisiittistä tietoa tulkitaksesi näitä tilanteita. Teet niin koko ajan, koska elämä on nurkkaa. A.I:t jäävät todennäköisesti jumiin.
Oren Etzioni, C.E.O. Seattlessa sijaitsevan Allen Institute for Artificial Intelligence -instituutin edustaja kertoi minulle, että terve järki on A.I:n "pimeä aine". Se "muovaa niin paljon siitä, mitä teemme ja mitä meidän on tehtävä, mutta silti se on sanoinkuvaamaton", hän lisäsi. Allen-instituutti työskentelee aiheen parissa Defence Advanced Research Projects Agencyn (DARPA) kanssa, joka käynnisti vuonna 2019 nelivuotisen 70 miljoonan dollarin hankkeen nimeltä Machine Common Sense. Jos tietojenkäsittelytieteilijät voisivat antaa A.I. järjestelmissä tervettä järkeä, monet hankalat ongelmat ratkeaisi. Kuten eräs arvosteluartikkeli totesi, A.I. katsomalla pöydän yläpuolelle kurkistavaa puunpalaa tietäisi, että se oli luultavasti osa tuolia, ei satunnaista lankkua. Kielikäännösjärjestelmä voisi purkaa epäselvyyksiä ja kaksinkertaisia merkityksiä. Siivousrobotti ymmärtäisi, että kissaa ei saa hävittää eikä laittaa laatikkoon. Tällaiset järjestelmät voisivat toimia maailmassa, koska niillä on sellainen tieto, jota pidämme itsestäänselvyytenä.
[Tue The New Yorkerin palkittua journalismia. Tilaa tänään »]
1990-luvulla kysymyksiä A.I. ja turvallisuus auttoivat Etzionin aloittamaan maalaisjärjen opiskelun. Vuonna 1994 hän oli mukana kirjoittamassa paperia, jossa yritettiin virallistaa "robotiikan ensimmäinen laki" - Isaac Asimovin scifi-romaaneissa oleva fiktiivinen sääntö, jonka mukaan "robotti ei saa vahingoittaa ihmistä tai toimimattomuuden vuoksi sallia ihminen joutuu vahinkoon." Ongelmana hän havaitsi, että tietokoneilla ei ole käsitystä haitasta. Sellainen ymmärrys edellyttäisi laajaa ja perustavaa laatua olevaa ymmärrystä henkilön tarpeista, arvoista ja prioriteeteista; ilman sitä virheet ovat lähes väistämättömiä. Vuonna 2003 filosofi Nick Bostrom kuvitteli A.I. ohjelma, jonka tehtävänä on maksimoida paperiliittimien tuotanto; se tajuaa, että ihmiset saattavat sammuttaa sen, ja niin poistaa heidät suorittaakseen tehtävänsä.
Bostromin paperiliitin A.I. Häneltä puuttuu moraalinen maalaisjärki – se saattaa kertoa itselleen, että sotkuiset, leikkaamattomat asiakirjat ovat eräänlainen vahinko. Mutta havainnollinen maalaisjärki on myös haaste. Tietojenkäsittelytieteilijät ovat viime vuosina alkaneet luetteloida esimerkkejä "vastakohtaisista" syötteistä – pieniä muutoksia maailmassa, jotka hämmentävät tietokoneita, jotka yrittävät navigoida siinä. Eräässä tutkimuksessa muutaman pienen tarran strateginen sijoittaminen stop-merkkiin sai tietokonenäköjärjestelmän näkemään sen nopeusrajoitusmerkkinä. Toisessa tutkimuksessa 3D-painetun kilpikonnan kuvion hienovarainen muuttaminen teki A.I. tietokoneohjelma näkee sen kiväärinä. A.I. terve järki ei olisi niin helposti hämmentynyt – se tietäisi, että kivääreissä ei ole neljää jalkaa ja kuorta.
Choi, joka opettaa Washingtonin yliopistossa ja työskentelee Allen Instituten kanssa, kertoi minulle, että 1970- ja 80-luvuilla A.I. tutkijat luulivat olevansa lähellä terveen järjen ohjelmointia tietokoneisiin. "Mutta sitten he ymmärsivät: "Voi, se on aivan liian vaikeaa", hän sanoi; He kääntyivät sen sijaan "helpompiin" ongelmiin, kuten esineiden tunnistamiseen ja kielen kääntämiseen. Tänään kuva näyttää erilaiselta. Monet A.I. järjestelmät, kuten kuljettamattomat autot, saattavat pian toimia säännöllisesti rinnallamme todellisessa maailmassa; tämä tekee keinotekoisen maalaisjärjen tarpeesta entistä akuutimman. Ja maalaisjärki voi myös olla saavutettavissa olevampi. Tietokoneet oppivat paremmin itsekseen, ja tutkijat oppivat syöttämään heille oikeanlaista dataa. A.I. saattaa pian kattaa enemmän kulmia.
Kuinka ihmiset oppivat tervettä järkeä? Lyhyt vastaus on, että olemme monitahoisia oppijoita. Kokeilemme asioita ja tarkkailemme tuloksia, luemme kirjoja ja kuuntelemme ohjeita, imemme hiljaa ja päättelemme itse. Kaadumme kasvoillemme ja katsomme muiden tekevän virheitä. A.I. järjestelmät eivät sitä vastoin ole yhtä monipuolisia. Heillä on tapana seurata yhtä reittiä kaikkien muiden ulkopuolelle.
Varhaiset tutkijat seurasivat täsmällisten ohjeiden reittiä. Vuonna 1984 tietojenkäsittelytieteilijä nimeltä Doug Lenat alkoi rakentaa Cyc-tietosanakirjaa, eräänlaista terveen järjen tietosanakirjaa, joka perustuu aksioomeihin tai sääntöihin, jotka selittävät, miten maailma toimii. Eräs aksiooma voisi ajatella, että jonkin omistaminen tarkoittaa sen osien omistamista; toinen voisi kuvata kuinka kovat asiat voivat vahingoittaa pehmeitä asioita; kolmasosa voisi selittää, että liha on pehmeämpää kuin metalli. Yhdistä aksioomit ja tulet järkeviin johtopäätöksiin: jos kuljettajattoman autosi puskuri osuu jonkun jalkaan, olet vastuussa vahingosta. "Se on periaatteessa edustamista ja päättelyä reaaliajassa monimutkaisilla sisäkkäismodaalisilla ilmaisuilla", Lenat kertoi minulle. Cycorp, Cycin omistava yritys, on edelleen jatkuva yritys, ja sadat logiikot ovat käyttäneet vuosikymmeniä syöttäessään järjestelmään kymmeniä miljoonia aksioomia; yrityksen tuotteita verhotaan salassa, mutta Stephen DeAngelis, C.E.O. valmistus- ja vähittäiskauppayrityksiä neuvovasta Enterra Solutionsista kertoi minulle, että sen ohjelmisto voi olla tehokas. Hän tarjosi kulinaarisen esimerkin: Cycillä on hänen mukaansa tarpeeksi tervettä järkeä tietoa eri hedelmien ja vihannesten "makuprofiileista" voidakseen päätellä, että vaikka tomaatti on hedelmä, sen ei pitäisi mennä hedelmäsalaattiin.
Akateemikot pitävät Cycin lähestymistapaa vanhentuneena ja työvoimavaltaisena. he epäilevät, voidaanko terveen järjen vivahteita vangita aksioomien avulla. Sen sijaan he keskittyvät koneoppimiseen, Sirin, Alexan, Google Kääntäjän ja muiden palvelujen takana olevaan teknologiaan, joka toimii havaitsemalla malleja valtavista tietomääristä. Ohjekirjan lukemisen sijaan koneoppimisjärjestelmät analysoivat kirjastoa. Vuonna 2020 tutkimuslaboratorio OpenAI paljasti koneoppimisalgoritmin nimeltä GPT-3; se tarkasteli tekstiä World Wide Webistä ja löysi kielellisiä malleja, joiden avulla se pystyi tuottamaan uskottavasti inhimillistä kirjoitusta tyhjästä. GPT-3:n mimiikka on jollain tapaa hämmästyttävää, mutta toisilla se on alivoimaista. Järjestelmä voi silti tuottaa outoja lausuntoja: esimerkiksi "Havaijilta seitsemääntoista hyppäämiseen tarvitaan kaksi sateenkaari". Jos GPT-3:lla olisi maalaisjärkeä, se tietäisi, että sateenkaari eivät ole ajan yksiköitä ja että seitsemäntoista ei ole paikka.
Choin tiimi yrittää käyttää GPT-3:n kaltaisia kielimalleja ponnahduslautana terveeseen järkeen. Yhdessä tutkimuslinjassa he pyysivät GPT-3:a luomaan miljoonia uskottavia, tervettä järkeä olevia lausuntoja, joissa kuvataan syitä, seurauksia ja aikomuksia – esimerkiksi "Ennen kuin Lindsay saa työtarjouksen, Lindsayn on haettava." Sitten he pyysivät toista koneoppimisjärjestelmää analysoimaan suodatetun joukon näitä lausuntoja ja silmällä pitäen täyttämään tyhjiä kysymyksiä. ("Alex saa Chrisin odottamaan. Alex nähdään...") Ihmisarvioijat havaitsivat, että järjestelmän tuottamat valmiit lauseet olivat 88 prosenttia ajasta tavanomaisia – selvä parannus verrattuna GPT-3:een, joka oli vain 70 -kolme prosenttia tavallista.
Choin laboratorio on tehnyt jotain vastaavaa lyhyillä videoilla. Hän ja hänen työtoverinsa loivat ensin tietokannan miljoonista kuvateksteistä leikkeitä ja pyysi sitten koneoppimisjärjestelmää analysoimaan ne. Sillä välin online-joukkotyöntekijät – Internetin käyttäjät, jotka suorittavat tehtäviä palkasta – laativat monivalintakysymyksiä still-kuvista, jotka on otettu toisesta leikesarjasta, jonka A.I. ei ollut koskaan nähnyt, ja monivalintakysymyksiä, joissa pyydetään perusteluja vastaukselle. Tyypillinen Swingers-elokuvasta otettu kuva esittää tarjoilijan tarjoamassa pannukakkuja kolmelle miehelle ruokalassa, ja yksi miehistä osoittaa toista. Vastauksena kysymykseen "Miksi [henkilö4] osoittaa [henkilö1]?", järjestelmä sanoi, että osoittava mies "kertoi [person3], että [henkilö1] tilasi pannukakut". Ohjelmassa pyydettiin selittämään vastaustaan, että "[henkilö3] toimittaa ruokaa pöytään, eikä hän ehkä tiedä, kenen tilaus on kenen". A.I. vastasi kysymyksiin tervejärkisellä tavalla 72 prosenttia ajasta, kun taas ihmisillä 86 prosenttia. Tällaiset järjestelmät ovat vaikuttavia – niillä näyttää olevan tarpeeksi tervettä järkeä ymmärtääkseen jokapäiväisiä tilanteita fysiikan, syy-seuraus- ja jopa psykologian kannalta. Ikään kuin he tietäisivät, että ihmiset syövät pannukakkuja ruokapaikoissa, että jokaisella ruokailijalla on erilainen järjestys ja että osoittaminen on tapa välittää tietoa.