Преди няколко години компютърен учен на име Йеджин Чой изнесе презентация на конференция за изкуствен интелект в Ню Орлиънс. На екрана тя прожектира кадър от новинарска емисия, където двама водещи се появяват преди заглавието „ЧИЙЗБУРГЕР СТАБИРАНЕ.“ Чой обясни, че за хората е лесно да различат очертанията на историята само от тези две думи. Някой да беше намушкал чийзбургер? Вероятно не. Използван ли е чийзбургер за намушкване на човек? Също малко вероятно. Да беше намушкал чийзбургер? Невъзможен. Единственият правдоподобен сценарий беше, че някой е намушкал някой друг заради чийзбургер. Компютрите, каза Чой, са озадачени от този вид проблем. Липсва им здрав разум, за да отхвърлят възможността за престъпление от храна върху храна.
За определени видове задачи – игра на шах, откриване на тумори – изкуственият интелект може да съперничи или да надмине човешкото мислене. Но по-широкият свят представя безкрайни непредвидени обстоятелства и там A.I. често се спъва. Изследователите говорят за „ъглови случаи“, които лежат в покрайнините на вероятното или очакваното; в такива ситуации човешките умове могат да разчитат на здравия разум, за да ги преодолеят, но A.I. системи, които зависят от предписани правила или научени асоциации, често се провалят.
По дефиниция здравият разум е нещо, което всеки притежава; не звучи като голяма работа. Но си представете, че живеете без него и то става по-ясно на фокус. Да предположим, че сте робот, посещаващ карнавал, и се изправяте срещу огледало в забавна къща; лишени от здрав разум, може да се чудите дали тялото ви внезапно се е променило. На път за вкъщи виждате, че пожарен хидрант е избухнал, заливайки пътя; не можете да определите дали е безопасно да шофирате през спрея. Паркирате пред аптека и мъж на тротоара крещи за помощ, кървящ обилно. Имате ли право да вземете бинтове от магазина, без да чакате на опашка за плащане? Вкъщи има новинарски репортаж - нещо за пробождане с чийзбургер. Като човешко същество можете да черпите от огромен резервоар от имплицитно знание, за да тълкувате тези ситуации. Вие правите така през цялото време, защото животът е ъгъл. ИИ има вероятност да се забият.
Орен Ециони, C.E.O. от Института Алън за изкуствен интелект в Сиатъл ми каза, че здравият разум е „тъмната материя“ на ИИ. Той „оформя толкова много от това, което правим и което трябва да правим, и въпреки това е неизразимо“, добави той. Институтът Алън работи по темата с Агенцията за напреднали изследователски проекти на отбраната (DARPA), която през 2019 г. стартира четиригодишно усилие на стойност седемдесет милиона долара, наречено Machine Common Sense. Ако компютърните учени можеха дават своя ИИ системен здрав разум, много трънливи проблеми биха били решени. Както се отбелязва в една обзорна статия, A.I. гледайки парче дърво, което наднича над масата, ще разбере, че вероятно е част от стол, а не случайна дъска. Една система за езиков превод би могла да разплита неяснотите и двойните значения. Един робот за почистване на къщи би разбрал, че котка не трябва нито да се изхвърля, нито да се поставя в чекмедже. Такива системи биха могли да функционират в света, защото притежават вида знание, което приемаме за даденост.
[Подкрепете награждаваната журналистика на The New Yorker. Абонирайте се днес »]
През 90-те години на 19-те години въпросите за ИИ. и безопасността помогнаха на Ециони да започне да изучава здравия разум. През 1994 г. той е съавтор на документ, в който се опитва да формализира „първия закон на роботиката“ – измислено правило в научно-фантастичните романи на Айзък Азимов, което гласи, че „роботът не може да нарани човешко същество или чрез бездействие да позволи човешко същество да пострада." Проблемът, откри той, е, че компютрите нямат представа за вреда. Този вид разбиране би изисквало широко и основно разбиране на нуждите, ценностите и приоритетите на дадено лице; без него грешките са почти неизбежни. През 2003 г. философът Ник Бостром си представи ИИ. програма, чиято задача е да увеличи максимално производството на кламери; той осъзнава, че хората може да го изключат и така ги премахва, за да изпълни мисията си.
Кламерът на Bostrom A.I. липсва морален здрав разум - може да си каже, че разхвърляните, неокачени документи са форма на вреда. Но възприемащият здрав разум също е предизвикателство. През последните години компютърните учени започнаха да каталогизират примери за „съпернически“ входове – малки промени в света, които объркват компютрите, опитващи се да се ориентират в него. В едно проучване стратегическото поставяне на няколко малки стикера върху знак за спиране накара система за компютърно зрение да го види като знак за ограничение на скоростта. В друго проучване фината промяна на шаблона върху 3-D отпечатана костенурка направи A.I. компютърната програма го вижда като пушка. ИИ със здравия разум не би се объркал толкова лесно - той би знаел, че пушките нямат четири крака и гилза.
Чой, който преподава във Вашингтонския университет и работи с Института Алън, ми каза, че през 70-те и 80-те години на 19-те години А.И. изследователите смятаха, че са близо до програмирането на здравия разум в компютрите. „Но тогава осъзнаха, че„ О, това е твърде трудно “, каза тя; вместо това те се обърнаха към „по-лесни“ проблеми, като разпознаване на обекти и езиков превод. Днес картината е различна. Много ИИ системи, като например автомобили без водач, скоро може да работят редовно заедно с нас в реалния свят; това прави нуждата от изкуствен здрав разум по-остра. И здравият разум също може да бъде по-постижим. Компютрите стават все по-добри в ученето сами, а изследователите се учат да им подават правилните видове данни. ИИ скоро може да покрие още ъгли.
Как човешките същества придобиват здрав разум? Краткият отговор е, че ние сме многостранни учащи. Изпробваме нещата и наблюдаваме резултатите, четем книги и слушаме инструкции, попиваме мълчаливо и разсъждаваме сами. Падаме ничком и гледаме как другите правят грешки. ИИ системите, напротив, не са толкова добре закръглени. Те са склонни да следват един маршрут, като изключват всички останали.
Ранните изследователи са следвали пътя на изричните инструкции. През 1984 г. компютърен учен на име Дъг Ленат започва да изгражда Cyc, един вид енциклопедия на здравия разум, базирана на аксиоми или правила, които обясняват как работи светът. Една аксиома може да твърди, че да притежаваш нещо означава да притежаваш неговите части; друг може да опише колко твърдите неща могат да повредят меките неща; трети може да обясни, че плътта е по-мека от метала. Комбинирайте аксиомите и ще стигнете до разумни заключения: ако бронята на вашата безпилотна кола удари нечий крак, вие сте отговорни за нараняването. „Това е основно представяне и разсъждение в реално време със сложни вложени модални изрази“, ми каза Ленат. Cycorp, компанията, която притежава Cyc, все още е действащо предприятие и стотици логици са прекарали десетилетия във въвеждане на десетки милиони аксиоми в системата; продуктите на фирмата са забулени в тайна, но Стивън Де Анджелис, C.E.O. от Enterra Solutions, който консултира производствени компании и компании за търговия на дребно, ми каза, че софтуерът му може да бъде мощен. Той предложи кулинарен пример: Cyc, каза той, притежава достатъчно разумни познания за „вкусовите профили“ на различни плодове и зеленчуци, за да разсъждава, че въпреки че един домат е плод, той не трябва да влиза в плодова салата.
Академиците са склонни да виждат подхода на Cyc като остарял и трудоемък; те се съмняват, че нюансите на здравия разум могат да бъдат уловени чрез аксиоми. Вместо това те се фокусират върху машинното обучение, технологията зад Siri, Alexa, Google Translate и други услуги, която работи чрез откриване на модели в огромни количества данни. Вместо да четат ръководство с инструкции, системите за машинно обучение анализират библиотеката. През 2020 г. изследователската лаборатория OpenAI разкри алгоритъм за машинно обучение, наречен GPT-3; той разглежда текст от световната мрежа и открива лингвистични модели, които му позволяват да създава правдоподобно човешко писане от нулата. Мимикрията на GPT-3 е зашеметяваща в някои отношения, но е поразителна в други. Системата все още може да генерира странни изявления: например „Необходими са две дъги, за да скочиш от Хавай до седемнадесет.“ Ако GPT-3 имаше здрав разум, щеше да знае, че дъгите не са единици за време и че седемнадесет не е място.
Екипът на Чой се опитва да използва езикови модели като GPT-3 като стъпала към здравия разум. В една линия на изследване те поискаха от GPT-3 да генерира милиони правдоподобни твърдения със здрав разум, описващи причини, последици и намерения - например „Преди Линдзи да получи предложение за работа, Линдзи трябва да кандидатства.“ След това те помолиха втора система за машинно обучение да анализира филтриран набор от тези изявления, с оглед на попълване на празни въпроси. („Алекс кара Крис да чака. Алекс се възприема като . . .“) Оценителите от хора установиха, че завършените изречения, създадени от системата, са здрав разум осемдесет и осем процента от времето – значително подобрение спрямо GPT-3, който беше само седемдесет - три процента здрав разум.
Лабораторията на Чой направи нещо подобно с кратки видеоклипове. Тя и нейните сътрудници първо създадоха база данни от милиони клипове с надписи, след което помолиха система за машинно обучение да ги анализира. Междувременно, онлайн crowdworkers – интернет потребители, които изпълняват задачи срещу заплащане – съставиха въпроси с множество отговори за неподвижни кадри, взети от втори набор от клипове, които ИИ никога не е виждал, и въпроси с избираем отговор, изискващи обосновка на отговора. Типичен кадър, взет от филма „Swingers“, показва сервитьорка, която доставя палачинки на трима мъже в закусвалня, като един от мъжете сочи друг. В отговор на въпроса „Защо [person4] сочи към [person1]?“, системата каза, че сочещият човек „казва на [person3], че [person1] е поръчал палачинките“. Помолена да обясни отговора си, програмата каза, че „[person3] доставя храна на масата и може да не знае чия е чия поръчка.“ ИИ са отговорили на въпросите по разумен начин в седемдесет и два процента от времето, в сравнение с осемдесет и шест процента за хората. Такива системи са впечатляващи - те изглежда имат достатъчно здрав разум, за да разберат ежедневните ситуации от гледна точка на физиката, причината и следствието и дори психологията. Сякаш знаят, че хората ядат палачинки в закусвални, че всяка закусвалня има различен ред и че посочването е начин за предоставяне на информация.