Какво всъщност може да направи изкуственият интелект днес
Какво всъщност може да направи изкуственият интелект днес
Anonim

Предупреждение за спойлер: Все още е много време преди въстанието на машините.

Какво всъщност може да направи изкуственият интелект днес
Какво всъщност може да направи изкуственият интелект днес

Когато Илон Мъск представя хуманоидния робот Tesla Bot, изглежда, че нова научна революция е точно зад ъгъла. Още малко - и изкуственият интелект (AI) ще надмине човешкия, а машините ще ни заменят в работата. Въпреки това професорите Гари Маркъс и Ърнест Дейвис, и двамата известни експерти по изкуствен интелект, са помолени да не бързат с подобни заключения.

В Reboot на изкуствен интелект изследователите обясняват защо съвременните технологии далеч не са идеални. С разрешението на издателство "Алпина ПРО" Lifehacker публикува откъс от първа глава.

В този момент има огромна пропаст – истинска пропаст – между нашата амбиция и реалността на изкуствения интелект. Тази пропаст е възникнала поради нерешимостта на три конкретни проблема, всеки от които трябва да бъде честно решен.

Първото от тях е това, което наричаме доверчивост, което се основава на факта, че ние, хората, всъщност не сме се научили да правим разлика между хора и машини и това прави лесно да ни заблудим. Ние приписваме интелигентност на компютрите, защото ние самите сме еволюирали и живели сред хора, които до голяма степен базират действията си на абстракции като идеи, вярвания и желания. Поведението на машините често е повърхностно подобно на поведението на хората, така че ние бързо присвояваме на машините същия тип основни механизми, дори ако машините нямат такива.

Не можем да не мислим за машините в когнитивни термини („Компютърът ми мисли, че съм изтрил файла си“), без значение колко прости са правилата, които машините всъщност следват. Но заключенията, които се оправдават, когато се прилагат към хората, може да са напълно погрешни, когато се прилагат към програмите за изкуствен интелект. В уважение към основния принцип на социалната психология, ние наричаме това фундаментална грешка във валидността.

Един от най-ранните случаи на тази грешка се случи в средата на 60-те години, когато чатбот на име Елиза убеди някои хора, че той наистина разбира нещата, които му казват. Всъщност Елиза просто подбра ключови думи, повтори последното нещо, което човекът й каза и в задънена улица прибягва до стандартни разговорни трикове като „Разкажи ми за детството си“. Ако споменахте майка си, тя щеше да ви попита за семейството ви, въпреки че нямаше представа какво всъщност е семейството и защо е важно за хората. Това беше просто набор от трикове, а не демонстрация на истинска интелигентност.

Въпреки факта, че Елиза изобщо не разбираше хората, много потребители бяха заблудени от диалозите с нея. Някои прекараха часове в писане на фрази на клавиатурата, говорейки по този начин с Елиза, но тълкувайки погрешно триковете за чатбот, объркайки речта на папагала за полезен, искрен съвет или съчувствие.

Джоузеф Вайзенбаум Създател на Eliza.

Хората, които много добре знаеха, че разговарят с машина, скоро забравиха този факт, както и любителите на театъра за малко отхвърлят недоверието си и забравят, че действието, на което са свидетели, няма право да бъде наречено истинско.

Събеседниците на Елиза често искаха разрешение за личен разговор със системата и след разговора настояваха въпреки всичките ми обяснения, че машината наистина ги разбира.

В други случаи грешката при оценката на автентичността може да бъде фатална в буквалния смисъл на думата. През 2016 г. един собственик на автоматизиран автомобил Tesla разчита толкова много на привидната безопасност на режима на автопилот, че (според историите) напълно се потопи в гледането на филмите за Хари Потър, оставяйки колата да прави всичко сама.

Всичко вървеше добре - докато в един момент не стана лошо. След като измина стотици или дори хиляди мили без инцидент, колата се сблъска (във всеки смисъл на думата) с неочаквано препятствие: бял камион пресече магистралата и Tesla се втурна точно под ремаркето, убивайки собственика на колата на място. (Колата изглежда предупреди шофьора няколко пъти да поеме контрола, но шофьорът изглежда беше твърде спокоен, за да реагира бързо.)

Моралът на тази история е ясен: фактът, че едно устройство може да изглежда „умно“за момент или два (и дори шест месеца), изобщо не означава, че наистина е така или че може да се справи с всички обстоятелства, при които човек би реагирал адекватно.

Вторият проблем наричаме илюзията за бърз напредък: бъркане на напредъка в изкуствения интелект, свързан с решаването на лесни проблеми, за напредък, свързан с решаването на наистина трудни проблеми. Това например се случи със системата IBM Watson: нейният напредък в играта Jeopardy! изглеждаше много обещаващо, но всъщност системата се оказа много по-далеч от разбирането на човешкия език, отколкото разработчиците очакваха.

Възможно е програмата AlphaGo на DeepMind да следва същия път. Играта на го, подобно на шах, е идеализирана информационна игра, в която и двамата играчи могат да видят цялата дъска по всяко време и да изчислят последствията от ходове с груба сила.

В повечето случаи в реалния живот никой нищо не знае с пълна сигурност; нашите данни често са непълни или изкривени.

Дори в най-простите случаи има много несигурност. Когато решим дали да отидем на лекар пеша или да вземем метрото (тъй като денят е облачен), не знаем точно колко време ще отнеме да чакаме влака на метрото, дали влакът закъса на пътя, дали ще се натъпчем в каретата като херинга в бъчва или ще се намокрим от дъжда навън, без да смеем да вземем метрото и как ще реагира докторът на нашето закъснение.

Винаги работим с информацията, с която разполагаме. Играейки Go със себе си милиони пъти, системата DeepMind AlphaGo никога не се е занимавала с несигурност, тя просто не знае какво е липса на информация или нейната непълнота и непоследователност, да не говорим за сложността на човешкото взаимодействие.

Има още един параметър, който кара игрите на ума да се различават много от реалния свят и това отново е свързано с данните. Дори сложните игри (ако правилата са достатъчно строги) могат да бъдат моделирани почти перфектно, така че системите с изкуствен интелект, които ги играят, могат лесно да събират огромните количества данни, които са им необходими за обучение. По този начин, в случая с Go, една машина може да симулира игра с хора, като просто играе срещу себе си; дори ако системата се нуждае от терабайти данни, тя сама ще ги създаде.

По този начин програмистите могат да получат напълно чисти симулационни данни с минимални или никакви разходи. Напротив, в реалния свят не съществуват идеално чисти данни, невъзможно е да се симулират (тъй като правилата на играта непрекъснато се променят) и още по-трудно е да се съберат много гигабайти подходящи данни чрез опит и грешка.

В действителност имаме само няколко опита да тестваме различни стратегии.

Не сме в състояние например да повторим посещение при лекаря 10 милиона пъти, като постепенно коригираме параметрите на решенията преди всяко посещение, за да подобрим драстично поведението си по отношение на избора на транспорт.

Ако програмистите искат да обучат робот, който да помага на възрастните хора (да речем, за да слагат болни хора в леглото), всяка част от данни ще струва истински пари и истинско човешко време; няма начин да се съберат всички необходими данни с помощта на симулационни игри. Дори манекените за краш тестове не могат да заменят истинските хора.

Необходимо е да се съберат данни за истински възрастни хора с различни характеристики на старчески движения, за различни видове легла, различни видове пижами, различни типове къщи и тук не можете да сгрешите, защото изпускане на човек дори на разстояние от няколко сантиметри от леглото би било катастрофа. В случая е заложен известен напредък (досега най-елементарният) в тази област, постигнат с помощта на методите на тесния изкуствен интелект. Разработени са компютърни системи, които играят почти на нивото на най-добрите човешки играчи във видеоигрите Dota 2 и Starcraft 2, където във всеки един момент на участниците се показва само част от света на играта и по този начин всеки играч се изправя срещу проблем с липсата на информация - това с леката ръка на Клаузевиц се нарича "мъглата на неизвестното". Разработените системи обаче все още остават много тясно фокусирани и нестабилни при работа. Например, програмата AlphaStar, която играе в Starcraft 2, е научила само една конкретна раса от голямо разнообразие от герои и почти нито едно от тези разработки не може да се играе като всяка друга раса. И, разбира се, няма причина да се смята, че методите, използвани в тези програми, са подходящи за успешни обобщения в много по-сложни ситуации от реалния живот. реални животи. Както IBM откри не веднъж, а вече два пъти (първо в шах, а след това в Jeopardy!), Успехът при проблеми от затворен свят изобщо не гарантира успех в отворен свят.

Третият кръг на описаната пропаст е надценяване на надеждността. Отново и отново виждаме, че щом хората с помощта на изкуствен интелект намерят решение на някакъв проблем, който може да функционира без повреди известно време, те автоматично приемат, че с ревизия (и с малко по-голямо количество данни) всичко ще работи надеждно.време. Но това не е непременно така.

Отново вземаме коли без шофьори. Сравнително лесно е да се създаде демонстрация на автономно превозно средство, което правилно ще се движи по ясно обозначена лента на спокоен път; хората обаче са в състояние да правят това повече от век. Въпреки това е много по-трудно да накарате тези системи да работят при трудни или неочаквани обстоятелства.

Както Миси Къмингс, директор на лабораторията за хора и автономия в университета Дюк (и бивш пилот на изтребител на ВМС на САЩ), ни каза в имейл, въпросът не е колко мили може да измине кола без шофьор без инцидент, а в степента към които тези автомобили са в състояние да се адаптират към променящите се ситуации. Според нейната Миси Къмингс, имейл до авторите на 22 септември 2018 г., съвременните полуавтономни превозни средства "обикновено работят само в много тесен диапазон от условия, които не казват нищо за това как могат да работят при по-малко от идеални условия."

Да изглеждаш напълно надежден на милиони тестови мили във Финикс не означава да се представяш добре по време на мусона в Бомбай.

Тази фундаментална разлика между начина, по който автономните превозни средства се държат при идеални условия (като слънчеви дни по многолентовите пътища в предградията) и това, което биха могли да правят в екстремни условия, може лесно да се превърне в въпрос на успех и провал за цяла индустрия.

С толкова малък акцент върху автономното шофиране в екстремни условия и че сегашната методология не се е развила в посока да гарантира, че автопилотът ще работи правилно в условия, които тепърва започват да се разглеждат реално, може скоро да стане ясно, че милиарди долари са изразходвани за методи за изграждане на самоуправляващи се автомобили, които просто не успяват да осигурят надеждност при шофиране, подобна на човека. Възможно е, за да постигнем нивото на техническо доверие, от което се нуждаем, са необходими подходи, които са коренно различни от сегашните.

А автомобилите са само един пример за много подобни. В съвременните изследвания на изкуствения интелект неговата надеждност е глобално подценявана. Това отчасти е така, защото повечето от настоящите разработки в тази област включват проблеми, които са много толерантни към грешки, като например препоръчване на реклама или популяризиране на нови продукти.

Всъщност, ако ви препоръчаме пет вида продукта, а вие харесвате само три от тях, няма да се случи никаква вреда. Но в редица критични AI приложения за бъдещето, включително автомобили без шофьор, грижи за възрастни хора и планиране на здравеопазването, надеждността, подобна на човека, ще бъде от решаващо значение.

Никой няма да си купи домашен робот, който може безопасно да носи възрастния ви дядо в леглото само четири пъти от пет.

Дори в онези задачи, при които съвременният изкуствен интелект теоретично трябва да се появи в най-добрата възможна светлина, редовно се случват сериозни провали, понякога изглеждащи много смешни. Типичен пример: компютрите по принцип вече са се научили доста добре как да разпознават какво е (или се случва) в това или онова изображение.

Понякога тези алгоритми работят чудесно, но често създават напълно невероятни грешки. Ако покажете изображение на автоматизирана система, която генерира надписи за снимки на ежедневни сцени, често получавате отговор, който е забележително подобен на това, което човек би написал; например за сцената по-долу, където група хора играят фризби, широко рекламираната система за генериране на субтитри на Google му дава точното име.

Фигура 1.1. Група млади хора, които играят фризби (правдоподобен надпис на снимка, автоматично генериран от AI)
Фигура 1.1. Група млади хора, които играят фризби (правдоподобен надпис на снимка, автоматично генериран от AI)

Но пет минути по-късно можете лесно да получите абсолютно абсурден отговор от същата система, както се случи например с този пътен знак, върху който някой залепи стикери: компютърът, наречен Създателите на системата, не обясни защо е възникнала тази грешка, но такива случаи не са рядкост. Можем да предположим, че системата в този конкретен случай класифицира (може би по отношение на цвят и текстура) снимката като подобна на другите снимки (от които научи), обозначени като „хладилник, пълен с много храна и напитки“. Естествено, компютърът не разбра (което човек лесно можеше да разбере), че такъв надпис би бил подходящ само в случай на голяма правоъгълна метална кутия с различни (и дори тогава не всички) предмети вътре. тази сцена е "хладилник с много храна и напитки."

Ориз. 1.2. Хладилник пълен с много храна и напитки (напълно неправдоподобно заглавие, създадено от същата система като по-горе)
Ориз. 1.2. Хладилник пълен с много храна и напитки (напълно неправдоподобно заглавие, създадено от същата система като по-горе)

По същия начин автомобилите без шофьор често идентифицират правилно това, което „виждат“, но понякога изглежда пренебрегват очевидното, както в случая с Tesla, която редовно се блъска в паркирани пожарни коли или линейки на автопилот. Слепите зони като тези могат да бъдат още по-опасни, ако се намират в системи, които контролират електропреносните мрежи или отговарят за наблюдението на общественото здраве.

За да преодолеем пропастта между амбицията и реалностите на изкуствения интелект, имаме нужда от три неща: ясно осъзнаване на заложените стойности в тази игра, ясно разбиране защо съвременните AI системи не изпълняват функциите си достатъчно надеждно и, накрая, нова стратегия за развитие на машинно мислене.

Тъй като залогът върху изкуствения интелект е наистина голям по отношение на работните места, безопасността и структурата на обществото, има спешна нужда всички ние - професионалисти в областта на ИИ, сродни професии, обикновени граждани и политици - да разберем истинското състояние на нещата в тази област, за да се научите критично да оценявате нивото и естеството на развитието на съвременния изкуствен интелект.

Точно както е важно гражданите, които се интересуват от новини и статистика, да разберат колко лесно е да се заблуди хората с думи и цифри, така и тук е все по-значим аспект на разбирането, за да можем да разберем къде е изкуственият интелект. само реклама, но къде е истинско; какво е в състояние да прави сега и какво не знае как и може би няма да научи.

Най-важното е да осъзнаете, че изкуственият интелект не е магия, а просто набор от техники и алгоритми, всеки от които има своите силни и слаби страни, подходящ е за едни задачи и не е подходящ за други. Една от основните причини, поради които се заехме да напишем тази книга, е, че голяма част от това, което четем за изкуствения интелект, ни се струва абсолютна фантазия, израстваща от неоснователно доверие в почти магическата сила на изкуствения интелект.

Междувременно тази измислица няма нищо общо със съвременните технологични възможности. За съжаление дискусията за AI сред широката публика беше и е силно повлияна от спекулации и преувеличения: повечето хора нямат представа колко трудно е да се създаде универсален изкуствен интелект.

Нека изясним по-нататъшната дискусия. Въпреки че изясняването на реалностите, свързани с ИИ, ще изисква сериозна критика от наша страна, ние самите в никакъв случай не сме противници на изкуствения интелект, ние наистина харесваме тази страна на технологичния прогрес. Изживяхме значителна част от живота си като професионалисти в тази област и искаме тя да се развива възможно най-бързо.

Американският философ Хюбърт Драйфус веднъж написа книга за това какви висоти, според него, никога не може да достигне изкуственият интелект. Тази книга не е за това. Той се фокусира отчасти върху това, което AI не може да направи в момента и защо е важно да го разберете, но значителна част от него говори за това какво може да се направи, за да се подобри компютърното мислене и да се разшири до области, където сега има затруднения да направи първо. Стъпки.

Не искаме изкуственият интелект да изчезне; искаме той да се подобри, при това радикално, за да можем наистина да разчитаме на него и да решаваме с негова помощ многобройните проблеми на човечеството. Имаме много критики към сегашното състояние на изкуствения интелект, но нашата критика е проява на любов към науката, която правим, а не призив да се откажем и изоставим всичко.

Накратко, ние вярваме, че изкуственият интелект наистина може сериозно да трансформира нашия свят; но също така вярваме, че много от основните предположения за AI трябва да се променят, преди да можем да говорим за реален напредък. Предложеното от нас „нулиране“на изкуствения интелект изобщо не е причина да сложим край на изследванията (въпреки че някои може да разберат книгата ни точно в този дух), а по-скоро диагноза: къде сме заседнали сега и как да се измъкнем от днешната ситуация.

Вярваме, че най-добрият начин да продължим напред може да е да погледнем навътре, изправен пред структурата на собствения си ум.

Истински интелигентните машини не трябва да са точни копия на хората, но всеки, който гледа искрено на изкуствения интелект, ще види, че има още много да се учи от хората, особено от малките деца, които в много отношения са много по-добри от машините в способността им да усвояват и разбират нови понятия.

Учените по медицина често характеризират компютрите като „свръхчовешки“(по един или друг начин) системи, но човешкият мозък все още значително превъзхожда своите силициеви колеги в поне пет аспекта: можем да разбираме езика, можем да разбираме света, можем гъвкаво да се адаптираме към новите обстоятелства, можем бързо да научим нови неща (дори и без големи количества данни) и можем да разсъждаваме пред лицето на непълна и дори противоречива информация. На всички тези фронтове съвременните системи за изкуствен интелект безнадеждно изостават от хората.

Рестартиране на изкуствен интелект
Рестартиране на изкуствен интелект

Изкуствен интелект: Reboot ще заинтересува хората, които искат да разберат съвременните технологии и да разберат как и кога ново поколение AI може да направи живота ни по-добър.

Препоръчано: