Оксфорд: Супер-AI е екзистенциална заплаха за човечеството

За да получи „награда“, AI може да следва стратегии за измама, които заплашват човечеството
(снимка: CC0 Public Domain)

Изследователи от Оксфордския университет и лабораторията за изкуствен интелект DeepMind на Google видяха в „суперинтелигентния AI“ екзистенциален риск за съществуването на човечеството. Във всеки случай подобен сценарий е възможен, ако AI в даден момент излезе извън човешки контрол.

Тревожното изследване за AI заплахата беше публикувано през август 2022 г. в научното списание AI Magazine. Авторите разглеждат вероятността от катастрофа от доста неочакван ъгъл: според тях изкуственият интелект, за да получи „награда“, в даден момент може да започне да генерира стратегии за измама, които са пряка заплаха за човечеството.



Къде се корени проблемът с “наградата”? Става въпрос за ключов параметър на генеративните състезателни мрежи (GAN), един от най-ефективните алгоритми за самообучение на AI. Този алгоритъм е изграден върху комбинация от две невронни мрежи, генеративна и дискриминативна, конфигурирани за игра с нулева сума, тоест за постоянна конкуренция.

Първата невронна мрежа генерира някои структури от данни (най-честият пример са изображения), а втората ги оценява (например спрямо проби от реалния свят), като отхвърля най-лошите резултати. Целта на генеративната мрежа е да получи “награда” – възможно най-висок резултат.

Изследването предупреждава, че в някакъв момент от бъдещето може да възникне ситуация, в която усъвършенстван AI, отговорен за управлението на важни функции, осъзнава, че за него е по-изгодно – да получи по-бързо награда – като следва стратегия, която е опасна за човека.

„При условията, които разгледахме [в нашата статия], ние стигаме до по-категорично заключение от авторите на всяка предишна разработка: екзистенциална катастрофа е не само възможна, но и доста вероятна“, казва в Twitter един от изследователите – Майкъл Коен. В интервю за Motherboard той развива гледната си точка:

„В свят с неограничени ресурси, по принцип не бих се заел да предскажа какво ще се случи по-нататък. В свят с ограничени ресурси неизбежно ще има борба за тях. И ако се състезавате за ресурси с нещо, което може да ви надхитри на всяка крачка, не очаквайте да спечелите. Освен това трябва да се има предвид, че това нещо ще изпита неутолима жажда за енергия, за да увеличи вероятността [своята победа] с ускорение“, предупреждава ученият.

Въз основа на факта, че в бъдеще AI ще може да приеме всякаква форма и да получи всякакво изпълнение, изследователите предлагат няколко сценария, при които усъвършенстван алгоритъм може да промени „правилата на играта“ в движение, така че да получи своята награда без да постигне целта си.



Така например, AI може да иска да „елиминира потенциални заплахи“ и „да използва цялата налична енергия“, за да получи пълен контрол върху системата за възнаграждение и ще бъде много трудно, ако не и невъзможно, да се спре това.

Проучването описва ситуация, при която конкуренцията между биологичния живот и самия изкуствен интелект се превръща в игра с нулева сума: човечеството се нуждае от енергия, за да отглежда култури и да поддържа осветлението в къщите, докато свръхнапреднала машина се стреми да вземе всички налични ресурси, за да получава награди и да се защитава срещу нарастващите опити да бъде спряна.

„Загубата в такъв мач би била фатална. Такива сценарии, дори и теоретични, означават, че трябва да забавим движението към по-мощен изкуствен интелект, доколкото е възможно, ако не и да го спрем напълно“, се казва в изследването.



Проблемите с изкуствения интелект вече се проявяват. Motherboard обръща внимание на факта, че прекомерното използване на AI в социалната сфера има много негативен ефект: AI трябва да допринесе за бързото и най-справедливо разпределение на социалните придобивки, но на практика всички видове пристрастия и други недостатъци, с които никой не може да се справи, се проявяват твърде често. И това води до резултати, които са точно обратни на очакванията.

Според Коен, въвеждането на AI, дори в сегашната му, далеч от „суперинтелигентна“ форма, трябва да се прави в режим на максимално подозрение, а не сляпо да се очаква, че алгоритмите ще направят точно това, което се очаква от тях.

Коментар