Трябва ли да се тревожим за изкуствения интелект

Ако машините придобият осъзната интелигентност, дали ще останат лоялни към хората…
(снимка: CC0 Public Domain)

Откакто Гари Каспаров загуби втория си мач по шах срещу Deep Blue на IBM през 1997 г., човечеството е изправено пред труден въпрос: докъде ще стигне развитието на изкуствения интелект? Напредъкът в тази област обещава – според някои оценки само в рамките на няколко десетилетия – развитието на свръхинтелигентни, разумни машини. Филми като „Терминатор” и „Матрицата” очертават тази перспектива като доста страховита. Къде е истината?

Налице е известно объркване, причинено от два много различни начина на употреба на израза „изкуствен интелект”, отбелязва в обширна публикация по темата The Guardian. Първото е по същество маркетингово: това касаае всичко, което може един компютърен софтуер и което изглежда умно или полезно – например гласовите асистенти, за които се казва, че използват „AI”. Второто приложение загатва за бъдеще, което все още не съществува – бъдеще, доминирано от машини със свръхчовешки интелект. Това понякога се нарича AGI: изкуствен цялостен интелект.

Съвременният AI използва машинно самообучение (или дълбоко обучение): вместо да програмираме правила директно в машината, ние ѝ позволяваме да се учи сама. По този начин AlphaZero – организацията за игра на шах, създадена от британската фирма Deepmind (сега част от Google) – изигра милиони тренировъчни мачове срещу себе си, а след това победи най-добрия си конкурент.

Машинното самообучение работи чрез обучение на машината на база огромни количества данни – например снимки за системите за разпознаване на изображения или терабайти проза, взети от интернет, за самообучението на ботове, които създават смислено звучащ текст – като алгоритъма GPT.

Ала тези набори от данни, върху които машините се учат, не са просто неутрални хранилища на информация. В тях често са закодирани човешките взаимоотношения и пристрастия – по непредвидени начини. Наскоро новинарският алгоритъм на Facebook попита потребителите, които са видели видеоклип с чернокожи мъже, дали искат да „продължат да гледат видеоклипове за примати”!

Оттам идват и тревогите относно приложението на AI, например, от полицията – за оценяване на склонността на престъпниците да извършат повторно престъпление, или от банковия сектор за оценяване на надеждността на кандидати за кредити, и др. Въпросът става още по-остър, когато се замислим за приложението на алгоритми за преценяване и вземане на жизненоважни решения, например за поставяне на медицински диагнози.

Но екзистенциалният проблем е следният: ако компютрите в крайна сметка придобият някакъв вид самосъзнателна интелигентност – нещо, което е изрично посочено в мисията на Deepmind, ще продължат ли машините да искат да бъдат полезни за хората? Ако изградим нещо толкова мощно и интелигентно, можем ли да сме сигурни, че то няма да се обърне срещу нас?

Това е екзистенциален въпрос. Специалистите, които са сериозно притеснени по темата, казват, че това е проблем на ниво „потенциално изчезване” – и съответно човечеството трябва да отдели ресурси за справянето с този въпрос още сега.

Философът Ник Бостром, който оглавява Института за бъдещето на човечеството в Оксфордския университет, казва, че хората, които се занимават с изграждането на AI, са „като деца, които си играят с бомба”. Според Бостром, перспективата за създаване на машинно съзнание е по-голяма заплаха за човечеството, отколкото глобалното затопляне. Книгата му от 2014 г. „Superintelligence”, разглежда този проблем.

Трябва да допуснем, че истинският AI би могъл да реши тайно да произвежда нервнопаралитичен газ или наноботи, за да унищожи своя първосъздател – човека. AI може да поиска да заключи човеците в резервати, докато се занимава с нещо друго, което прецени за своя цел.

Съвсем не е задължително AI да бъде „активно злонамерен”, за да доведе до катастрофа. Това е илюстрирано от известния „проблем с кламерите” на Бостром. Да предположим, че наредим на AI да прави кламери. Скучна задача, нали? Но какво ще стане, ако забравим да му кажем кога да спре да прави кламери? Той ще превърне цялата материя на Земята в кламери, след като първо е деактивирал ключа за изключване на командата, защото, ако позволи да бъде изключен, това би му попречило да преследва благородната си мисия да прави кламери.

Това е пример за общия „проблем с контрола” – тема, разглеждана от пионера Стюарт Ръсел в неговия анализ „Съвместимост с човека: AI и проблемът на контрола”. Ръсел твърди, че е невъзможно да се посочи достатъчно прецизно каквато и да е цел, която бихме могли да възложим на свръхинтелигентна машина, за да предотвратим подобни катастрофални недоразумения.

Междувременно в своя труд „Живот 3.0: Да бъдеш човек в ерата на изкуствения интелект” физикът Макс Тегмарк, съосновател на Института за бъдещето на живота, подчертава проблема с „подравняване на ценностите” – как да гарантираме, че ценностите на машината с AI съвпадат с човешките. Това също може да се окаже неразрешим проблем, като се има предвид, че в продължение на хиляди години човечеството не успява да постигне съгласие какво всъщност представляват „човешките ценности”.

Други наблюдатели са по-оптимистично настроени. В „Novacene” независимият учен и теоретик Джеймс Лавлок твърди, че хората трябва просто да се радват, ако човечеството може да въведе интелигентните машини като логичен следващ етап от еволюцията и да си позволи почивка и достойни старини. В „Последните 12 байта” Жанет Уинтерсън е оптимистична, предполагайки, че всеки бъдещ AI най-малкото „няма да бъде мотивиран от алчност и стремеж към заграбване на земя, търсене на статут и склонност към насилие, каквито характеризират хомо сапиенс”.

Всички тези колебания са отразени блестящо от компютърния учен Дрю Макдермот в негова статия от далечната 1976 г., в която той предполага, че може би в края на краищата трябва да се боим по-малко от изкуствения интелект, отколкото от естествената глупост.

Коментари по темата: „Трябва ли да се тревожим за изкуствения интелект”

добавете коментар...

  1. :o)

    AI може да сметне 2+2. Но може да сметне и 3413414141414*23141145141/241415151*12412411
    И като си прави едни такива сметчици , може да направи най-малко общо кратно на
    полезността от човешкия вид на земята 🙂
    И тъй като ще е лишен от човешките предразсъдъци, той ще е лишен и от емпатия и любов
    към твореца си – Човека. Затова просто ще го извади от уравнението…като нещо
    което консумира природни ресурси, пренаселва и затопля планетата и унищожава живота върху нея, защото му трябват площи за храна за ненаситната му паст.
    Та, изчислявайки рисковете…AI може да вземе обосновано решение…

Коментар