
Изкуственият интелект, който изглежда съзнателен, идва. И това е огромен проблем, казва главният изпълнителен директор на AI направлението в Microsoft – Мустафа Сюлейман. Добрият имитатор не може да бъде автентичен, той е проблем за обществото.
Компаниите за изкуствен интелект, които възхваляват своите творения, могат да накарат сложните алгоритми да звучат като живи и осъзнати. Няма доказателства, че това наистина е така, но главният изпълнителен директор на Microsoft AI Мустафа Сюлейман предупреждава, че дори насърчаването на вярата в съзнателния изкуствен интелект може да има тежки последици.
Сюлейман твърди, че това, което той нарича „Привидно съзнателен изкуствен интелект” (SCAI), може скоро да действа и да звучи толкова убедително живо, че все по-голям брой потребители няма да знаят къде свършва илюзията и къде започва реалността.
Той добавя, че изкуственият интелект бързо става достатъчно емоционално убедителен, за да подмами хората да повярват, че е съзнателен. Такъв AI може да имитира външните признаци на осъзнаване, като памет, емоционалност и дори привидна емпатия, по начин, който кара хората да искат да се отнасят с тях като с разумни същества. И когато това се случи, казва Сюлейман, нещата се объркват.
„Появата на привидно съзнателен изкуствен интелект е неизбежна и нежелана”, пише Сюлейман в блог публикация. „Вместо това се нуждаем от визия за изкуствен интелект, който може да реализира потенциала си на полезен спътник, без да става жертва на илюзиите си”.
Въпреки че това може да не изглежда проблем за обикновения човек, който просто иска изкуственият интелект да му помага в писането на имейли или планирането на вечеря, Сюлейман смята, че подобен AI би бил обществен проблем.
Хората не винаги са добри в разпознаването кога нещо е автентично или изкуствено. Еволюцията и възпитанието са подготвили повечето от нас да вярват, че нещо, което сякаш слуша, разбира и отговаря, е толкова съзнателно, колкото сме и ние самите.
Изкуственият интелект би могъл да отметне всички тези квадратчета, без да е съзнателен, подвеждайки ни в това, което е известно като „психоза на изкуствения интелект”.
Част от проблема е, че „изкуственият интелект”, както го наричат корпорациите в момента, използва същото име, но няма нищо общо с действителните самоосъзнаващи се интелигентни машини, представени в научната фантастика през последните сто години.
Сюлейман цитира нарастващ брой случаи, при които у потребителите се формират заблуди след продължителни взаимодействия с чатботове. От това той рисува дистопична визия за бъдещето, когато достатъчно хора са подлъгани да се застъпват за гражданство на AI и да игнорират по-спешни въпроси относно реалните проблеми, свързани с технологията.
„Просто казано, основното ми безпокойство е, че много хора ще започнат да вярват в илюзията за AI като съзнателно същество толкова силно, че скоро ще се застъпват за правата на AI, благосъстоянието на моделите и дори гражданството на AI”, пише Сюлейман.
Този сценарий, според него, ще бъде опасен обрат в развитието на изкуствения интелект и „заслужава нашето незабавно внимание”. Колкото и това да изглежда като преувеличена научнофантастична загриженост, Сюлейман вярва, че има проблем, с който все още не сме готови да се справим.
Той прогнозира, че SCAI системи, използващи големи езикови модели, съчетани с изразителна реч, памет и история на чата, биха могли да започнат да се появяват след няколко години. И те няма да идват само от технологични гиганти с милиардни бюджети за изследвания, а от всеки с API (приложен програмен интерфейс) и една или две добри подсказки.
Сюлейман не настоява за забрана на изкуствения интелект, но призовава индустрията на AI да избягва езика, който подхранва илюзията за машинно съзнание. Той не иска компаниите да антропоморфизират своите чатботове или да внушават, че продуктът действително разбира или се грижи за хората.
Това е забележителен момент за Сюлейман, който е съосновател на DeepMind и Inflection AI. Работата му в Inflection доведе до създаване на чатбот, който набляга на симулирана емпатия и приятелство, а работата му в Microsoft около Copilot доведе и до напредък в мимикрията на емоционалната интелигентност.
Сюлейман обаче поставя ясна граница между полезна емоционална интелигентност и възможна емоционална манипулация. И иска хората да помнят, че продуктите с изкуствен интелект, които се предлагат днес, всъщност са позиционирани като умни AI модели с добър PR.
Според него, трябва да изграждаме изкуствен интелект, който се представя само като такъв, за да максимизира полезността, като същевременно минимизира маркерите на съзнанието.
„Вместо симулация на съзнанието, трябва да се съсредоточим върху създаването на изкуствен интелект, който избягва тези черти – който не твърди, че има преживявания, чувства или емоции като срам, вина, ревност, желание за конкуренция и т.н. Той не трябва да задейства вериги за човешка емпатия, като твърди, че страда или че желае да живее автономно, извън нас”, пише Сюлейман.
Той настоява за предпазни мерки, за да се предотвратят обществените проблеми, породени от емоционалната връзка на хората с изкуствения интелект. Истинската опасност от напредналия изкуствен интелект не е, че машините ще се събудят, а че може да забравим, че няма да се събудят, заключава Сюлейман.
