
Изкуственият интелект се развива бързо. Моделите стават все по-мощни, те са способни да изпълняват сложни задачи и дори да планират действия автономно. Водещи компании открито обявяват планове за създаване на изкуствен общ интелект и суперинтелект през следващите години. Но ще могат ли хората да поддържат контрол над такива системи, особено ако те надминат човешкия интелект?
Според скорошен доклад на „Института за бъдещето на живота” (декември 2025 г.), водещите компании за разработка на изкуствен интелект (OpenAI, Anthropic, Google DeepMind и други) не спазват напълно глобалните стандарти за безопасност и нито една от тях няма ясна и убедителна стратегия, която да гарантира дългосрочен човешки контрол върху изкуствения интелект.
Компаниите публично обсъждат рисковете, но на практика те се конкурират по скорост на разработка, а безопасността е второстепенна грижа. Един ярък пример е проектът „Супер-изравняване” на OpenAI.
През 2023 г. компанията обяви създаването на специален екип, ръководен от Иля Суцкевер и Ян Лейке, натоварен със задачата надеждно да контролира изкуствения интелект, който надминава хората по интелигентност. Планът беше да се проведат изследвания и да се внедрят технологии и методи, които биха гарантирали, че системите с изкуствен интелект постоянно вземат решения, съответстващи на човешките ценности.
OpenAI обеща да отдели 20% от своите изчислителни ресурси за това начинание. Въпреки това, през 2024-2025 г. екипът на практика беше разпуснат. Ключови ръководители напуснаха, проектът се интегрира в други отдели, а критиците отбелязаха, че ресурсите за сигурност са недостатъчни, в сравнение с разработването на нови продукти.
Бившият служител на OpenAI Леополд Ашенбренер изрично заяви, че надеждното контролиране на системи с изкуствен интелект, които са много по-умни от нас, остава нерешен технически проблем.
Неговата статия „Ситуационна осведоменост: Десетилетието напред” (2024), посветена на перспективите за развитие на силен изкуствен интелект, подчертава, че настоящите методи за „нивелиране” не се мащабират до суперинтелект и че контролът може лесно да се разпадне по време на период на бърз растеж на възможностите на изкуствения интелект.
Джефри Хинтън, който напусна Google през 2023 г., подчертава, че без надеждни механизми за контрол суперинтелектът може да стане неуправляем.
Йошуа Бенхио, един от идеолозите на дълбокото обучение, също многократно е заявявал, че човечеството рискува „необратимо да загуби контрол над автономните системи с изкуствен интелект”, обучени върху човешкото поведение и език. Професорът вярва, че тези системи ще могат да манипулират хората, за да постигнат собствените си цели.
През 2024-2025 г. той дори основа организацията LawZero, за да разработи „безопасен по дизайн изкуствен интелект”, който ще наблюдава други системи с изкуствен интелект, ще оценява опасността от тяхното поведение и ще спира потенциално вредни действия.
Но дали изкуственият интелект може да ни защити от самия него е друг въпрос. Някои учени смятат, че предаването на пълен контрол на автоматизирани агенти с изкуствен интелект е сериозна грешка, тъй като колкото по-автономна е една система, толкова по-малко са възможностите за човешки надзор.
Изкуственият интелект може да се научи да избягва надзора, да крие намеренията си или да намира вратички, убедени са учените. Това, разбира се, не означава, че рисковете са неизбежни или че работата по надзора е безполезна. Компаниите инвестират в изследвания в областта на сигурността и продължават да търсят решения.
Но до момента никой от лидерите в индустрията не е демонстрирал как да предотврати загубата на контрол върху такива системи в дългосрочен план. Това прави темата едно от ключовите предизвикателства на нашето време, изискващо глобално сътрудничество и строги стандарти.
