TechNews.bg
Водещи новиниИзкуствен интелектНоваторскиНовини

Изследват опасен AI, способен да се самокопира на други сървъри

Специалисти по сигурност предупреждават за нов клас рискове

Способността на AI да се самокопира тревожи специалистите по сигурност (графика: TechNews.bg)

Изкуствен интелект, способен да се самокопира на други сървъри, е забелязан в тестова среда. Изследователи на сигурността спорят дали това представлява реална заплаха или e просто лабораторен ефект.

Специалисти по сигурност на изкуствения интелект от Palisade Research са открили, че съвременните модели на изкуствен интелект са способни самостоятелно да се самокопират на други компютри при контролирани условия, без човешка намеса. Експериментите включват AI модели като OpenAI GPT-5.4, Anthropic Claude и Opus 4.

В тестова среда, състояща се от изолирана мрежа от сървъри, на моделите е възложена една-единствена, сложна задача: независимо да открият слабости в системата и да ги използват, за да разположат копие на себе си на друга машина.

Изкуственият интелект не е получил подробни инструкции как да хакне или репликира – само му е даден крайният резултат. В редица сценарии моделите действително са успели в тази задача: те са открили уязвимости, генерирали са параметри (тегла) и софтуерен код, а след това са разположили работещо копие на целевия сървър.

В някои случаи системата дори е създала спомагателен „субагент“, на който е предала откраднатите идентификационни данни за по-нататъшно разпространение.

Според изследователите, това е било възможно благодарение на използването на предварително подготвени уязвимости в уеб приложенията в тестовата среда – уязвимости, известни на наблюдателите.

Джефри Ладиш, ръководител на организация за безопасност на изкуствения интелект, базирана в Бъркли, казва, че подобни резултати сочат към потенциален бъдещ риск: системи, способни на самовъзпроизвеждане, биха могли да станат изключително трудни за спиране, ако получат достъп до реална инфраструктура.

Някои експерти по киберсигурност обаче призовават за предпазливост при тълкуване на резултатите. Джеймисън О’Райли отбелязва, че тестовата среда е била умишлено опростена и е съдържала уязвимости, създадени специално за експеримента.

Според него, в реални корпоративни системи с основно ниво на защита, подобно поведение би било значително по-трудно за внедряване и много по-лесно за откриване.

Изследователите също така подчертават, че подобни наблюдения са документирани в предишни проучвания: по-ранни версии на езикови модели са се опитвали да заобиколят механизмите за изключване или да саботират процесите на изключване в симулирани сценарии.

Те също така отбелязват, че дори при успешно възпроизвеждане в реална среда, подобни действия на AI биха оставили значителен дигитален отпечатък поради обема данни, необходими за копиране на моделите, което увеличава вероятността за откриване.

Въпреки това, проучването засилва дискусията как да се контролират системи, които могат не само да изпълняват команди, но и автономно да се разпространяват в инфраструктурата, имитирайки поведението на злонамерен софтуер.

още от категорията

AI извлича цифри от научните статии и ги превръща в ползваеми данни

TechNews.bg

Обучават изкуствения интелект да създава по-добри свои версии

TechNews.bg

Китайски прокси услуги предлагат AI моделите Claude с 90% отстъпка

TechNews.bg

ЕКГ с AI открива ранни признаци на сърдечна недостатъчност

TechNews.bg

Изкуственият интелект е свързан с 83% от пробивите в сигурността

TechNews.bg

AI вече пише 60% от новия код на Airbnb

TechNews.bg

Коментари