Ерик Шмид: Стремежът на САЩ към господство в AI е опасен

Всяка държава, която създава супер-AI, ще представлява пряка заплаха за други страни
(снимка: CC0 Public Domain)

Ерик Шмид, бившият главен изпълнителен директор на Google, предупреди за опасностите от стремежа на САЩ към господство в сферата на изкуствения интелект. Според него, това е заплаха за останалите държави и те ще саботират американските AI проекти.

Предупреждението на Шмид идва със статията „Стратегия за суперинтелекта”, изготвена в съавторство с Дан Хендрикс, директор на Центъра за безопасност на AI, и Александър Уанг, основател и изпълнителен директор на Scale AI. Посланието на статията е, че САЩ трябва да се въздържат от реализацията на аналог на „проекта Манхатън” за превъзходство в AI, тъй като това ще провокира изпреварващи киберотговори от други страни, например Китай.

Пряка заплаха

Авторите на статията твърдят, че всяка държава, която създава супер-AI, ще представлява пряка заплаха за други страни и те, стремейки се да осигурят собственото си оцеляване, ще бъдат принудени да саботират такива проекти за AI, отбелязва Data Center Dynamics в анализ на документа.

Всеки „агресивен опит за едностранно господство в областта на AI ще доведе до превантивен саботаж от страна на конкурентите”, който може да бъде приложен под формата на шпионаж, кибератаки, тайни операции за влошаване на обучението на модели и дори директна физическа атака срещу AI центрове за данни.

Шмид и съавторите на статията смятат, че в областта на AI вече сме близо до доктрината за взаимно гарантирано унищожение (Mutual Assured Destruction, MAD) от ерата на Студената война. Авторите наричат настоящата ситуация „Взаимно гарантирано несработване на AI” (Mutual Assured AI Malfunction, MAIM), при коeто проектите за AI, разработени от различни държави, са ограничени от взаимни заплахи за саботаж.

Въпреки това, AI, подобно на ядрените програми в миналото, може да бъде от полза за човечеството в много области. От пробиви в разработването на лекарства до автоматизиране на производствените процеси – използването на AI е важно за икономическия растеж и напредъка в съвременния свят. Според авторите на статията, държавите могат да изберат една от три стратегии:

  • Пълна ненамеса в дейността на разработчиците на AI, чипове и модели;
  • Глобален доброволен мораториум, предназначен да спре по-нататъшното развитие на AI, незабавно или след като бъдат открити определени опасности – например, възможността AI да бъде хакнат или да работи напълно автономно;
  • Глобален монопол върху разработката чрез създаване на международен консорциум като CERN, който ще ръководи развитието на AI.

Коментирайки предложението на Американско-китайската комисия за преглед на икономиката и сигурността (USCC) правителството на САЩ да финансира своего рода „Проект Манхатън” за създаване на суперинтелект в отдалечено място на страната, авторите на статията предупреждават, че Китай ще отговори на този ход по начин, който само ще доведе до дългосрочен дисбаланс на силите и продължаваща нестабилност.

Доктрина за ограничаване вместо победа

Шмид и колегите му смятат, че държавите трябва да дадат приоритет на доктрината за ограничаване пред победата в надпреварата за изкуствен суперинтелект. MAIM предполага, че опитите на всяка държава да постигне стратегически монопол в AI ще бъдат посрещнати с ответни мерки от други страни и също ще доведат до споразумения, насочени към ограничаване на доставките на AI чипове и модели с отворен код, които ще бъдат подобни по смисъл на споразуменията за контрол на ядрените оръжия.

За защита от държавни атаки, насочени към забавяне на развитието на AI, документът предлага изграждане на центрове за данни на отдалечени места, за да се минимизират потенциалните щети. Всеки, който иска да навреди на работата на AI на други страни, може да започне с кибератаки: „Държавите могат да „отровят” данните, да повредят теглата и градиентите на модела, да нарушат софтуера, който обработва грешки на ускорителя и управлява захранването и охлаждането”, се казва в статията.

Прозрачността на развитието на AI също ще помогне за намаляване на вероятността от атаки. AI може да се използва за оценка на сигурността на други AI проекти, което ще помогне за предотвратяване на атаки срещу „граждански” центрове за данни.

В същото време прозрачността във веригите за доставки не би навредила. Тъй като AI ускорителите съществуват в реалния свят, а не във виртуалния, проследяването на техните движения не е толкова трудно. По този начин дори остарели или считани за неизползваеми чипове няма да могат да попаднат на черния пазар – предлага се те да бъдат изхвърляни със същата степен на отговорност, както химическите или ядрените материали.

Зависимостта от Тайван

Спазването на всички тези препоръки обаче няма да премахне основния проблем – зависимостта от Тайван в производството на усъвършенствани чипове, което е критично за САЩ, твърдят авторите на статията. Следователно западните страни трябва да разработят гарантирани вериги за доставки на AI чипове. Това ще изисква значителни инвестиции, но е наложително за осигуряване на конкурентоспособността.

Коментар