
Някои от най-големите технологични компании и водещи инвеститори в САЩ се намесиха в разгорещения спор между компанията за изкуствен интелект Anthropic и Пентагона. Причината е възможността американското правителство да обяви компанията за „риск за веригата на доставки“.
Подобно решение, което би могло да доведе до забрана за използването на AI технологиите на Anthropic от държавни подизпълнители. Казусът се превръща в ключов тест за това докъде се простира контролът на разработчиците върху начина, по който държавите използват техния изкуствен интелект.
Голяма индустриална организация от технологичния сектор, в която участват компании като Amazon, Nvidia, Apple и OpenAI, публично изрази тревога от развитието на конфликта.
В писмо до администрацията по информационните технологии обединението посочва своето безпокойство от известията, че Министерството на войната на САЩ – новото име на Пентагона – обмисля да обяви определена компания за „риск във веригата на доставки“ заради спор около обществени поръчки.
В документа не се споменава директно името на Anthropic, но контекстът ясно сочи към нея. Междувременно главният изпълнителен директор на компанията Дарио Амодеи е провел разговори с ключови инвеститори и партньори, сред които и ръководството на Amazon.
Според източници, запознати със ситуацията, цитирани от Ройтерс, рискови фондове като Lightspeed и Iconiq също са започнали активни консултации както с Anthropic, така и с други инвеститори, в опит да намерят решение.
Някои от инвеститорите дори са потърсили контакти в администрацията на президента Доналд Тръмп. Целта е да се намали напрежението и да се избегне най-неблагоприятният сценарий – пълна забрана технологиите на Anthropic да се използват от всички компании, които работят по договори с Пентагона.
Паралелно с това продължават и разговорите между компанията и американското военно ведомство. Подробности за тях не се разкриват. Известно е обаче, че президентът Тръмп е призовал Anthropic да съдейства на правителството при постепенния отказ от използването на нейните AI системи.
Конфликтът между Anthropic и Пентагона продължава вече няколко месеца. В основата му стои въпросът как и при какви условия военните могат да използват технологиите на компанията на бойното поле. Спорът бързо се превърна в символичен тест за границите на корпоративния контрол върху изкуствения интелект.
Военното ведомство настоява разработчиците на AI да премахнат собствените си ограничения върху употребата на технологиите и да приемат принципа за използване при всяка законна цел. Anthropic отказва да се съгласи. Компанията настоява нейната система Claude да не се използва за автономни оръжия или за масово вътрешно наблюдение в САЩ.
Парадоксално е, че именно Anthropic беше първата AI компания, която получи достъп до класифицирана информация чрез партньорство с облачната инфраструктура на Amazon. Това прави потенциалното ѝ определяне като „риск за веригата на доставки“ още по-чувствително.
От OpenAI също се включиха в дебата. Компанията съобщи, че е подписала собствен договор с Пентагона за работа с класифицирани данни и изрази позиция, че Anthropic не бива да бъде обявявана за риск.
Представител на OpenAI по национална сигурност заяви на конференция в Калифорния, че неприемливите ограничения за компанията са сходни – тя не допуска технологията ѝ да се използва за вътрешно наблюдение и за автономни оръжия.
Инвеститорите на Anthropic са заявили подкрепата си за компанията, но същевременно настояват за дипломатично решение на конфликта, съобщава още Ройтерс. Някои от тях дори са изразили недоволство от начина, по който ръководството е управлявало отношенията с Пентагона, определяйки ситуацията като „проблем на егото и дипломацията“.
Дарио Амодеи, основател и CEO на Anthropic, обаче се намира в деликатна позиция. Отстъпление пред администрацията може да предизвика силна реакция сред служителите и потребителите, които подкрепят строгата позиция на компанията по отношение на военната употреба на изкуствения интелект.
В същото време рискът от официално определяне на компанията като „заплаха за веригата на доставки“ тревожи инвеститорите. Подобно решение би могло да нанесе сериозен удар върху бизнеса на Anthropic, особено в корпоративния сегмент.
Търсенето на продуктите на компанията расте бързо. Чатботът Claude и инструментът за програмиране Claude Code печелят популярност сред бизнес клиентите. Само преди дни Claude се превърна в най-изтегляното безплатно приложение в App Store, изпреварвайки ChatGPT.
Министърът на отбраната Пийт Хегсет вече предупреди, че ако бъде въведено подобно обозначение за „риск“, всички държавни изпълнители ще трябва да прекратят използването на технологиите на Anthropic в цялата си дейност.
Компанията оспори публично това твърдение, заявявайки, че министърът няма законово основание да забранява използването на нейния AI извън военните договори. Anthropic обяви също, че ще оспори подобно решение в съда, ако то бъде прието.
Независимо от това някои инвеститори се опасяват, че продължаващият конфликт може да изплаши потенциални клиенти, които предпочитат да избягват политически рискове.
Междувременно няколко американски правителствени агенции вече са започнали да преустановяват използването на технологиите на Anthropic. Държавният департамент, например, е преминал към решенията на OpenAI след указ на президента Тръмп.
