
Американските власти спешно свикаха шефовете на банки, за да обсъдят с тях рисковете от кибератаки, породени от новия модел на изкуствен интелект, обявен от Anthropic – един от водещите AI разработчици, който наскоро влезе в конфликт с Пентагона.
Министърът на финансите Скот Бесент и председателят на Федералния резерв Джером Пауъл са се срещнали с ръководителите на големи банки на фона на опасенията около новия AI модел на Anthropic.
Дискусията, проведена във Вашингтон, се e фокусира върху потенциалните кибер-рискове, които биха могли да възникнат с разработването на подобни системи.
Според източници, на които се позовават Гардиън и Блумбърг, срещата е организирана, за да гарантира, че банките са наясно с потенциалните заплахи и предприемат мерки за защита на своите системи.
Anthropic описва своя AI модел Claude Mythos като инструмент, способен значително да повиши ефективността при намиране и използване на уязвимости в софтуера.
Според компанията, „съвременните модели на изкуствен интелект вече превъзхождат всички освен най-опитните човешки експерти“ при идентифициране на уязвимости.
Anthropic предупреди, че последствията от това развитие могат да засегнат икономиката, обществената безопасност и националната сигурност.
По-ранно изтичане на кода на AI модела повдигна допълнителни опасения. Впоследствие компанията ограничи достъпа до Mythos, като го предостави само на избрани партньори, включително големи технологични компании и инфраструктурни организации.
На срещата във Вашингтон са присъствали шефовете на системно важни американски банки, включително Goldman Sachs, Bank of America, Citigroup, Morgan Stanley и Wells Fargo.
Изброените банки се считат за критични за финансовата система и всяко прекъсване на дейността им може да има широко разпространени последици.
Главният изпълнителен директор на JPMorgan Chase, Джейми Даймън, който не е присъствал на срещата, отбеляза по-рано в годишното си писмо до акционерите, че киберсигурността остава ключова заплаха и развитието на изкуствения интелект вероятно ще изостри този риск.
Според Anthropic, моделът Mythos вече е идентифицирал хиляди уязвимости в софтуера, включително някои, които са на възраст до 27 години и не са открити досега от разработчиците.
Тази способност на AI модела засилва опасенията, че подобни инструменти могат да бъдат използвани от нападателите за хакване на системи и заобикаляне на механизмите за сигурност.
Ситуацията се развива на фона на по-широк дебат относно рисковете от изкуствения интелект. Американските власти преди това посочиха Anthropic като потенциален риск за веригата за доставки – ход, който компанията оспорва в съда.
