
Новооткрита уязвимост може да позволи на киберпрестъпниците тихо да отвличат системите с изкуствен интелект в автономните автомобили. Новината поражда опасения относно сигурността на автономните системи, които все по-често се използват по обществените пътища.
Изследователи по киберсигурност от Технологичния университет на Джорджия откриха уязвимост, която позволява отвличане системите с изкуствен интелект в автономните превозни средства. Тя е наречена VillainNet.
Учените установиха, че пробойната може да остане „спяща“ в системата с изкуствен интелект на автономно шофиране, докато не бъде задействана от специфични условия. След като бъде задействана, VillainNet почти сигурно ще успее, давайки на нападателите контрол над целевото превозно средство.
Как работи атаката VillainNet?
Изследването установи, че нападателите могат да програмират почти всяко действие в супер мрежата с изкуствен интелект на автономно превозно средство, за да задействат VillainNet.
В един възможен сценарий атаката може да се задейства, когато AI на автономно шофиращо такси реагира на валежи и променящи се пътни условия. След като поемат контрол, хакерите могат да държат пътниците за заложници и да заплашват да катастрофират колата.
„Супер мрежите са проектирани да бъдат „швейцарското ножче“ на изкуствения интелект, като сменят инструменти или в този случай подмрежи, според нуждите на задачата“, каза Дейвид Ойгенблик, докторант в Технологичния университет на Джорджия и водещ изследовател по проекта.
„Открихме обаче, че злонамерен човек може да се възползва от това, като атакува само един от тези малки инструменти. Атаката остава напълно „спяща“, докато конкретната подмрежа не бъде използвана, тоест тя по същество „се крие“ зад милиарди други доброкачествени конфигурации“, допълва той.
Защо тази задна вратичка е толкова опасна?
Според Ойгенблик, почти е гарантирано, че тази атака тип „задна вратичка” ще проработи. Това сляпо петно е почти неоткриваемо със съвременните инструменти и може да засегне всяко автономно превозно средство, работещо с изкуствен интелект. То може да бъде скрито и на всеки етап от разработката и да включва милиарди сценарии.
Откриването на уязвимостта, според изследователя, е като търсенето на една-единствена игла в купа сено, която обаче е голяма колкото цял жилищен квартал.
„Нашата работа е призив за действие към общността по сигурност. Тъй като системите с изкуствен интелект стават все по-сложни и адаптивни, трябва да разработим нови защити, способни да се справят с тези нови, хипер-таргетирани заплахи“, казва Ойгенблик.
Има ли решение на проблема
Хипотетичното решение на проблема може да включва добавяне на мерки за сигурност към супер мрежите. Тези мрежи съдържат милиарди специализирани подмрежи, които могат да се активират в движение, но Ойгенблик е поискал да види какво ще се случи, ако атакува един единствен инструмент от подмрежата.
В експерименти атаката на VillainNet се оказала високоефективна, споделя екипът. Тя е постигнала 99% успеваемост при активиране, като същевременно остава невидима в цялата система с изкуствен интелект.
Изследването показва също, че откриването на задната вратичка на VillainNet би изисквало 66 пъти повече изчислителна мощност и време, за да се провери дали системата с изкуствен интелект е безопасна.
Това предизвикателство драстично разширява пространството за търсене за откриване на атаки и не може да бъде преодоляно, според изследователите.
