
Халюцинациите на изкуствения интелект могат да се използват ловко от хакерите за вмъкване на злонамерен код в софтуерните разработки (снимка: CC0 Public Domain)
С бурното навлизане на изкуствения интелект, киберзаплахите станаха още по-опасни. Експерти предупреждават за теоретично нова „халюцинаторна” схема, с която нападателите могат да атакуват разработчици, използващи AI.
Изследователи в областта на киберсигурността алармираха, че хакери биха могли да злоупотребят с „халюцинациите”, които изпитва изкуственият интелект, използван при разработване на софтуер. Схемата, която в момента съществува само на теория, се нарича „slopsquatting”, съобщи TechCrunch.
Склонен към халюцинации
Генеративните AI системи, включително OpenAI ChatGPT и Microsoft Copilot, са склонни към халюцинации – AI просто измисля нещо, което не отговаря на реалността, и го представя като фактическа информация. Например, изкуственият интелект може да припише на човек думи, които не е казал; да измисли събитие, което не се е случило; или, при разработката на софтуер, да се позове на продукт с отворен код, който не съществува.
С възхода на генеративния AI много разработчици на софтуер започнаха да разчитат в голяма степен на него, когато пишат код. Чатботовете сами пишат кода или предлагат библиотеки на трети страни на разработчика за включване в проекта. Но когато се появят халюцинации, AI може многократно да измисля един и същ несъществуващ пакет.
Ако намерите заявка, която предизвиква отговор с халюцинация, и повторите тази заявка десет пъти, тогава в 43% от случаите AI отново ще се позовава на несъществуващ софтуерен продукт, а в 39% от случаите няма да го запомни, установиха експерти от компанията Socket.
Като цяло, 58% от софтуерните пакети, генерирани от изкуствен интелект, се появяват повече от веднъж на десет заявки. Това е нещо, което атакуващите могат да се опитат да използват срещу AI разработчиците.
Въпрос на време
Схемата съществува само на теория, но нищо не пречи на хакерите да идентифицират такъв модел при халюцинации и да създадат несъществуващ софтуерен пакет, към който AI постоянно се позовава – и да въведат злонамерен код в този пакет.
След като получи препоръка от AI, разработчикът ще отвори една от най-популярните платформи, като GitHub, ще намери посочения продукт и ще го внедри в проекта, без да знае, че това е зловреден софтуер.
Досега не са докладвани случаи на използване на халюцинаторната схема, но вероятно е само въпрос на време да се появят такива инциденти. Най-добрият начин да се предпазите е както във всички други рискови ситуации – бъдете предпазливи.