Защо злонамереното използване на AI е толкова опасно?

Злонамерени лица ще експлоатират езикови модели като ChatGPT по непредвидими начини, предупреждават експерти (снимка: CC0 Public Domain)

Ново изследване на езикови модели като GPT-3, използван от AI инструмента ChatGPT, изведе на бял свят тревожни открития за това колко лесно е да се използват подобни технологии за злонамерени цели. Имат ли основания за притеснение екипите по сигурност по света?

Мнозина вече знаят колко добре работят езиковите модели на база изкуствен разум като Generative Pre-trained Transformer 3 (GPT-3), използван от софтуерни инструменти от рода на усъвършенствания чатбот ChatGPT на OpenAI. Но изглежда, че те могат да бъдат мощен инструмент за престъпления, попаднали в ръцете на злонамерени лица.

Тъй като възможностите на такива модели навлизат в употреба масово, навярно ще са необходими нови подходи за борба с киберпрестъпността и дигиталните измами, а ежедневните потребители ще трябва да станат много по-критични относно това, което четат и на което вярват.

Това са част от констатациите на изследователски проект, проведен от финландската WithSecure с подкрепата на инициативата CC-Driver, проект от програмата Horizon 2020 на Европейския съюз, който се фокусира върху дисциплини като антропология, криминология, невробиология и психология за борба с киберпрестъпността.

Повратна точка

Изследователският екип на WithSecure казва, че универсалният достъп до модели, които за броени секунди генерират текст, „звучащ като създаден от жив човек“, представлява „повратна точка“ в човешката история.

„С масовото навлизане на удобни за потребителя инструменти, които използват авторегресивни езикови модели като GPT-3 и GPT-3.5, всеки човек с интернет връзка вече може да генерира човешка реч за секунди“, пише изследователският екип.

„Създаването на многофункционален текст на естествен език чрез малко количество въведени данни неизбежно ще заинтересува престъпниците, особено киберпрестъпниците. По същия начин всеки, който използва мрежата за разпространение на измами, фалшиви новини или дезинформация като цяло, може да се интересува от подобен инструмент, който създава достоверно звучащ, вероятно дори завладяващ текст – при това със свръхчовешка скорост“, предупреждават изследователите.

Андрю Пател и Джейсън Сатлър от WithSecure са провели серия от експерименти, използвайки „промпт-инженеринг“ – техника за откриване на такива поредици от входящи заявки, които могат да доведат до желани или ефективни резултати за произвеждане на съдържание, което се смята за вредно. Изследователите успели да използват избрания от тях модел за създаване на фишинг имейли и SMS съобщения, за съобщения в социалните медии, предназначени за тролване или тормоз, или за увреждане на имиджа на реномирани марки; за съобщения в социалните медии, предназначени да рекламират, продават или легитимират измами; за убедителни статии с фалшиви новини.

Двамата специалисти успели да накарат модела да възприеме определени стилове на писане, да пише по избрана тема по убедителен начин и да генерира свои собствени подкани въз основа на съдържанието.

Какво да очакваме

„Фактът, че всеки с интернет връзка вече може да има достъп до мощни езикови модели, води до една много практична последица: вече е разумно да приемем, че всяка нова комуникация, която получаваме, може да е написана с помощта на робот“, казва Пател, който ръководи изследванията.

„В бъдеще използването на AI за генериране както на вредно, така и на полезно съдържание ще изисква стратегии за откриване, способни да разберат значението и целта на писменото съдържание,“ предупреждава изследователският екип.

Пател и Сатлър правят четири основни извода от своята работа:

  1. „Промпт-инженерингът“ и злонамереното бързо създаване на текстово съдържание неизбежно ще се развият като дисциплина;
  2. Трябва да очакваме злонамерените лица да експлоатират големите езикови модели по потенциално непредвидими начини;
  3. В резултат на това разпознаването на злонамерено или опасно съдържание ще стане много по-трудно;
  4. Езикови модели вече могат да се използват съвсем лесно от киберпрестъпниците, за да си улеснят изпипването на елементите на социално инженерство в своите атаки.

Всъщност WithSecure е най-новата от дълга поредица компании за киберсигурност, които изразиха загриженост относно технологията GPT-3, станала известна в общественото пространство благодарение на публичното пускане на ChatGPT от OpenAI през ноември 2022 г. Въпреки че беше приет положително от мнозина, ChatGPT вече получи критики, че „е твърде добър в работата си при някои обстоятелства“. Едно от тези обстоятелства са кибератаките.

„Започнахме своето проучване, преди ChatGPT да направи технологията GPT-3 достъпна за всички“, пояснява Пател. „Масовозирането му само увеличи спешността на нашата задача. В известен смисъл сега всички ние вече сме „Blade Runners“ и се опитваме да разберем дали интелектът, с който си имаме работа, е естествен или изкуствен“.

Тъмната мрежа

Междувременно изследователи от Check Point се насочиха към тъмната мрежа, за да проучат как киберпрестъпниците реагират на пускането на ChatGPT, и откриха повече доказателства в подкрепа на заключенията на WithSecure. Изследователският екип публикува в популярен „подземен“ форум своя тема, озаглавена „ChatGPT – предимства на зловреден софтуер“.

Оригиналният пост разкрива, че авторите са експериментирали със софтуера за пресъздаване на щамове и техники на зловреден софтуер, които са описани в изследователски публикации, индустриални блогове и новинарски статии. Анализът на реакциите и коментарите, получени в отговор, сочи, че ChatGPT е подал „хубава ръка за помощ“ на киберзлодеите, за да пишат своите вредоносни програми.

„Киберпрестъпниците намират ChatGPT за привлекателен. През последните седмици виждаме доказателства, че хакерите започват да го използват, за да пишат зловреден код. ChatGPT има потенциала да ускори процеса за хакерите, като им даде добра отправна точка. Точно както ChatGPT може да се използва за подпомагане на разработчиците при писане на код, той може да се използва и за злонамерени цели,” каза мениджърът на групата за разузнаване на заплахи на Check Point – Сергей Шикевич.

„Въпреки че инструментите, които анализирахме, са доста базови, въпрос на време е по-усъвършенстваните майстори в киберзаплахите да подобрят начина, по който използват инструменти, базирани на изкуствен разум“, допълва той.

Брад Хонг, мениджър в Horizon3ai, казва: „От гледна точка на атакуващия това, което системите за генериране на код позволяват на злонамерените лица, е да преодолеят всяка празнина в уменията си. AI инструментите служат като преводач между различните езици, с които програмистът може да има по-малко опит“.

Освен това чрез системите с изкуствен интелект могат да се формират „шаблони“ с код, релевантни към задачата на киберзлодеите, така че да си улеснят, ускорят и автоматизират работата.

Коментар