
Генеративният AI не поражда нови видове киберпрестъпления, той просто автоматизира съществуващите (снимка: CC0 Public Domain)
Изкуственият интелект направи революция в технологичната индустрия и това е еднакво вярно както за частните предприятия и държавните служби, така и за света на киберпрестъпността. Находчивите нападатели все повече използват генеративен AI, за да подобрят своите тактики, техники и процедури и да реализират атаките по-бързо, по-ефективно и по-коварно.
Както и при легитимното използване на нововъзникващи AI инструменти, престъпленията с помощта на генеративен AI залагат на все същите „козове”: повече производителност и ефективност, разтоварване от рутинните и повтаряеми задачи в полза на по-мащабно и дългосрочно мислене. Именно използването на GenAI инструменти за кибернападения и начините за защита ще бъде водеща тема на тазгодишния Cybersecurity Forum 2025, организиран от европейския доставчик на решения за киберсигурност Crayon онлайн на 15 май 2025 г.
По същество генеративният AI не поражда нови видове киберпрестъпления. Той просто автоматизира съществуващите. Ускорява ги, мащабира ги. Един легитимен потребител може да извлече полза от генеративния AI за автоматизиране на своите служебни задачи; той може да опрости и облекчи работата си, да намали времето и усилията за постигането на даден резултат. Е, тогава защо престъпникът да не може да направи същото?
Фишинг от следващо ниво
Генеративният AI позволява създаване на убедителни, персонализирани писма. По същия начин той се използва и за генериране на убедителни фишинг имейли. Това значително увеличава вероятността потенциалните жертви да повярват, да кликнат, да предоставят чувствителна информация на измамни сайтове или пък да изтеглят зловреден софтуер.
Писането на фишинг имейли изисква внимание и усилие като всяко друго писане на писмо. Доскоро един от намеците, че сме получили измамническо послание, беше наличието на граматически грешки и нелепости във форматирането. Е, използването на генеративен AI позволява на киберпрестъпниците да се спасят от тези неудобства. Те могат бързо да генерират по-сложни, грамотно оформени и легитимно изглеждащи имейли, с потенциал за по-голяма персонализация към получателя.
Инструментите на генеративния AI помагат на престъпниците да обединят различни източници на данни, за да прецизират кампаниите си – независимо дали става дума за групово социално профилиране или целенасочена информация, събрана от социални медии.
Нещо повече – измамните писма могат да съдържат гласови съобщения и дори видео-бележки, които звучат и изглеждат сякаш са от напълно легитимен източник – колега, шеф, роднина. Съвременните генеративни AI могат бързо и доста евтино да създадат фалшиво видео с образа на точно определена личност. Това бе нагледно демонстрирано по време на последния Cybersecurity Forum 2024, организиран от Crayon. Оттогава досега генеративните инструменти се развиха още повече.
По-лесно писане на зловреден код
Изкуственият интелект може да се използва и за генериране на изпълним код. За кибернападателите това означава възможност за създаване на по-сложен код или поне по-малко трудоемък процес на писане.
Например, киберпрестъпниците използват генеративен AI за създаване на злонамерени HTML документи. Това може да е привидно безобидна страница, която обаче съдържа злонамерен код. Когато нищо неподозиращият потребител я изтегли, той стартира изпълнимите команди – и анализаторите по киберсигурността все по-често споделят, че подобни нападения носят „почерка” на генеративен AI.
Употребата на генеративните средства може да позволи дори на неопитни киберизмамници бързо да произвеждат и усъвършенстват софтуерни инструменти за нападение.
Ускоряване на търсенето на уязвимости и експлойти
Традиционно трудната задача за анализиране на системи в търсене на уязвимости и разработване на експлойти може да бъде опростена чрез използване на технологии от AI арсенала. Кибернападателите вече не прекарват време в изследване и разузнаване. Те просто дават тази задача на агент с изкуствен интелект – и той го прави автоматично.
Генеративният AI може да намали наполовина времето между откриването на уязвимостта и нейното използване от нападателите. Това драстично ускоряване категорично показва, че големият технологичен напредък – генеративният AI – позволява на нападателите да експлоатират уязвимостите с безпрецедентна скорост.
Наред с това атакуващите използват генеративен AI заедно с инструменти за пентестинг, за да пишат скриптове за задачи като мрежово сканиране, ескалация на привилегии и персонализиране на „полезния товар”. Предполага се, че AI вероятно се използва от киберпрестъпниците и за анализиране на резултатите от сканирането и предлагане на оптимални експлойти, което им позволява да идентифицират по-бързо пробойните и слабите места в ИТ системите на жертвите.
Ескалиращи заплахи с алтернативни платформи
Киберпрестъпниците бързо се преориентират към най-ефективните платформи. Според някои специалисти, в момента е налице „миграция” от добре познатия ChatGPT към нови AI модели от Китай – DeepSeek и Qwen – за генериране на злонамерено съдържание.
Нападателите открито споделят техники за джейлбрейк на тези модели, заобикаляне на контролите за сигурност и създаване на зловреден софтуер, кражба на информация и спам кампании с минимални ограничения. Някои дори обсъждат как да използват тези AI инструменти, за да избегнат банковите защити срещу измами.
В тъмните мрежи могат да се намерят множество дискусии и споделени техники за използване на DeepSeek за заобикаляне на защитите срещу измами на банковата система, което показва потенциал за значителни финансови щети.
Говори се дори, че киберпрестъпниците са започнали да разработват свои собствени големи езикови модели (LLM) – като WormGPT, FraudGPT, DarkBERT и други, изградени без предпазните мерки, които ограничават злоупотребата от страна на престъпници с основните платформи за изкуствен интелект.
Тези нови, „специализирани” платформи обикновено се използват за приложения като фишинг и генериране на зловреден софтуер.
Мерки за противодействие
Злоупотребата с генеративния AI улеснява по-малко квалифицираните киберпрестъпници и дава още повече сили на опитните. Нуждата от защита предизвиква специалистите по сигурността да използват силата на изкуствения интелект по-ефективно от нападателите. Те трябва да се превърнат в бързи, проницателни следователи, светкавично надушващи признаците на злонамереност – в безпощадни ловци на измами, нападения и заплахи.
Това ще бъде и една от основните задачи на тазгодишния Cybersecurity Forum 2025, който ще премине под слогана „Киберзащита в ерата на AI” – онлайн, на 15 май. В рамките на лекционния панел и работните семинари гостите ще могат да подобрят своите способности за „ловуване“ на заплахи, изработени с помощта на генеративни инструменти, и да се усъвършенстват в ефективно откриване и анализиране на заплахи за сигурността.
Все пак експертите по киберзащита не бива да забравят, че усилията им ще имат много повече резултат, ако превърнат колегите си от всички останали отдели в свои съюзници. Програмите за обучение и осведоменост на служителите са от критично значение в ерата на генеративния AI. Това, наред със средствата за засичане на заплахи, анализ и реагиране може да сведе кибернетичните рискове до минимум.