Изкуственият интелект ще затрудни защитата срещу фишинг атаки

Около 80% от случаите на неоторизиран достъп до компютри се случват чрез фишинг
(снимка: CC0 Public Domain)

Софтуерът с изкуствен интелект като популярния бот ChatGPT на OpenAI ще направи много по-трудно откриването на опити за фишинг и ще изисква от компаниите да внедрят нови киберзащити. Това предупреди наскоро вицепрезидентът на Cisco – Джиту Пател, който ръководи бизнес групата Security and Applications.

Днес около 80% от случаите на неоторизиран достъп до компютърни системи се случват чрез фишинг, когато киберпрестъпниците изпращат имейли или съобщения до хора с надеждата да ги подмамят да кликнат върху злонамерена връзка. AI инструментите са в състояние бързо да променят фишинг съобщенията, като ги индивидуализират, което ще позволи на хакерите да привлекат повече жертви в своите мрежи, според топ мениджъра на Cisco.

„Атаките ще станат много по-индивидуални”, каза Пател по време на Международната конференция за информационна сигурност RSA, която се проведе в края на април в Сан Франциско.

Досега фишинг имейлите бяха сравнително лесни за откриване, тъй като не са насочени към конкретен получател. Често те съдържат правописни грешки и други знаци, които ги издават. Но новото поколение атаки, които ще използват AI инструменти, ще бъдат много по-трудни за разпознаване. Това ще увеличи риска от сривове в мрежата и опитите за изнудване.

Джиту Пател обаче е убеден, че има решение на този проблем. То се състои от бързо анализиране на интернет трафика и идентифициране на модели, които показват подозрителна или злонамерена дейност. Възможностите на Cisco за анализ на потока от данни са налице.

„Сигурността е игра с данни. Колкото повече данни имате, толкова по-ефективно ще работи за вас откриването на аномалии”, казва вицепрезидентът на Cisco, цитиран от Блумбърг.

Разбира се, това далеч не е първото предупреждение за рисковете, свързани с използването на AI инструменти от хакерите. Наскоро VentureBeat разговаря с някои от водещите световни анализатори на киберсигурността и те изброиха възможните последици от използване на генеративни AI системи от нападателите.

Според експертите, системи като ChatGPT ще свалят входната бариера за киберпрестъпниците и ще улеснят създаването на убедителни фишинг съобщения. Освен това генеративният AI ще изостри съществуващите заплахи и организациите ще се нуждаят от специалисти по сигурност с познания в областта на изкуствения интелект.

Коментар