TechNews.bg
Водещи новиниНовиниСигурност

Изкуственият интелект ще затрудни защитата срещу фишинг атаки

Около 80% от случаите на неоторизиран достъп до компютри се случват чрез фишинг
(снимка: CC0 Public Domain)

Софтуерът с изкуствен интелект като популярния бот ChatGPT на OpenAI ще направи много по-трудно откриването на опити за фишинг и ще изисква от компаниите да внедрят нови киберзащити. Това предупреди наскоро вицепрезидентът на Cisco – Джиту Пател, който ръководи бизнес групата Security and Applications.

Днес около 80% от случаите на неоторизиран достъп до компютърни системи се случват чрез фишинг, когато киберпрестъпниците изпращат имейли или съобщения до хора с надеждата да ги подмамят да кликнат върху злонамерена връзка. AI инструментите са в състояние бързо да променят фишинг съобщенията, като ги индивидуализират, което ще позволи на хакерите да привлекат повече жертви в своите мрежи, според топ мениджъра на Cisco.

[related-posts]

„Атаките ще станат много по-индивидуални”, каза Пател по време на Международната конференция за информационна сигурност RSA, която се проведе в края на април в Сан Франциско.

Досега фишинг имейлите бяха сравнително лесни за откриване, тъй като не са насочени към конкретен получател. Често те съдържат правописни грешки и други знаци, които ги издават. Но новото поколение атаки, които ще използват AI инструменти, ще бъдат много по-трудни за разпознаване. Това ще увеличи риска от сривове в мрежата и опитите за изнудване.

Джиту Пател обаче е убеден, че има решение на този проблем. То се състои от бързо анализиране на интернет трафика и идентифициране на модели, които показват подозрителна или злонамерена дейност. Възможностите на Cisco за анализ на потока от данни са налице.

„Сигурността е игра с данни. Колкото повече данни имате, толкова по-ефективно ще работи за вас откриването на аномалии”, казва вицепрезидентът на Cisco, цитиран от Блумбърг.

Разбира се, това далеч не е първото предупреждение за рисковете, свързани с използването на AI инструменти от хакерите. Наскоро VentureBeat разговаря с някои от водещите световни анализатори на киберсигурността и те изброиха възможните последици от използване на генеративни AI системи от нападателите.

Според експертите, системи като ChatGPT ще свалят входната бариера за киберпрестъпниците и ще улеснят създаването на убедителни фишинг съобщения. Освен това генеративният AI ще изостри съществуващите заплахи и организациите ще се нуждаят от специалисти по сигурност с познания в областта на изкуствения интелект.

още от категорията

Отново за AI балона: “Много хора забогатяха бързо и предстои рестарт”

TechNews.bg

Защо възходът на AI агентите носи нов риск за информационната сигурност

TechNews.bg

Дали пък няма AI да сложи край на онлайн анонимността?!

TechNews.bg

Група AI агенти хакна база данни на симулирана компания

TechNews.bg

AI престъпленията – бизнес за 4,4 трилиона долара

TechNews.bg

Meta готви нова серия съкращения „заради AI”

TechNews.bg

Коментари