TechNews.bg
Водещи новиниНовиниСигурност

Изкуственият интелект ще затрудни защитата срещу фишинг атаки

Около 80% от случаите на неоторизиран достъп до компютри се случват чрез фишинг
(снимка: CC0 Public Domain)

Софтуерът с изкуствен интелект като популярния бот ChatGPT на OpenAI ще направи много по-трудно откриването на опити за фишинг и ще изисква от компаниите да внедрят нови киберзащити. Това предупреди наскоро вицепрезидентът на Cisco – Джиту Пател, който ръководи бизнес групата Security and Applications.


Днес около 80% от случаите на неоторизиран достъп до компютърни системи се случват чрез фишинг, когато киберпрестъпниците изпращат имейли или съобщения до хора с надеждата да ги подмамят да кликнат върху злонамерена връзка. AI инструментите са в състояние бързо да променят фишинг съобщенията, като ги индивидуализират, което ще позволи на хакерите да привлекат повече жертви в своите мрежи, според топ мениджъра на Cisco.

[related-posts]

„Атаките ще станат много по-индивидуални”, каза Пател по време на Международната конференция за информационна сигурност RSA, която се проведе в края на април в Сан Франциско.


Досега фишинг имейлите бяха сравнително лесни за откриване, тъй като не са насочени към конкретен получател. Често те съдържат правописни грешки и други знаци, които ги издават. Но новото поколение атаки, които ще използват AI инструменти, ще бъдат много по-трудни за разпознаване. Това ще увеличи риска от сривове в мрежата и опитите за изнудване.

Джиту Пател обаче е убеден, че има решение на този проблем. То се състои от бързо анализиране на интернет трафика и идентифициране на модели, които показват подозрителна или злонамерена дейност. Възможностите на Cisco за анализ на потока от данни са налице.

„Сигурността е игра с данни. Колкото повече данни имате, толкова по-ефективно ще работи за вас откриването на аномалии”, казва вицепрезидентът на Cisco, цитиран от Блумбърг.

Разбира се, това далеч не е първото предупреждение за рисковете, свързани с използването на AI инструменти от хакерите. Наскоро VentureBeat разговаря с някои от водещите световни анализатори на киберсигурността и те изброиха възможните последици от използване на генеративни AI системи от нападателите.

Според експертите, системи като ChatGPT ще свалят входната бариера за киберпрестъпниците и ще улеснят създаването на убедителни фишинг съобщения. Освен това генеративният AI ще изостри съществуващите заплахи и организациите ще се нуждаят от специалисти по сигурност с познания в областта на изкуствения интелект.

още от категорията

Изкуствен интелект открива интернет зависимост с 86% точност

TechNews.bg

7 тенденции в изкуствения интелект през 2026 г.

TechNews.bg

AI резюметата съсипват труда на кулинарните блогъри

TechNews.bg

AI не се отплаща, но компаниите увеличат разходите си за него

TechNews.bg

Тръмп наема 1000 специалисти за „Технологичната сила“

TechNews.bg

Южна Корея въвежда  всеобхватни регулации за изкуствения интелект

TechNews.bg

Коментари