TechNews.bg
АктуалноВодещи новиниКорпоративниНовиниСигурност

Хакботовете стават най-големият риск за сигурността в облака

Ново предизвикателство се надига пред специалистите по киберсигурност: те знаят какво трябва да направят, но дали могат да предприемат необходимите действия достатъчно бързо? (графика: CC0 Public Domain)

Автоматизираните инструменти за хакване се превърнаха в най-големия риск за сигурността в облака. Киберпрестъпниците поеха водеща роля в прилагането на автоматизирано вземане на решения за кражба на идентификационни данни, преместване на финансови средства и извършване на други злонамерени дейности.


Все още не са много заплахите, които са напълно автоматизирани, и най-вече се атакуват неправилни конфигурации – този вид нападения постоянно се разработват, казва Сергей Еп, главен директор по информационна сигурност в Sysdig. Целта на нападателите е техните автоматизирани системи да предоставят по-усъвършенствани атаки, като например инсталиране на крипто майнери или странично придвижване между вътрешните системи на нападнатата организация.

Тази автоматизация е довела до драматично намаляване на времето на вътрешен престой за атакуващите – времето, което те прекарват вътре в атакуваната инфраструктура, преди да предприемат действия. Това време обикновено се измерва в дни. Сега обаче, с помощта на средствата за автоматизация, атаката е способна да извлича данни в рамките на пет минути, казва Еп.

Той прогнозира, че атаките ще стават все по-автоматизирани. Съществуващите „хакботове“ ще се подобряват, тъй като се актуализират, за да използват все по-нови големи езикови модели. Това създава предизвикателство: специалистите по киберсигурност знаят какво трябва да направят, за да защитят организациите си, но въпросът е дали могат да предприемат необходимите действия достатъчно бързо.

Еп смята, че ще има и дълга опашка от атаки срещу „компании под прага на кибербедността“, които нямат ресурси да предприемат адекватни защитни мерки.

Натиск за възприемане на AI

Проблемът се утежнява от натиска от страна на бизнеса за бързо възприемане на AI. Ала Еп казва, че повечето хора погрешно разбират AI сигурността, защото се фокусират върху моделите, когато всъщност става въпрос за инфраструктура.


Организациите не могат просто да се доверят на такива модели, тъй като традиционното сканиране не работи върху непрозрачните им алгоритми. Освен това в момента няма техническо решение за атаки с инжектиране на подкани. Защитните стени са неефективни, тъй като мрежовият трафик, свързан с изкуствения интелект, „е вероятностен, а не детерминистичен“.

Атаките не се ограничават до ситуации, в които нападателят има директен достъп до чатбот. Злонамерено подканване може да бъде скрито в споделен документ или в PDF фактура, която е качена за обработка. Решението, според експерта, е да се третират натоварванията с изкуствен интелект като всяко друго облачно натоварване, като се прилагат най-добрите практики за сигурност по време на изпълнение.

Фундаментални принципи като допускането, че вече има пробив, нулевото доверие и защитата в дълбочина все още се прилагат; но те трябва да бъдат допълнени с агент за сигурност по време на изпълнение във всеки контейнер, за да открива неправилни настройки или дейности, като например интерфейси за приложно програмиране с прекомерни привилегии или опити за излизане извън контейнера.

Въпреки че центровете за операции по сигурност разполагат с необходимите данни, предизвикателството се състои в това да се достави правилното подмножество от тези данни до правилните агенти, за да се осигурят правилните действия. Пречките включват недостиг на кадри и времето, необходимо за разработване на необходимия софтуер.

Ефимерният характер на облака, където 60% от контейнерите работят за по-малко от минута, прави автоматизацията от съществено значение. Събирането на данни за сигурността от тези контейнери не е лесно. Еп казва, че вероятно е непрактично да се съхраняват повече от 20% от наличните данни. Критичният въпрос е кои 20% да се събират.

Асиметрия

Картината разкрива ключова асиметрия. За киберпрестъпниците цената на грешка, предизвикана от изкуствения интелект, е ниска – тя може да разкрие тяхното присъствие или просто да означава, че трябва да опитат отново.

За защитниците обаче грешките могат да бъдат скъпи както във финансов, така и в репутационен план. Едно „падане“ на голяма онлайн банка или търговец на дребно, например, би попаднало в заглавията на медиите и би довело до срив в бизнеса.

„Трябва да ускорим приемането на контроли за сигурност“, каза Еп. „За да се развиваме бързо в бизнеса, трябва да се развиваме бързо и в сигурността.“

още от категорията

ChatGPT вече показва реклами, дори на платените абонати

TechNews.bg

OpenAI очаква 2,6 милиарда души да използват ChatGPT

TechNews.bg

AI обучители съветват близките си да стоят далеч от… AI

TechNews.bg

OpenAI тества нова функция на ChatGPT – групов чат

TechNews.bg

Нови GPT модели автоматизират рутинни задачи

TechNews.bg

Платформите за сигурност: да се поучим от опита с ERP

TechNews.bg

Коментари