Колко безопасен и сигурен е наистина GenAI

Къде се намираме на фона на ускоряващата се еволюция на изкуствения интелект – в безопасност ли сме или не? (снимка: CC0 Public Domain)

Страхът от неизвестното може да бъде осакатяващ – докато опасенията, основани на фактите, са в основата на значимото смекчаване на риска. Но когато става дума за дискусии относно безопасността на изкуствения интелект, изглежда винаги присъства по малко и от двете.

Например, страхът може да се използва, за да се убедят законодателите да защитят печалбите на установените доставчици на продукти и услуги от възхода на иновативни стартиращи фирми или да дадат нови поводи за пропаганда на теоретиците на конспирацията.

Легитимните опасения, от друга страна, разкриват къде се крият реалните опасности от AI. Например, при генериране на обеми дезинформация и дълбоки фалшификати, писане на злонамерен код и създаване на цунами от изтичане на данни.

Въпросът е къде се намираме на фона на ускоряващата се еволюция на изкуствения интелект? В безопасност ли сме или не? На страх ли реагираме или на притеснения?

Отговорът не е очевиден предвид пазарната лудост около изкуствения интелект. Накратко, проблемът се усложнява допълнително от друг вид страх: страхът да не пропуснем нещо (FOMO).

„Компаниите скачат в AI, дори когато не покриват основните уязвимости, като например това, че данните са широко отворени. Може да звучи грубо, но това е пожар в контейнера за боклук”, казва Мат Радолец, вицепрезидент по реакция при инциденти и облачни операции във Varonis, в интервю за Information Week. Между другото, той наскоро изнесе лекция за това как да избегнете първия си AI пробив на конференцията за сигурност RSA в Сан Франциско.

И така, време е да направите крачка назад от бързането с изкуствения интелект и да проучите проблемите.

Идентифициране на рисковете от AI

Дали има пожар или не в контейнера за боклук, игнорирането или паниката не са полезни. По-добре дайте приоритет на рисковете и оценете спокойно заплахите.

„Когато става дума за кибератаки, основният мотиватор са парите. Ето защо старомодните техники като фишинг и рансъмуер продължават да процъфтяват. Що се отнася до ChatGPT или други генеративни AI приложения, наистина няма много възможности да правите пари с хакване. Всъщност не е имало сериозни пробиви или проблеми – досега”, казва Мудду Судхакар, съосновател на Aisera, доставчик на софтуер с изкуствен интелект, корпоративен GPT и генеративен AI (GenAI).

Въпреки че все още не се вдига шум, има съобщения за AI пробиви, които се случват сега. „Според нашето проучване сред лидери по сигурността, 77% от компаниите съобщават, че са идентифицирали пробиви в своя AI през изминалата година. Останалите не бяха сигурни дали техните AI модели са били атакувани. Основните източници на AI пробиви включват лица или групи за криминално хакване, доставчици на услуги от трети страни, автоматизирани ботнети и конкуренти”, казва Малкълм Харкинс, главен служител по сигурността и доверието в HiddenLayer, доставчик на AISEC платформа.

Има и множество други видове AI заплахи. Например, използването на AI за улесняване и ускоряване на атаките с фишинг и рансъмуер.

„В днешния бизнес свят с географски разпределена работна сила, AI инструментите позволяват създаване на все по-надеждни методи за изпълнение на успешни атаки чрез социално инженерство. Контролите, които бяха трудни за заобикаляне, като гласова проверка за самоличност при повторно задаване на парола, ще се считат за остарели. Въпреки че GenAI инструменти като ChatGPT все още не дават убедителни фишинг резултати, те могат да се използват за подобряване на проблемите с базовото качество на повечето фишинг кампании, като лоша граматика и очевидно неточна информация”, казва Чад Тунберг, главен служител по информационна сигурност (CISO) в Yubico, производителят на устройство за хардуерно удостоверяване Yubikey.

Други видове AI заплахи включват осуетяване на избори, подстрекаване към обществени безредици, широко разпространени измами и атаки с дълбоки фалшификати.

Тези видове заплахи подтикнаха Федералната комисия по комуникациите (FCC) на САЩ да обяви решение, което прави разговорите с използване на генерирани от AI гласове, незаконни.

„Това всъщност не е изненадващо и беше единодушно гласувано. Въпреки че [решението] засяга така наречените легитимни компании, които извършват автоматизирани обаждания, за съжаление то няма да разубеди държави и престъпници да продължат да използват обаждания, генерирани от AI. В края на краищата AI служи като ускорител на силата, тъй като ще позволи на тези заплахи да действат в голям мащаб, без да се налага увеличаване на размера на работната сила. В същото време способността на изкуствения интелект да генерира достатъчно убедителна реч на друг език ще послужи за отваряне на нови пазари за участници в заплахи, които може би преди това са наемали лингвисти”, казва Кейн Макгладри, старши член на IEEE.

„Ние се придвижваме към момент, в който входящите гласови повиквания без удостоверяване не са подходящи за чувствителни комуникации, подобно на имейлите. Като алтернатива може да се наложи всички ние да създадем „сигурна дума”, която е известна между две страни и може да се използва за взаимно удостоверяване взаимно при разговори”, добавя Макгладри.

Недостатъците на AI също създават уязвимости с изтичане и събиране на данни. Изтичането може да доведе до продължителни експозиции, като например първото нарушение на данните на ChatGPT, което изложи потребителски данни на около 1,2 милиона души за период от девет часа. Събирането на данни създава нови уязвимости – например, собствен код на Samsung стана част от данните за обучение на ChatGPT и е достъпен за обществено ползване.

„В идеалния случай бихте хоствали свой собствен LLM (голям езиков модел) зад вашата защитна стена, ако искате да сте абсолютно сигурни, че данните никога няма да бъдат споделени дори случайно от AI”, казва Кевин Сюрас, председател на Token и създател на Virtual Assistant, чест лектор на тема AI.

Имайте предвид, че нарушаването на данните може потенциално да дойде и от доверени източници. „Опасно е да се дава толкова много информация на Google и OpenAI. Тези големи централизирани корпорации имат един бизнес модел: вашите данни. Колкото повече им давате, толкова повече знаят за вас”, казва Джонатан Шемул, основател на aleph.im. Той е разработчик на блокчейн и AI, чиято работа и изследвания се фокусират върху поверителността на данните и проблемите с децентрализацията около настоящите бизнес модели на GenAI.

Но дори всички тези страшни сценарии са само частица от айсберга на изкуствения интелект, който идва към нас.

Заплахи в развитие

Изследователите на сигурността отбелязват развиващи се рискове на хоризонта. Например, GenAI може да се използва за подхранване на ъндърграунда в различни форми на престъпност, които заобикалят настоящите закони, поне временно. Във всеки случай, GenAI е способен да ускори много от най-лошите дейности, открити в тъмния уеб (Dark Web).

„За да дам един особено страшен пример: Stable Diffusion е най-популярният в света модел за генериране на изображение от текст. През декември 2023 г. изследователи от Станфорд откриха, че един от наборите данни, върху които е обучен Stable Diffusion и наречен LAION-5B, съдържа над 1600 изображения на детска порнография. Но на практика нито една компания или агенция няма изградена инфраструктура, която да проследява кои приложения кои модели използват и кои модели са обучени на кои набори от данни”, казва Марк Франкел, главен изпълнителен директор на Manifest, компания за сигурност на технологиите за веригата за доставки.

Друг сценарий е използването на GenAI за хакване на уебсайтове в невиждан мащаб.

„Авторите описват как LLM агентите могат автономно да хакват уебсайтове. Например, когато му бъде даден списък с описания на CVE с критична тежест, GPT-4 вече е в състояние да използва 87% от уязвимостите, в сравнение с 0% в други модели, които са тествани, включително GPT-3.5 и LLM с отворен код. Тъй като вече са достъпни повече рамки, като CrewAI и тези, които работят локално, използвайки модели с отворен код, и LLM с отворен код стават по-зрели, времето между разкриването на уязвимостта и широко разпространените автоматизирани експлойти ще се съкрати. Чрез използване на AI агенти, атакуващите могат да експлоатират уязвимости в рамките на минути след публичното им разкриване”, казва Паскал Гиненс, директор за разузнаване на заплахи в Radware.

„Това означава, че много от инструментите, на които фирмите разчитат за защита на своите цифрови активи, вече няма да са достатъчни. За да бъдат ефективни, организациите ще се нуждаят от по-сложни инструменти, които използват защити, базирани на поведение, както и алгоритми за машинно обучение и AI, за да откриват и смекчават тези нови, генерирани от AI, престъпни скриптове, инжекции и бот атаки. Идеята е да се борим с огъня с огън”, добавя Гинен.

Други развиващи се рискове също нарастват със скоростта на развитие на изкуствения интелект. „Виждаме променящ живота технологичен напредък и животозастрашаващи нови рискове – от дезинформация до масово наблюдение и перспективата за смъртоносни автономни оръжия”, каза генералният секретар на ООН Антонио Гутериш в откриващата сесия на срещата на върха за AI в Сеул.

Асошиейтед прес съобщи, че Google, Meta и OpenAI са били сред компаниите, които са поели доброволни ангажименти за безопасност на тази среща, включително спиране на своите авангардни системи, ако не могат да овладеят най-екстремните рискове.

Въпреки че всичко това звучи добре, „не за първи път компаниите за изкуствен интелект поемат високо звучащи, но необвързващи ангажименти за безопасност”, коментира AP. Признаците за бързо избледняване на тези обещания са очевидни, тъй като екипите за безопасност на AI са съкратени или напълно премахнати. Например, „Microsoft, Meta, Google, Amazon и Twitter са сред компаниите, които са съкратили членовете на своите „отговорни екипи за изкуствен интелект”, които съветват относно безопасността на потребителските продукти с използване на изкуствен интелект”, според доклад на Financial Times .

Резултатът

Докато общността за киберсигурност работи усилено, за да смекчи много от тези рискове, трудно е да се върви в крак с бързия напредък на GenAI. Междувременно общността на GenAI е погълната от пазарен натиск да произвежда повече функции и по-бързо.

„По-голямата част от AI общността не е фокусирана върху сигурността на AI. Това не означава, че сигурността на GenAI системите не се разглежда нито от изследователи, нито от практици, за съжаление, тя изостава”, казва Джеф Шварцентрубер, старши учен по машинно обучение в eSentire, компания за управлявано откриване и реагиране.

Въпреки че доставчиците на GenAI също работят усилено за добавяне на парапети и други мерки за безопасност към своите модели, те все още са далеч от сигурността.

„Перлата в короната на сложните AI модели са техните тегла – параметрите, които могат да се обучават върху масивни набори от данни. Ако хакер получи достъп до теглата на модела, той притежава AI и то на малка част от разходите, необходими за създаването му”, казва Дан Лахав, съосновател, главен изпълнителен директор и изследовател на сигурността на AI в Pattern Labs.

Като се имат предвид безумно високите нива на внедряване на GenAI, тези уязвимости и пропуски в сигурността могат да се разпространят като горски пожар.

„От моите разговори сред общността на AI много доставчици на SaaS са крайно неподготвени за допълнителната експозиция, която тези системи могат да създадат, като се има предвид зародишът на GenAI и бързо променящата се екосистема”, казва Шварцентрубер.

По същество компаниите трябва да бъдат в пълна готовност и да подхождат към GenAI с вниманието на купувача.

„Софтуерът е на практика единственото нещо, което купуваме, без да знаем какво има в него. В продължение на 100 години FDA изисква от Kellogg’s да изписва съставките отстрани на кутията стафидени трици. Федералната търговска комисия изисква етикети за съставки на нашите тениски. Но когато става въпрос за Zoom или Microsoft Word, или софтуера в нашите пейсмейкъри или коли, исторически погледнато ние сме “летели на сляпо”. Липсата на прозрачност в AI не е по-различно – всъщност може да се каже, че е по-лошо”, казва Франкел.

Организациите трябва са в крак с нововъзникващите технологии за защита на данните и AI, тъй като много съществуващи продукти за сигурност може да не са особено полезни.

„Не става въпрос толкова за по-рисковите [технологии], а за това, че има много различни видове рискове, изискващи различни стратегии за смекчаване”, заключава Вивек Сингх, доцент по библиотечни и информационни науки в Училището по комуникация и информация на университета Рутгерс.

Коментар