
Ако агентният изкуствен интелект се държи по подобен начин като хората в мрежата, той ще се нуждае от същите нива на удостоверяване и контрол на достъпа. Но ако служителите и сътрудниците са ограничен брой, при AI агентите не е така: те може да са десетки, стотици или пък стотици хиляди. А това изисква нов тип решения за сигурност, способни да поддържат контрол и управление при такава многочислена „работна сила“.
Възходът на AI агентите поражда спешна нужда от стабилни рамки за управление на идентичностите, тъй като новите „колеги“ вече се интегрират в бизнес-дейностите.
Тъй като AI агентите се превръщат в новата работна сила, те имат достъп до системи и данни, но без идентичност, жизнен цикъл или ясна отчетност, а това оставя бизнеса незащитен.
Tези автономни системи обичайно нямат подходяща идентичност, управление на жизнения цикъл или отчетност. Това представлява критична празнина в управлението на фона на прехода към AI на производствено ниво.
Колко точно е голям проблемът, надвиснал над бизнес днес, в лицето на „безконтролния AI”? Значителен процент – навярно около 90%, според някои данни – от организациите внедряват AI агенти, но едва около 10% са установили ясни протоколи за управление. Това е съществена разлика, като се има предвид, че AI вече преминава отвъд експериментирането и навлиза в основните бизнес-функции.
Трябва да е ясно, че има драстична разлика между традиционните модели за сигурност, проектирани предимно за човешки потребители, и изискванията за системите, в които работят AI агенти.
В конвенционалните конфигурации достъпът е детерминистичен: потребителите влизат в предварително дефинирани отчети или приложения въз основа на роли и разрешения. За разлика от тях, AI агентите работят недетерминистично, използвайки интелигентност за достъп до различни ресурси като файлови системи, интернет, API, бази данни или други агенти.
Традиционните модели за сигурност са създадени за хора, а не за автономни системи. Възникващият риск не е самият модел на AI, а неконтролираният достъп и правомощията за вземане на решения.
Има ли изход? Експерти се застъпват за третиране на AI агентите със същата строгост, както човешките служители. Ако агент с изкуствен интелект може да осъществява достъп до системи и да предприема действия от името на бизнеса, той се нуждае от идентичност и същите контроли като всеки служител.
Средствата за това са няколко: безкомпромисно удостоверяване за агентите, контекстуални и прецизни разрешения, надзор от страна на човек в цикъла на работа.
Без подобни мерки организациите рано или късно ще се сблъскат с проблеми като изтичане на данни, компрометиране на идентификационни данни и нарушения на политиките, особено след като броят на агентите нараства бързо, без теоретично ограничение за това колко точно може да има.
Не на последно място в тази нова обстановка важна роля ще има образованието във всичките му аспекти. Важно ще бъде и сътрудничеството в индустрията за смекчаване на рисковете, свързани с агентите, базирани на изкуствен интелект.
