AI проблемите изискват различен вид мислене за сигурността

Изкуственият интелект може да обработва големи количества данни и да „вижда” някои отношения, които не са забележими за хората, казва Дмитри Сошников, „евангелист” в общността на разработчиците в Microsoft Русия (снимка: личен архив)

Дигитализацията на бизнеса, която напоследък масово се нарича и дигитална трансформация, отваря много нови възможности, но и ни изправя пред предизвикателства за безопасността, каквито никога не сме срещали досега.

Така например, изкуственият интелект (AI, ИИ) позволява прехвърляне на рутинните задачи от хората към машините, за да освободи човешките способности и възможности за по-креативни приложения – ала синтетичният разум първо „трябва да се научи” да работи по правилния начин, а ние, хората, трябва да му създадем условията да се самообучава.

В този свят на изкуствения интелект една малка промяна в данните може да коства огромни щети. Например, пред една автономна кола манипулирането на знака „Стоп” може да доведе до погрешното му тълкуване и до катастрофа с фатални последици. Това е причината, поради която в днешно време данните са дори по-важни от самите компютърни алгоритми, казва Дмитри Сошников, „евангелист” в общността на разработчиците в Microsoft Русия.

По неговите думи, днес специалистите по изкуствен интелект и информационна сигурност са изключително ценни, но в недостиг. Тяхната работа също е изключително интересна. За нея и нейните предизвикателства – ролята на машинното самообучение и изкуствения интелект в киберсигурността – Сошников ще говори с ИТ специалистите в София на 30 януари, когато ще се проведе форумът Cyber Protection Developers Conference в аулата на Софийския университет. Организатор е технологичната компания Acronis с подкрепата на БАИТ, БАСКОМ и Министерството на образованието.

Г-н Сошников, дигитализацията е на ход с пълна сила, кои области на технологичното развитие са най-предизвикателни по отношение на киберсигурността?

Като цяло колкото повече разчитаме на компютърните технологии в живота си, толкова повече трябва да се безпокоим за сигурността. Това е особено вярно за устройства, които взаимодействат с реалния свят: устройства за интернет на нещата, които могат да се управляват дистанционно, автомобили със самостоятелно управление и др.

Изкуственият интелект представя нова форма на атаки в допълнение към „традиционните” – враждебни атаки върху невронни мрежи. Те произтичат от факта, че поведението на невронните мрежи е много сложно и нелинейно, а малките промени на входа могат да имат драматичен ефект върху изхода.

Например, можем да прикрепим няколко малки парчета лента към пътния знак „СТОП”, за да стане разпознаваем като друг знак (да кажем „ограничение на скоростта”), като по този начин ще накараме автомобила да се блъсне. Такива атаки не могат да бъдат лесно преборени, защото – за разлика от традиционните алгоритми – невронните мрежи не са „програмирани” от хората.

Изкуственият интелект допълва „традиционните” атаки с нова форма – враждебни атаки върху невронни мрежи, споделя Дмитри Сошников (снимка: личен архив)

Фактът, че не програмираме невронните мрежи и не знаем точно тяхното „разсъждение”, води до проблем с гарантирането на трайността им. Невронната мрежа може да се научи да изпълнява задачата добре при определени условия, но може и да се провали, ако условията се променят.

Например, кола, която се е научила да се управлява сама през деня, най-вероятно ще се провали през нощта – а за да може да се използва, ще трябва да предоставим данни за обучението й с всички възможни сценарии. По този начин проблемите с ИИ изискват различен вид „мислене за сигурността”, което в допълнение към алгоритмите разглежда качеството и разнообразието на данните.

Как машинното обучение и изкуственият интелект ще променят ролята на професионалистите в областта на кибернетичната сигурност?

Основната роля на ИИ е да решава задачи, които не са креативни и по този начин са по-малко интересни за хората. Използването на ИИ предоставя на специалистите по сигурността нови инструменти, които те могат да използват, за да увеличат своите възможности.

Например, ИИ може да обработва големи количества данни и да „вижда” някои отношения, които не са забележими за хората. Можем да анализираме модели в кода и да се опитаме да ги групираме, за да разделим някои специфични фрагменти от кода, които са типични за злонамерен софтуер.

Или можем да проследим поведението на компютърните програми в паметта и да научим модела за машинно самообучение да различава доброто и лошото – като по този начин автоматично открива нов злонамерен софтуер. Именно това е начинът, по който работи компонентът в Acronis Active Protection.

Казвате, че днес по-важни са данните, отколкото алгоритмите. Кое тогава е голямото предизвикателство при работа с данни днес? Какво може да направи ИИ за защита на нашите данни? Какво трябва да знаят специалистите по киберсигурност относно данните, защитата на данните и използването на ИИ за защита на данните?

Има няколко важни неща при работата с данни. Първо, трябва да разработим „ориентирано към данните” мислене. Това е нещо, което учените имат. То включва интуиция кои данни трябва да се събират, как трябва да бъдат структурирани и как да се предотвратят отклоненията в моделите, причинени от небалансирани данни.

Второ, трябва да разберем настоящите възможности на ИИ за намиране на добри данни в нашите бизнес сценарии, които да помогнат за подобряване на бизнес процесите. Например, ако някъде в магазина има камера за сигурност, можем да използваме лицево разпознаване, за да установяваме влизането на посетители, като по този начин изчисляваме такива важни индикатори (KPI) като броя на хората, идващи по различно време, тяхното разпределение по пол/възраст и вероятността да се върнат. Освен това, чрез събирането на тези данни можем да предскажем подобно събитие и по този начин да оптимизираме ресурсите, необходими за управлението на бизнеса.

Изкуственият интелект предоставя на специалистите по сигурността инструменти, които те могат да използват, за да увеличат своите възможности, казва Дмитри Сошников (снимка: личен архив)

На трето място, данните обикновено идват в големи количества, което изисква не само силата на „облака” за съхраняването им, но и специален подход към обработката им. Боравенето с разпределената обработка на данни и компютърните клъстери може да бъде трудно, но за щастие съществуват технологии като Azure Databricks и Azure ML Services, които помагат да се работи по няколко часа, а не много дни.

Трудно ли е да се намерят специалисти по изкуствен интелект днес?

ИИ като поле се развива много бързо и повечето от постиженията, които се използват сега, са разработени едва преди няколко години. Традиционното университетско образование не може да се справи с такива бързи промени.

Най-добрата стратегия да се превърнете в добър професионален специалист по ИИ би била да съчетаете добра университетска подготовка в областта на математиката или компютърните науки с онлайн обучение и работа по практически проекти. Тъй като този подход изисква много самодисциплина и мотивация, днес има огромен недостиг на професионалисти по ИИ.

Също така е много важно за разработчиците и бизнес лидерите да повишат осведомеността си относно изкуствения интелект, да започнат да мислят как модерният ИИ може да реши съществуващите бизнес-проблеми. Един добър начин за повишаване на осведомеността е чрез конференции, където се представят сценарии и решения от реалния свят.

На форума Cyber Protection Developers Conference в София ще говоря за ИИ и сигурността, обхващайки някои проекти, върху които работихме заедно с Acronis. Самата конференция събира наистина топ-лектори по целия свят, сред които Бертран Майер, Майкъл Видениус, Минко Генчев и други – и затова е силно препоръчително за всеки, който се интересува от сигурността, да дойде.

Мария Малцева

Мария Малцева

Коментар