Хакери могат да накарат AI да черпи много повече енергия

Всеобхватният изкуствен интелект крие неподозирани рискове от кибератаки
(снимка: CC0 Public Domain)

Нов тип кибератака може да увеличи консумацията на енергия на системите за изкуствен разум. По същия начин, по който атаката тип „отказ на услуга” в интернет (DDoS) се стреми да задръсти мрежата и да я направи неизползваема, новият тип нападение над AI принуждава дълбоката невронна мрежа да впрегне повече изчислителни ресурси от необходимото и да забави процеса си на „мислене”.

През последните години нарастващата обществена загриженост относно увеличаващото се потребление на енергия на големите модели на AI накара изследователите да проектират по-ефективни невронни мрежи. Една категория, известна като „архитектура за адаптивна входяща информация и множествена изходяща информация”, работи, като разделя задачите според това колко трудно се решават. След това изразходва минималното количество изчислителни ресурси, необходими за решаването на всяка задача.

Как става това? Да предположим, че имаме снимка на лъв, гледащ право в камерата с перфектно осветление, и снимка на лъв, приклекнал посред сложен пейзаж, частично скрит от погледа заради листа, дървета и др. Традиционната невронна мрежа ще прекара двете снимки през всичките си слоеве на анализ. Тя ще вложи еднакво количество изчисления, за да разпознае всяка от снимките, отбелязва MIT Technology Review.

Но адаптивната система може да прекара първата снимка само през един аналитичен слой, преди да достигне необходимия праг на доверие, за да определи със сигурност, че вижда лъв. Това намалява въглеродния отпечатък на системата. Също така подобрява неговата скорост и позволява въпросният изкуствен разум да бъде вграждан в малки устройства като смартфони и интелигентни аудио-колонки.

Но съществуването на този вид невронна мрежа за изкуствен разум означава, че ако променим входящото изображение, можем да променим количеството изчисления, които са му необходими, за да разреши гатанката и да стигне до решение. Това разкрива уязвимост, която хакерите могат да използват.

За проблема заговориха изследователи от Центъра за киберсигурност в Мериленд в нов доклад, представен на Международната конференция за учебни технологии тази седмица. Добавяйки малки количества визуален шум към входящата информация, подавана на системата с изкуствен разум, учените са успели да я накарат да възприеме подадените задачи като значително по-трудни и да включи много повече и по-сложни изчисления.

Какво означава това? Ако предположим, че нападателят разполага с пълна информация за невронната мрежа, той може да направи така, че да увеличи максимално енергийната ѝ консумация. Но дори и да предположим, казват учените, че нападателят има ограничена или дори нищожна информация, той все пак може да успее да забави обработката на мрежата и да увеличи потреблението на енергия с 20% до 80%.

Причината, както са установили изследователите, е, че атаките се „прехвърлят” доста добре през различни видове невронни мрежи. Проектирането на атака за една система за класификация на изображения е достатъчно, за да подлуди много други невронни мрежи, обяснява Иджиктан Кая, докторант и съавтор на доклада.

Засега този вид атака все още е до голяма степен теоретична, успокояват изследователите. Архитектурите на AI с адаптивно въвеждане на информацията все още не се използват често в реални приложения. Но изследователите вярват, че това бързо ще се промени. Причините са очевидни – натискът в индустрията за внедряване на невронни мрежи с по-малко тегло, като например системите за интелигентен дом и различни IoT устройства.

Тудор Думитраш – професорът, който е консултирал изследването – казва, че е необходима още работа, за да се разбере до каква степен този вид заплаха може да нанесе щети. Но, добавя той, този доклад е първата стъпка към повишаване на осведомеността: „Важно за мен е да насоча вниманието на хората към факта, че това е нов модел на заплаха и че реално могат да се извършват подобни атаки”.

Коментар