Отравянето на данни в големите генеративни AI модели става все по-осезаем проблем. Може би ще се намерят технологични решения за предпазване от подобна манипулация, но по-важното е разработчиците на технологията да осъзнаят проблема от гледна точка на моралните права – и на авторите, и на потребителите.
Представете си, че имате нужда от изображение на балон за своя работна презентация. Насочвате се към генератор на изображения от текст, например Midjourney или DALL-E. Въвеждате подканата: „червен балон на фона на синьо небе“. Генераторът връща изображение на яйце. Опитвате отново, но този път генераторът изплюва картинка с пъпеш. Какво става тук? Генераторът, който използвате, може да е бил „отровен“.
Какво е „отравяне на данни“?
Генераторите на изображения от текст работят, като се обучават върху големи набори от данни, включващи милиони или милиарди изображения. Някои генератори, като тези, предлагани от Adobe или Getty, се обучават въз основа на изображения, които производителят на генератора притежава – или най-малкото има лиценз за използването им.
Но други генератори биват обучени чрез безразборно преравяне на изображения из интернет. А много от тях са защитени с авторски права. Тенденцията доведе до редица случаи на нарушаване на авторските права, при което художници и фотографи започнаха да обвиняват големите технологични компании в кражба и печалба от работата им.
И ето откъде идва идеята за „отравяне“. Изследователи, които искат да дадат възможност на творците да предприемат нещо, наскоро създадоха инструмент, наречен „Nightshade“, за да се борят срещу нелегалното преравяне на изображения. Инструментът работи, като фино променя пикселите на изображението по начин, който причинява хаос в работата на компютърното зрение, но все пак оставя изображението непроменено за човешкото око.
Ако след това дадена организация използва някое от тези изображения, за да обучи бъдещ AI модел, нейният пул от данни става „отровен“. Това може да доведе дотам, че алгоритъмът да се научи погрешно да класифицира изображението. В резултат, генераторът може да започне да връща некоректни, непредвидими и – очевидно – нежелани резултати.
Симптоми на отравяне
Един балон може да се окаже яйце. Заявка за изображение в стила на Моне може да върне изображение в стила на Пикасо.
Възможно е да се върнат някои от проблемите с по-ранните AI модели, като дефектите при точното изобразяване на ръце, например. Моделите могат да въведат и други странни и нелогични характеристики в изображенията – примерно кучета с по шест крака.
Колкото по-голям е броят на „отровените“ изображения в данните за обучение, толкова по-голямо е смущението. Поради начина, по който работи генеративният изкуствен интелект, щетите от „отровени“ изображения засягат и ключовите думи в свързаните „подкани“.
Например, ако в данните за обучение се използва „отровено“ изображение на спортен автомобил от една марка, то резултатите за други марки автомобили и също могат да се окажат „оплескани“, а даже и резултатите относно други термини, свързани с автомобилизма.
Разработчикът на „Nightshade“ се надява, че инструментът ще накара големите технологични компании да се замислят и да зачитат по-сериозно авторските права. Но също така е възможно потребителите да започнат злоупотребяват с инструмента и умишлено да качват „отровени“ изображения в генераторите, за да се развалят качеството на услугите им.
Има ли противоотрова?
Като реакция на случващото се някои специалисти предложиха набор от технологични и чисто човешки решения. Най-очевидното е да се обръща по-голямо внимание на това откъде идват входните данни и какви са правата за тяхното използване. Това би трябвало да доведе до по-малко безразборно събиране на данни.
Подходът е в разрез с убеждението, което битува сред някои компютърни специалисти: че данните, намерени онлайн, могат да се използват за всякакви цели, които те смятат за подходящи.
Друго технологично решение е използването на „ансамблово моделиране“, където различни модели се обучават върху много различни подмножества от данни и се сравняват, за да се открият специфични отклонения. Този подход може да се използва не само за обучение, но и за откриване и изхвърляне на предполагаеми „отровени“ изображения.
Одитите също са възможно средство. Прилагането на одит означава разработване на „тестова батерия“ – малък, добре подбран и добре етикетиран набор от данни – като се използват „задържащи“ данни, които никога не се използват за обучение. След това въпросният набор може да се използва за проверка на точността на модела.
Стратегии срещу технологиите
Така наречените „враждебни подходи“ (тези, които влошават, мамят или манипулират AI системи), включително отравянето на данни, не са нищо ново. Те могат да включват и използването на грим и костюми за мамене на системите за лицево разпознаване.
Активистите за правата на човека, например, са загрижени за безразборното използване на машинно зрение на обществени места. Тази тревожност е особено остра по отношение на разпознаването на лица. Системи като Clearview AI, която поддържа масивна база данни с възможност за търсене на лица, извлечени от интернет, се използват от правоприлагащите органи и правителствените агенции по целия свят. През 2021 г. обаче правителството на Австралия призна, че Clearview AI нарушава поверителността на гражданите.
Като част от съпротивата срещу системите за лицево разпознаване, използвани за профилиране на конкретни лица, някои художници дори измислиха мамещи модели на грим и дрехи с назъбени цветови линии и асиметрични криви, които пречат на системите за наблюдение да ги идентифицират.
Има ясна връзка между тези случаи и проблема с отравянето на данни. И двата са свързани с по-съществени въпроси относно управлението на технологиите. Много доставчици на технологии биха счели отравянето на данни за досаден проблем, който трябва да бъде коригиран с технологични решения. Но може би все пак е по-добре да разглеждаме отравянето на данни от гледна точка на основните морални права на творците и потребителите.