Изследване на учени от Университета на Мериленд (САЩ) доказа, че водните знаци върху съдържанието, генерирано от изкуствен интелект, се премахват относително лесно.
Генераторите на AI изображения вече са публично достъпни и хората все повече ги използват, за да създават „снимки” и дори видеоклипове на неща, които никога не са се случвали. Тези произведения могат да изглеждат като шега или с цел умишлено дезинформиране – стига да са достатъчно правдоподобни, за да подведат човек. Разработчиците на AI системи би следвало да маркират такова съдържание с воден знак, но на практика това се оказва не толкова просто.
Изследователи от Университета на Мериленд се заеха да проучат ефективността на техниките за откриване на изображения с изкуствен интелект. Оказва се, че водните знаци, създадени в процеса на генериране на AI изображение, могат лесно да бъдат премахнати с помощта на дифузионно почистване или атака на заместване на модела, съобщи Extremetech.
Дифузионното почистване, което представлява добавяне на шум към изображение и след това премахването му, позволява отстраняване на водни знаци, поставени с помощта на методи с ниско ниво на шум като RivaGAN и WatermarkDM. За методи с високо ниво на шум, като StegaStamp, се прилага атака с подмяна на модела – тя принуждава системите, използвани за AI анализ, да идентифицират генерираните изображения като реални.
Това е лоша новина за Amazon, Meta, Alphabet, Microsoft и OpenAI – всички те по-рано обещаха да разработят технологии за маркиране на съдържание с изкуствен интелект с цел борба с дезинформацията.
От друга страна, самата идея за маркиране на изображения, създадени от AI генератори, не предполага пълна защита срещу дезинформация, тъй като те не са видими за окото и е малко вероятно обикновеният интернет потребител да проверява всяко изображение, което среща, за автентичност. Това означава, че етикетирането е полезно само в случаите, когато вече е възникнало съмнение.