Майсторски фалшификати могат да заблудят лицевото разпознаване

Въпреки усилията на големите ИТ компании, засега битката с „deepfake” изглежда загубена
(снимка: CC0 Public Domain)

Майсторските фалшификати – така наречените „deepfakes” или видеоклипове, в които даден човек в съществуващ видеоклип бива ловко заменен с образа на друг човек – се умножават равноускорително.

Според новостартиращата фирма Deeptrace, броят на майсторските фалшификати в мрежата се е увеличил с 330% от октомври 2019 г. до юни 2020 г., достигайки над 50 000 в своя пик. Това е притеснително не само защото фалшификатите могат да бъдат използвани, за да повлияят на мнението на хората по време на избори или да намесят дадено лице в престъпление, но и защото се използват за брутално очерняне – например като представят дадена личност като участник в порнографски материали – или пък да породят измами.

Сега майсторските фалшификации, според ново проучване, са достигнали точката, в която могат надеждно да заблудят търговските технологии и услуги за лицево разпознаване. В статия (pdf версия), публикувана на сървъра за научни публикации Arxiv.org, изследователи от Университета Сунгкянкван в Сувон, Южна Корея, демонстрират, че API на Microsoft и Amazon могат да бъдат заблудени с често използвани методи за генериране на „дълбоки фейкове”. В конкретен случай един от API-тата – Azure Cognitive Services на Microsoft – е бил заблуден от до 78% от фалшификатите, които авторите са му подали.

„От експериментите установяваме, че някои методи за генериране на дълбоки фейкове представляват по-голяма заплаха за системите за лицево разпознаване в сравнение с други, както и че всяка система реагира различно на опитите за подмяна на хората”, пишат изследователите. „Ние вярваме, че резултатите от нашите изследвания могат да хвърлят светлина върху по-доброто проектиране на стабилни уеб-базирани API, както и подходящи защитни механизми, които са спешно необходими за борба срещу злонамереното използване на дълбоки фейкове”.

Изследователите са избрали да сравняват API за лицево разпознаване от Microsoft и Amazon, тъй като и двете компании предлагат услуги за лицево разпознаване на знаменитости, отбелязва Venturebeat. Google също предлага разпознаване на знаменитости чрез своя API на Cloud Vision, но компанията не е участвала в изследването.

Приложните програмни интерфейси (API) боравят с мярка, известна като „показател за оценяване на сходствата на лицето”, който прави възможно сравняването. И тъй като изображенията на лица на знаменитости са в изобилие в интернет – много повече в сравнение с тези на който и да е обикновен човек – то изследователите са успели да генерират дълбоки фейкове на неколцина от тях относително лесно..

За да видят до каква степен комерсиалните API за лицево разпознаване могат да бъдат заблудени от дълбоките фалшификати, изследователите са използвали модели, създадени от изкуствен разум, обучени върху пет различни набора от данни – три публично достъпни и два, които учените са създали сами. Наборите са съдържали лицата на холивудски филмови звезди, певци, спортисти и политици. Създадени са общо 8199 майсторски фалшификата. След това учените извадили лица от кадри от фалшивите видеозаписи и накарали услугите за лицево разпознаване да предскажат коя знаменитост е изобразена.

Изследователите установили, че всички API са „податливи на заблуда” чрез дълбоките фалшификати. Azure Cognitive Services е разпознала погрешно в 78% от случаите, докато Amazon Rekogmination е била измамена в 68,7% от случаите. И още: Rekognition е сбъркала фалшификатите с една знаменитост с образите на друга знаменитост в 40% от случаите. За общо 902 от всичките 3200 фалшификата системата е дала висока степен на увереност, че това е реално изображение на истинската знаменитост. В експеримента с Azure Cognitive Services изследователите успешно са „подменили” 94 от 100 разпознати знаменитости.

Когато услугите на Microsoft и Amazon допускат грешки, те правят това с висока степен на увереност, като Amazon показва „значително” по-висока податливост към заблуждение чрез дълбоки фейкове, отчитат учените.

„Ако приемем, че основният API за разпознаване на лица не може да разграничи имитиращия фалшификат от истинския потребител, това може да доведе до много рискове за поверителността, сигурност и репутацията, както и множество случаи на измами”, предупреждават изследователите. „Технологиите за гласово и образно дълбоко фалшифициране могат да се комбинират за създаване на „мултимодални фалшификати”, които да се използват за извършване на по-мощни и реалистични фишинг атаки… И ако комерсиалните API-та не успеят да филтрират дълбоките фейкове в социалните медии, това ще позволи разпространението на фалшива информация и ще донесе много вреди на невинни лица”.

Констатациите от проучването показват, че борбата срещу майсторските фалшификати вероятно ще остане предизвикателна, особено като се има предвид, че техниките за генериране на съдържание постоянно и бързо се подобряват. Неотдавна измамно видео с фалшиво участие на Том Круз, публикувано в непроверен акаунт в TikTok, събра 11 милиона гледания в приложението. Когато видеото беше сканирано в няколко от най-добрите публично достъпни инструменти за откриване на дълбоки фалшификации, нито един от тях не успя да долови измамата.

Въпреки усилията на големите ИТ компании, засега битката изглежда загубена.

„Очакваме, че методите за генериране на изкуствени среди ще продължат да се усъвършенстват. Тъй като всички методи за откриване на база на изкуствен разум имат известен процент на провал, то ние трябва да разберем и да сме готови да реагираме на майсторските фалшификати, които биват пропускани от системите за регистриране на измами”, написа Том Бърт – Microsoft CVP за сигурността и доверието на клиентите – в блог публикация миналия септември.

„В дългосрочен план трябва да търсим по-силни методи за поддържане и удостоверяване на автентичността на новинарски статии и други медии”, заключи той.

Коментари по темата: „Майсторски фалшификати могат да заблудят лицевото разпознаване”

добавете коментар...

  1. Фофу

    Ей, хайде да видим сега какви зашеметяващи сценарии ще измислят кон-спираторите. Темата е доста предразполагаща за мозъчни напъни.

Коментар