TechNews.bg
Водещи новиниНоваторскиНовиниТехнологииТоп новини

Дийпфейковете станаха почти неразличими от реалността

Ситуацията само ще се влошава и ще стане неконтролируема без надеждна защита

Качеството на генерираните от изкуствен интелект дийпфейкове вече е достатъчно високо, за да заблуди хората (графика: CC0 Public Domain)

През настоящата година качеството на дийпфейковете – медийно съдържание, създадено с помощта на изкуствен интелект – се подобри значително. Лицата, гласовете и движенията на тялото, генерирани от изкуствен интелект, за да имитират реални хора, надминаха очакванията на много експерти; тези материали все по-често се използват за заблуда на хората.

В много ежедневни ситуации, независимо дали става въпрос за видео разговори с ниска резолюция или медийно съдържание в социалните медии, качеството на генерираните от изкуствен интелект дийпфейкове (deepfake) вече е достатъчно високо, за да заблудят обикновените хора, които не са експерти, отбелязва в анализ Gizmodo.

Рязкото увеличение на дийпфейковете не се ограничава само до качеството: през 2023 г. имаше 500 000 такива материала, а през 2025 г. те са приблизително 8 милиона, според данни на DeepStrike, с темп на растеж от 900% годишно.

Технологични пробиви

Няколко технологични пробива допринесоха за това рязко увеличение. Първо, генерираните от изкуствен интелект кадри се характеризират с времева последователност: хората в кадъра се движат реалистично, лесно са разпознаваеми и съдържанието на видеото остава смислено във всеки кадър.

Моделите разделят информацията, свързана с идентичността на човек, от информацията, свързана с движението: едно и също движение може да бъде свързано с различни идентичности, а една и съща идентичност – с множество видове движение.

Изображенията на лицата не трептят, не се изкривяват и не показват деформациите, които преди това ясно показваха „дълбоки фалшиви” изображения.

Второ, качеството на клонирането на глас вече е надминало конвенционалния праг на неразличимост. Няколко секунди са достатъчни, за да се създаде убедителна имитация на глас – клонингът ще има естествена интонация, ритъм, акцент, емоция, паузи и дори дихателни звуци.

А това предоставя огромна възможност за мащабни измами. Субективните сигнали, които преди това идентифицираха синтетични гласове, до голяма степен изчезнаха.

Трето, техническата бариера за работа с генератори на съдържание е намалена до почти нула. С OpenAI Sora 2 и Google Veo 3, както и с модели от някои стартиращи компании, всеки може да формулира идея, да създаде подробен скрипт, използвайки OpenAI ChatGPT или Google Gemini, и да генерира висококачествено съдържание за минути.

Целият процес може да бъде автоматизиран с помощта на AI агенти. В резултат на това, способността за създаване на съгласувани дийпфейкове с наративи в голям мащаб вече е демократизирана.

Откриването на дийпфейкове, неразличими от реални хора в социалните медии, става изключително трудно, особено след като вниманието на потребителите вече е фрагментирано, а материалите се разпространяват по-бързо, отколкото могат да бъдат проверени. 

Дийпфейковете се използват за дезинформация, тормоз и финансови измами, а хората нямат време да разберат какво се случва.

Генериране на съдържание в реално време

Траекторията за следващата година изглежда ясна: дийпфейковете се насочват към генериране на съдържание в реално време. Видеата точно имитират нюансите на човешкия външен вид и са способни да избягват системите за откриване.

Границата се измества от статичен визуален реализъм към последователност във времето и поведението – съдържанието ще се появява в реално време, а не в предварително рендирани клипове. Резултатът ще надхвърли простото човешко разпознаване – героите във видеоклиповете ще се държат като своите реални еквиваленти.

Участниците във видео разговори ще бъдат синтезирани в реално време – техните лица, гласове и маниери ще се адаптират мигновено към заявките и вместо записани видеоклипове, измамниците ще показват на жертвите си тези AI аватари.

Субективното възприятие вече няма да помага на хората да се предпазват от подобни дийпфейкове – ще са необходими технически мерки за защита, като криптографски подписи на автентични материали и етикетиране на инструменти за редактиране с изкуствен интелект.

Внимателното изследване на изображението на ниво пиксел може вече да не е достатъчно, предупреждават експертите. Прогнозата е стряскаща и вещае живот в симулиран измамен свят, ако няма надеждна защита срещу фалшификатите.

още от категорията

Бумът на дийпфейковете разпали вълна от измами със знаменитости

TechNews.bg

Дания готви строг закон срещу дийпфейковете

TechNews.bg

Honor пуска AI функция за разпознаване на дийпфейк

TechNews.bg

Пълна лудница: дийпфейк видеото става шокиращо добро

TechNews.bg

Дийпфейк – новото предизвикателство за бизнеса

TechNews.bg

Възкръснали с AI политици идват за изборите

TechNews.bg

Коментари