TechNews.bg
НоваторскиНовиниТехнологииТоп новини

Дийпфейковете станаха почти неразличими от реалността

Ситуацията само ще се влошава и ще стане неконтролируема без надеждна защита

Качеството на генерираните от изкуствен интелект дийпфейкове вече е достатъчно високо, за да заблуди хората (графика: CC0 Public Domain)

През настоящата година качеството на дийпфейковете – медийно съдържание, създадено с помощта на изкуствен интелект – се подобри значително. Лицата, гласовете и движенията на тялото, генерирани от изкуствен интелект, за да имитират реални хора, надминаха очакванията на много експерти; тези материали все по-често се използват за заблуда на хората.

В много ежедневни ситуации, независимо дали става въпрос за видео разговори с ниска резолюция или медийно съдържание в социалните медии, качеството на генерираните от изкуствен интелект дийпфейкове (deepfake) вече е достатъчно високо, за да заблудят обикновените хора, които не са експерти, отбелязва в анализ Gizmodo.

Рязкото увеличение на дийпфейковете не се ограничава само до качеството: през 2023 г. имаше 500 000 такива материала, а през 2025 г. те са приблизително 8 милиона, според данни на DeepStrike, с темп на растеж от 900% годишно.

Технологични пробиви

Няколко технологични пробива допринесоха за това рязко увеличение. Първо, генерираните от изкуствен интелект кадри се характеризират с времева последователност: хората в кадъра се движат реалистично, лесно са разпознаваеми и съдържанието на видеото остава смислено във всеки кадър.


Моделите разделят информацията, свързана с идентичността на човек, от информацията, свързана с движението: едно и също движение може да бъде свързано с различни идентичности, а една и съща идентичност – с множество видове движение.

Изображенията на лицата не трептят, не се изкривяват и не показват деформациите, които преди това ясно показваха „дълбоки фалшиви” изображения.

Второ, качеството на клонирането на глас вече е надминало конвенционалния праг на неразличимост. Няколко секунди са достатъчни, за да се създаде убедителна имитация на глас – клонингът ще има естествена интонация, ритъм, акцент, емоция, паузи и дори дихателни звуци.

А това предоставя огромна възможност за мащабни измами. Субективните сигнали, които преди това идентифицираха синтетични гласове, до голяма степен изчезнаха.

Трето, техническата бариера за работа с генератори на съдържание е намалена до почти нула. С OpenAI Sora 2 и Google Veo 3, както и с модели от някои стартиращи компании, всеки може да формулира идея, да създаде подробен скрипт, използвайки OpenAI ChatGPT или Google Gemini, и да генерира висококачествено съдържание за минути.


Целият процес може да бъде автоматизиран с помощта на AI агенти. В резултат на това, способността за създаване на съгласувани дийпфейкове с наративи в голям мащаб вече е демократизирана.

Откриването на дийпфейкове, неразличими от реални хора в социалните медии, става изключително трудно, особено след като вниманието на потребителите вече е фрагментирано, а материалите се разпространяват по-бързо, отколкото могат да бъдат проверени. 

Дийпфейковете се използват за дезинформация, тормоз и финансови измами, а хората нямат време да разберат какво се случва.

Генериране на съдържание в реално време

Траекторията за следващата година изглежда ясна: дийпфейковете се насочват към генериране на съдържание в реално време. Видеата точно имитират нюансите на човешкия външен вид и са способни да избягват системите за откриване.

Границата се измества от статичен визуален реализъм към последователност във времето и поведението – съдържанието ще се появява в реално време, а не в предварително рендирани клипове. Резултатът ще надхвърли простото човешко разпознаване – героите във видеоклиповете ще се държат като своите реални еквиваленти.

Участниците във видео разговори ще бъдат синтезирани в реално време – техните лица, гласове и маниери ще се адаптират мигновено към заявките и вместо записани видеоклипове, измамниците ще показват на жертвите си тези AI аватари.

Субективното възприятие вече няма да помага на хората да се предпазват от подобни дийпфейкове – ще са необходими технически мерки за защита, като криптографски подписи на автентични материали и етикетиране на инструменти за редактиране с изкуствен интелект.

Внимателното изследване на изображението на ниво пиксел може вече да не е достатъчно, предупреждават експертите. Прогнозата е стряскаща и вещае живот в симулиран измамен свят, ако няма надеждна защита срещу фалшификатите.


още от категорията

Дания готви строг закон срещу дийпфейковете

TechNews.bg

Honor пуска AI функция за разпознаване на дийпфейк

TechNews.bg

Пълна лудница: дийпфейк видеото става шокиращо добро

TechNews.bg

Дийпфейк – новото предизвикателство за бизнеса

TechNews.bg

Възкръснали с AI политици идват за изборите

TechNews.bg

Измама като по часовник: преведоха $25 млн. след групов дийпфейк

TechNews.bg

Коментари