
През настоящата година качеството на дийпфейковете – медийно съдържание, създадено с помощта на изкуствен интелект – се подобри значително. Лицата, гласовете и движенията на тялото, генерирани от изкуствен интелект, за да имитират реални хора, надминаха очакванията на много експерти; тези материали все по-често се използват за заблуда на хората.
В много ежедневни ситуации, независимо дали става въпрос за видео разговори с ниска резолюция или медийно съдържание в социалните медии, качеството на генерираните от изкуствен интелект дийпфейкове (deepfake) вече е достатъчно високо, за да заблудят обикновените хора, които не са експерти, отбелязва в анализ Gizmodo.
Рязкото увеличение на дийпфейковете не се ограничава само до качеството: през 2023 г. имаше 500 000 такива материала, а през 2025 г. те са приблизително 8 милиона, според данни на DeepStrike, с темп на растеж от 900% годишно.
Технологични пробиви
Няколко технологични пробива допринесоха за това рязко увеличение. Първо, генерираните от изкуствен интелект кадри се характеризират с времева последователност: хората в кадъра се движат реалистично, лесно са разпознаваеми и съдържанието на видеото остава смислено във всеки кадър.
Моделите разделят информацията, свързана с идентичността на човек, от информацията, свързана с движението: едно и също движение може да бъде свързано с различни идентичности, а една и съща идентичност – с множество видове движение.
Изображенията на лицата не трептят, не се изкривяват и не показват деформациите, които преди това ясно показваха „дълбоки фалшиви” изображения.
Второ, качеството на клонирането на глас вече е надминало конвенционалния праг на неразличимост. Няколко секунди са достатъчни, за да се създаде убедителна имитация на глас – клонингът ще има естествена интонация, ритъм, акцент, емоция, паузи и дори дихателни звуци.
А това предоставя огромна възможност за мащабни измами. Субективните сигнали, които преди това идентифицираха синтетични гласове, до голяма степен изчезнаха.
Трето, техническата бариера за работа с генератори на съдържание е намалена до почти нула. С OpenAI Sora 2 и Google Veo 3, както и с модели от някои стартиращи компании, всеки може да формулира идея, да създаде подробен скрипт, използвайки OpenAI ChatGPT или Google Gemini, и да генерира висококачествено съдържание за минути.
Целият процес може да бъде автоматизиран с помощта на AI агенти. В резултат на това, способността за създаване на съгласувани дийпфейкове с наративи в голям мащаб вече е демократизирана.
Откриването на дийпфейкове, неразличими от реални хора в социалните медии, става изключително трудно, особено след като вниманието на потребителите вече е фрагментирано, а материалите се разпространяват по-бързо, отколкото могат да бъдат проверени.
Дийпфейковете се използват за дезинформация, тормоз и финансови измами, а хората нямат време да разберат какво се случва.
Генериране на съдържание в реално време
Траекторията за следващата година изглежда ясна: дийпфейковете се насочват към генериране на съдържание в реално време. Видеата точно имитират нюансите на човешкия външен вид и са способни да избягват системите за откриване.
Границата се измества от статичен визуален реализъм към последователност във времето и поведението – съдържанието ще се появява в реално време, а не в предварително рендирани клипове. Резултатът ще надхвърли простото човешко разпознаване – героите във видеоклиповете ще се държат като своите реални еквиваленти.
Участниците във видео разговори ще бъдат синтезирани в реално време – техните лица, гласове и маниери ще се адаптират мигновено към заявките и вместо записани видеоклипове, измамниците ще показват на жертвите си тези AI аватари.
Субективното възприятие вече няма да помага на хората да се предпазват от подобни дийпфейкове – ще са необходими технически мерки за защита, като криптографски подписи на автентични материали и етикетиране на инструменти за редактиране с изкуствен интелект.
Внимателното изследване на изображението на ниво пиксел може вече да не е достатъчно, предупреждават експертите. Прогнозата е стряскаща и вещае живот в симулиран измамен свят, ако няма надеждна защита срещу фалшификатите.
