Лекция, която Айнщайн никога не е произнесъл, вече се разпространява като видеоклип
(снимка: стоп кадър от видео на OmniHuman-1)
Настъпва ли повратен момент в медийното пространство и начина, по който възприемаме информацията и въобще света около нас? Изследователи от китайската компания ByteDance, собственик на TikTok, показаха нова AI система OmniHuman-1, която може да генерира най-реалистичните дийпфейк видеоклипове до момента.
Дълбокият фалшификат, направен с изкуствен интелект, вече е стока. Има достатъчно приложения, които могат да вмъкнат някого в снимка или да накарат човек да изглежда, че каже нещо, което всъщност не е казал.
Но повечето дийпфейкове – и по-специално видео фалшификатите – не успяват да изчистят всички детайли на подмяната. Обикновено има някакъв признак или очевиден знак, че е замесен изкуственият интелект, отбелязва TechCrunch.
Този път е различно
Не е така обаче с OmniHuman-1 – поне от избраните образци, които екипът на ByteDance разпространи, намесата на AI не се забелязва. Виждат се измислено изпълнение на Тейлър Суифт, TED лекция, която никога не се е състояла, дълбоко фалшифицирана лекция на Айнщайн…
Според разработчиците от ByteDance, OmniHuman-1 се нуждае само от едно референтно изображение и аудио, като реч или вокали, за да генерира клип с произволна дължина. Съотношението на изходния видеоклип е регулируемо, както и „пропорцията на тялото” на субекта – т.е. каква част от тялото му е показано във фалшивите кадри.
Обучен на 19 000 часа видео съдържание от неразкрити източници, OmniHuman-1 може също да редактира съществуващи видеоклипове – дори да променя движенията на крайниците на човек. Наистина е удивително колко убедителен може да бъде резултатът.
Разбира се, OmniHuman-1 не е перфектен. Екипът на ByteDance казва, че референтните изображения с „ниско качество” няма да доведат до най-добрите видеоклипове и изглежда, че системата се бори с определени пози – наблюдават се, например, странни жестове с чашата за вино в едно от видеата.
И все пак, OmniHuman-1 е с глави и рамене над предишните техники за дълбоки фалшификати и може да е знак за предстоящи големи неща. Въпреки че ByteDance не е пуснала системата за публично ползване, на AI общността едва ли ще отнеме много време за „обратно инженерство” на модели като тези.
Последствията будят тревога
Миналата година политическите дийпфейкове се разпространиха като горски пожар по целия свят. В деня на изборите в Тайван група, свързана с Китайската комунистическа партия, публикува генерирано от AI подвеждащо аудио на политик, който подкрепя прокитайски кандидат.
В Молдова дълбоки фалшиви видеоклипове изобразяваха президента на страната Мая Санду, която подава оставка. А в Южна Африка дийпфейк на рапъра Еминем, подкрепящ южноафриканска опозиционна партия, се разпространи преди изборите в страната.
Дълбоките фалшификати все повече се използват и за извършване на финансови престъпления. Потребителите биват мамени с дийпфейкове на знаменитости, предлагащи инвестиционни възможности, а корпорациите са представяни от дийпфейк имитатори.
Според изследване на Deloitte, генерираното от AI съдържание е допринесло за повече от 12 милиарда долара загуби от измами през 2023 г., като тази сума може да достигне 40 милиарда долара в САЩ до 2027 г.
Опити за регулация
Миналия февруари стотици представители на общността на изкуствения интелект подписаха отворено писмо с призив за строга регулация на дълбоките фалшификати. При липсата на закон, криминализиращ дийпфейк на федерално ниво в САЩ, повече от 10 щата са приели закони срещу AI-представянето под чужда самоличност.
Законът на Калифорния (в момента в застой) ще бъде първият, който дава право на съдиите да нареждат дийпфейк плакатите да бъдат премахнати или евентуално техните създатели изправени пред парични санкции.
За съжаление дълбоките фалшификати са трудни за откриване. Докато някои социални мрежи и търсачки са предприели стъпки за ограничаване на разпространението им, обемът на дийпфейк съдържанието онлайн продължава да расте с тревожно бързи темпове.
В проучване от май 2024 г. на фирмата за проверка на самоличност Jumio, 60% от хората казват, че са се сблъскали с дълбоки фалшификати през изминалата година. 72% от респондентите се притесняват ежедневно да не бъдат заблудени от дълбоки фалшификати, докато мнозинството подкрепя законодателство за справяне с разпространението на фалшификати, генерирани от AI.