TechNews.bg
Водещи новиниЛ@йфНовини

Ще трябва ли социалните медии да дебнат за фалшиви видеа?

Фалшифицирани видеа показват именити лекари да препоръчват хранителни добавки

Професионалисти с минали публични изяви могат лесно да се окажат герои в AI-генерирани видеа, в които говорят небивалици (снимка: CC0 Public Domain)

В платформите за социални медии все по-често се появяват видеа, генерирани от изкуствен интелект, в които виждаме лекари и други професионалисти да препоръчват различни продукти. Но, оказва се, тези видеа са майсторски фалшификати. Думите, които героите им изричат, са откровена реклама, а социалните мрежи може скоро ще бъдат принудени да дебнат за подобно фалшиво съдържание и да го премахват светкавично.

Организацията за проверка на фактите Full Fact разкри стотици видеоклипове, в които се показват имитирани „версии“ на лекари и инфлуенсъри, насочващи зрителите към сайтове за хранителни добавки. Фалшификатите включват истински кадри с участието на здравни експерти, взети от интернет.

Видеото и аудиото обаче са генерирани от AI алгоритми. Така се получават синтетични образи, в които лекари с лица на реални медици препоръчват всевъзможни продукти като например добавки, екстракти, минерали и др. Рекламира се какво ли не – от пробиотици до хималайски шиладжит.


Проф. Дейвид Тейлър-Робинсън, медик от Университета в Ливърпул, е сред хората, чийто имидж е използван. През август той бил шокиран да открие, че TikTok поддържа общо 14 видеоклипа, които уж го показват как препоръчва продукти, за които той дори не е чувал.

Въпреки че Тейлър-Робинсън е специалист по детско здраве, в едно видео клонираната му версия говори за предполагаем страничен ефект от менопаузата, наречен „термометърен крак“.

Фалшивият Тейлър-Робинсън препоръчва на жените в менопауза да посетят конкретен уебсайт, за да си купят нещо, което синтетичният образ нарича естествен пробиотик, съдържащ „10 научно обосновани растителни екстракта, включително куркума, черен кохош, дим [дииндолилметан] и моринга, специално подбрани за справяне със симптомите на менопаузата“.

Истинският Тейлър-Робинсън открил, че неговият образ се използва, едва когато колега го предупредил за видеата. Казва, че моментът е бил „сюрреалистичен“. „Не се чувствах силно наранен, но се подразних от идеята някой да продава продукти, използвайки моята работа, и от здравната дезинформация, свързана с това“.

Кадрите, използвани за генериране на образа на Тейлър-Робинсън, са от публична лекция през 2017 г., и от участието му в парламентарно изслушване, където е давал показания, през май тази година.

TikTok е свалил видеата цели шест седмици след оплакването на Тейлър-Робинсън. „Първоначално казаха, че някои от видеата нарушават техните правила, но някои са приемливи. Това беше абсурдно – и странно – защото аз участвах във всички тях и всички те бяха дийпфейкове“.


Подобни събития са се случвали и на други медици, разкри разследването на организацията за достоверност. Случаите зачестяват и повдигат въпроса за ролята на социалните мрежи в разпространението на видеа с фалшифицирано участие на професионалисти от различни сфери.

Разкритията предизвикаха призиви към гигантите в социалните медии да бъдат много по-внимателни при хостването на съдържание, генерирано от изкуствен интелект. Експертите призовават компаниите да бъдат по-експедитивни в премахването на фалшивото съдържание.

Не е изключено след известно време да се стигне до някаква форма на законово задължение социалните мрежи да реагират в определени срокове при оплакване от подобни фалшиви видеа.

още от категорията

Повечето авто-производители ще порежат AI инвестициите до 2029 г.

TechNews.bg

Нулевото доверие остава недостижимо – AI усложнява това предизвикателство

TechNews.bg

AI може да замени близо 12% от работната сила в САЩ

TechNews.bg

Анализатори: твърденията за AI балон са преувеличени

TechNews.bg

AI обучители съветват близките си да стоят далеч от… AI

TechNews.bg

Изкуственият интелект e твърде рисков за застраховане

TechNews.bg

Коментари