TechNews.bg
Водещи новиниЛ@йфНовини

Ще трябва ли социалните медии да дебнат за фалшиви видеа?

Фалшифицирани видеа показват именити лекари да препоръчват хранителни добавки

Професионалисти с минали публични изяви могат лесно да се окажат герои в AI-генерирани видеа, в които говорят небивалици (снимка: CC0 Public Domain)

В платформите за социални медии все по-често се появяват видеа, генерирани от изкуствен интелект, в които виждаме лекари и други професионалисти да препоръчват различни продукти. Но, оказва се, тези видеа са майсторски фалшификати. Думите, които героите им изричат, са откровена реклама, а социалните мрежи може скоро ще бъдат принудени да дебнат за подобно фалшиво съдържание и да го премахват светкавично.

Организацията за проверка на фактите Full Fact разкри стотици видеоклипове, в които се показват имитирани „версии“ на лекари и инфлуенсъри, насочващи зрителите към сайтове за хранителни добавки. Фалшификатите включват истински кадри с участието на здравни експерти, взети от интернет.

Видеото и аудиото обаче са генерирани от AI алгоритми. Така се получават синтетични образи, в които лекари с лица на реални медици препоръчват всевъзможни продукти като например добавки, екстракти, минерали и др. Рекламира се какво ли не – от пробиотици до хималайски шиладжит.

Проф. Дейвид Тейлър-Робинсън, медик от Университета в Ливърпул, е сред хората, чийто имидж е използван. През август той бил шокиран да открие, че TikTok поддържа общо 14 видеоклипа, които уж го показват как препоръчва продукти, за които той дори не е чувал.

Въпреки че Тейлър-Робинсън е специалист по детско здраве, в едно видео клонираната му версия говори за предполагаем страничен ефект от менопаузата, наречен „термометърен крак“.

Фалшивият Тейлър-Робинсън препоръчва на жените в менопауза да посетят конкретен уебсайт, за да си купят нещо, което синтетичният образ нарича естествен пробиотик, съдържащ „10 научно обосновани растителни екстракта, включително куркума, черен кохош, дим [дииндолилметан] и моринга, специално подбрани за справяне със симптомите на менопаузата“.

Истинският Тейлър-Робинсън открил, че неговият образ се използва, едва когато колега го предупредил за видеата. Казва, че моментът е бил „сюрреалистичен“. „Не се чувствах силно наранен, но се подразних от идеята някой да продава продукти, използвайки моята работа, и от здравната дезинформация, свързана с това“.

Кадрите, използвани за генериране на образа на Тейлър-Робинсън, са от публична лекция през 2017 г., и от участието му в парламентарно изслушване, където е давал показания, през май тази година.

TikTok е свалил видеата цели шест седмици след оплакването на Тейлър-Робинсън. „Първоначално казаха, че някои от видеата нарушават техните правила, но някои са приемливи. Това беше абсурдно – и странно – защото аз участвах във всички тях и всички те бяха дийпфейкове“.

Подобни събития са се случвали и на други медици, разкри разследването на организацията за достоверност. Случаите зачестяват и повдигат въпроса за ролята на социалните мрежи в разпространението на видеа с фалшифицирано участие на професионалисти от различни сфери.

Разкритията предизвикаха призиви към гигантите в социалните медии да бъдат много по-внимателни при хостването на съдържание, генерирано от изкуствен интелект. Експертите призовават компаниите да бъдат по-експедитивни в премахването на фалшивото съдържание.

Не е изключено след известно време да се стигне до някаква форма на законово задължение социалните мрежи да реагират в определени срокове при оплакване от подобни фалшиви видеа.

още от категорията

Бумът на дийпфейковете разпали вълна от измами със знаменитости

TechNews.bg

ЕС иска окончателно да изгони китайските фирми от мрежите си

TechNews.bg

Аналогов метод намалява потреблението на енергия за AI обучение

TechNews.bg

Нов AI модел прецизно оценява математически ръкописи

TechNews.bg

AI прогнозира нивата на безработица по публикации в социалните мрежи

TechNews.bg

AI откри обещаващ нов свръхпроводник

TechNews.bg

Коментари