TechNews.bg
E-обществоАктуалноНовини

Възкръснали с AI политици идват за изборите

Индонезийски президент покойник “възкръсна” за изборите, разкривайки потенциала на AI за манипулиране на избирателите (графика: CC0 Public Domain)

Един страховит армейски генерал, управлявал Индонезия с железен юмрук повече от три десетилетия, отправи послание към избирателите преди наскоро проведените избори в страната – от гроба си. „Аз съм Сухарто, вторият президент на Индонезия“, казва бившият генерал в триминутен видеоклип, навъртял над 4,7 милиона гледания в социалните мрежи. Сухарто почина през 2008 г. на 86-годишна възраст. Откъде е изпратил видеото?

Филмчето е генерирано от изкуствен интелект. Това е така нареченият майсторски фалшификат или „дийпфейк“, създаден с помощта на софтуерни инструменти за клониране на лицето и гласа на Сухарто.

„Видеото е направено, за да ни напомни колко важни са нашите гласове на предстоящите избори“, каза Ервин Акса, заместник-председател на Голкар – една от най-големите и най-стари политически партии в Индонезия. Акса е човекът, който първи сподели видеото в X преди изборите на 14 февруари.

[related-posts]

Партията е една от 18-те, които се състезаваха в тазгодишната надпревара. Повече от 200 милиона избиратели имат право на глас в Индонезия. Голкар всъщност не издигна свой собствен кандидат за президент, но подкрепи такъв от друга партия – отново бивш армейски генерал, действал по време на железния режим на Сухарто.

Чрез видеото с лицето на лидер, който отдавна е покойник, малко седмици преди вота, намеренията на Голкар бяха ясни: да насърчи гласоподавателите да подкрепят партийния „наследник“ на Сухарто. Самият Акса каза, че е горд от постигнатото в Индонезия по времето на Сухарто.


Мнозина осъдиха акта на използване на лицето и гласа на мъртвец, особено за политическа пропаганда. „Това е състоянието на страната ни днес – връщане към живота на мъртви диктатори, за да ни заблуждават и плашат, за да гласуваме“, написа един индонезиец в X. „Етично ли е да се създават дийпфейкове с образите на мъртви хора? Чувствам го толкова погрешно от морална гледна точка“, каза друг.

Избори в ерата на майсторския фалишификат

Онлайн светът играе огромна роля в политиката – не само в Индонезия. Във всяка страна с високо ниво на използване на интернет почти всички политически партии и политици поддържат силно присъствие в социалните медии. Там те търсят обратна връзка, последователи, влияние.

„Майсторските фалшификати могат значително да повлияят на изборите – на начина, по който се провежда дадена кампания, както и на резултатите“, казва Голда Бенджамин, кампаниен мениджър за Азиатско-тихоокеанския регион в Access Now, американска организация с нестопанска цел за цифрови права. „Опасността се крие в това колко бързо се разпространява. Дийпфейкът може лесно да достигне до милиони хора за секунди, лашкайки общественото мнение и манипулирайки милионите избиратели“.

В навечерието на индонезийските избори почти всички големи партии в почти всички страни са обърнали към AI и са използвали различни „майсторски фалшификати“ за политическа цел.

Така например едно друго видео, което привлече силна критика, показваше образи на деца, генерирани от AI. Детските лица бяха използвани от партия в телевизионна реклама, за да заобиколят правилата, забраняващи на деца да се снимат в политически кампании.


На фона на всичко това навярно изглежда напълно нормално и невинно, че някои политици използват чатботове в своите уебстраници, за да отговарят на запитвания относно политиките си.

Нащрек

Медийни агенти, политици, комуникатори и кампанийни мениджъри са на мнение, че днес трябва да сме особено критични, знаейки, че вече има AI технология, която може да генерира реалистични аудио или визуални изображения – но всъщност фалшиви. Ако нещо „сензационно“ обикаля интернет с бясна скорост и в него срещаме лицата на политиците, трябва да имаме най-малко едно наум.

В огъня на политическата конкуренция могат да се родят всякакви майсторски фалшификати, от брутално компрометиращи „тайни записи“ до възкръсването на покойници като някогашния индонезийски президент.

Регулации по този въпрос няма. В същото време очевидно има ентусиасти, които са готови на всякакви експерименти – подобно на Ервин Акса. Те не биха се посвенили да използват фалшиви образи, нито да ги пуснат „в обращение“.

още от категорията

Бизнесите ще използват 1,3 милиарда AI агента до 2028 г. 

TechNews.bg

Провал в тестовете за сигурност – никой не може да контролира суперинтелекта

TechNews.bg

AI агент Kiro разработва самостоятелно софтуер

TechNews.bg

Три принципа, без които изкуственият интелект ще полудее

TechNews.bg

AI анализира разговорите в затвора, предотвратява престъпления

TechNews.bg

AI за умно управление на градските паркове и зеленина: Мадрид се пробва

TechNews.bg

Коментари