Британски експерти се опасяват, че изображенията, създадени от изкуствен интелект, „застрашават демокрацията“. Предупреждението дойде след като фалшива снимка на премиера Риши Сунак, който налива бира “в грешна чаша”, предизвика възмущение сред Консервативната партия.
Изображения на политици, генерирани или редактирани с помощта на генеративен AI като Midjourney или Stable Diffusion, „представляват заплаха за демократичните процеси“, казват специалистите по изкуствен интелект. Твърдението идва след неотдавнашното публикуване на редактирана снимка на британския премиер Риши Сунак на Лондонския фестивал на бирата – той е зад бара и държи евтина чаша, пълна със силна бира Black Dub, една жена стои до него и го гледа с подигравателно изражение.
И въпреки че първоначално не беше ясно дали оригиналната снимка е била редактирана с изкуствен интелект, дебатът относно дълбоките фалшификати и етикетирането на AI изображения бе подновен с пълна сила. Впоследствие се оказа, че снимката е била сериозно редактирана: всъщност чашата е маркова, бирата е напълнена догоре, а изражението на лицето на жената, застанала до премиера, е напълно неутрално.
Редактираното изображение обаче беше публикувано първо в социалните медии от депутата от Лейбъристката партия Карл Търнър, а по-късно и от други членове на партията. Консерваторите на свой ред избухнаха от възмущение. Вицепремиерът Оливър Доудън нарече изображението неприемливо и призова членовете на Лейбъристката партия да премахнат фалшивата снимка, защото е „подвеждаща“.
Експерти предупреждават, че настоящата ситуация е индикатор за това какво може да се случи в предизборната надпревара догодина и че макар да не е напълно ясно дали снимката с премиера е била обработена с изкуствен интелект, подобни програми биха направили по-бързо и по-лесно изработването на фалшификати ( и същевременно убедителни) на текстове, снимки и аудио.
Професорът по компютърни науки от университета в Саутхемптън Уенди Хол коментира, че използването на дигитални технологии като цяло и AI в частност е заплаха за демократичните процеси и трябва да се вземат спешни мерки за минимизиране на рисковете с оглед на предстоящите избори в САЩ и Обединеното кралство.
Швета Сингх, асистент по информационни системи и управление в Университета на Уоруик, на свой ред заяви, че е необходимо установяване на набор от етични принципи, които ще позволят на хората да разберат, че виждат достоверна информация в новините, а не фалшификати.
Нейната идея споделя и професор Фатен Гон, ръководител на катедрата по публична администрация в университета в Есекс, който подчерта, че е отговорност на политиците да информират избирателите за използването на редактирани изображения. Тоест, най-просто казано, да се маркират изображения, променени с помощта на цифрови технологии, така че да няма илюзии, че са реални.
Лейбъристките политици изглежда смятат, че нищо страшно не се случва. „Основният въпрос е: как някой може да разбере, че дадена снимка е дълбок фалшификат? Не бих критикувал Карл Търнър за публикуване на снимка, която изглежда истинска“, написа Дарън Джоунс, ръководител на парламентарната комисия по бизнес и търговия. И в отговор на критиките от страна на министъра на науката Мишел Донелан той попита какво прави нейният отдел за откриване на дълбоки фалшификации с оглед предстоящите избори.
По-рано тази година Министерството на науката публикува доклад, очертаващ основните принципи за контролиране на развитието на нови технологии, вместо частни забрани за конкретни продукти. Самият министър-председател Сунак промени реториката си от възхвала на изкуствения интелект като източник на нови възможности до предупреждение, че AI трябва да бъде снабден с „парапет“.
Междувременно най-мощните AI корпорации вече се съгласиха да създадат цял набор от нови ограничения за изкуствения интелект. По-специално, след среща с президента на САЩ Джо Байдън, представители на Amazon, Google, Meta, Microsoft и OpenAI решиха автоматично да поставят водни знаци на всяко визуално и аудио съдържание, създадено с помощта на техните разработки.
Етикетирането на AI съдържание е добра идея, но дали ще работи ефективно е друг въпрос. Първо, водните знаци са много трудни за премахване, но относително лесни за добавяне. И съответно всеки истински компромат може да бъде замаскиран като дийпфейк. А разобличаването на фалшификати и опровергаването на лъжи изисква в пъти повече време и усилия от създаването им.
Второ, дори и най-напредналите разработчици на генеративен AI да приемат необходимите ограничения, изобщо не е сигурно, че всички останали ще го направят. Няма да е изненадващо, ако “черен AI” влезе в употреба в “черния PR” и стане инструмент в ръцете на безскрупулните политически консултанти. От техническа гледна точка това е просто въпрос на изчислителна мощност.
Широкото използване на дийпфейк може в крайна сметка напълно да дискредитира фото и видео съдържанието в сегашния му вид, смятат експерти. Но също така може да стимулира разработването на нови видове носители за съхранение – по-високотехнологични и защитени от опити за фалшифициране на информацията, съдържаща се в тях.
Основният бизнес не медиите е именно това да правят ръчно дийп геймове и всевъзможни манипулации и изкривяване на истината и фактите.