СИФ гледа на генеративния AI като на топ-риск

Съдържание, създадено от алгоритми, все повече ще обърква хората през идните 2 години, особено около избори (снимка: CC0 Public Domain)

Дезинформационните материали, генерирани от изкуствен интелект (AI), представляват огромен риск, особено за предстоящите избори в САЩ, Обединеното кралство, Азия и Южна Америка през следващите две години. Сега това е топ-заплаха, според Световния икономически форум – повече дори от климатичните екстреми и киберсигурността.

Опитите за разпространение на фалшиви твърдения могат да подкопаят доверието в правителствата и да доведат до граждански вълнения. Световният икономически форум (WEF) предупреди, че онлайн дезинформацията, генерирана от AI, е най-големият краткосрочен риск, пред който са изправени страните по света сега.

Около три милиарда души се очаква да гласуват на избори по света от сега до 2026 г. Затова СИФ класира риска, породен от дезинформацията, като по-съществен от тежките метеорологични явления, социалната поляризация и киберсигурността.

Успоредно с това AI създава нови рискове за компютърните системи. Така позволява на политически опоненти и хакерски групи да автоматизират кибератаките. В по-дългосрочен план зависимостта от AI за вземане на решения ще създаде и допълнителни опасности, прогнозира СИФ в своя доклад за глобалните рискове за 2024.

Уязвимостта на правителствата, бизнеса и обществото към фалшивите твърдения, генерирани от AI, ще бъде един от основните рискове, които ще се обсъждат, когато бизнес-лидери, политици, академици и неправителствени организации се срещнат на Световния икономически форум в Давос от 15 до 19 януари 2024 г. Предварителният доклад за глобалните рискове за 2024 г. на СИФ се основава на гледните точки на 1200 експерти по риска, политици и лидери в индустрията по целия свят. Аналитичният материал рисува мрачна картина, прогнозирайки трудна перспектива за следващите две години, която се очаква да се влоши през по-дългосрочен план.

Около 30% от експертите, участвали в доклада, очакват светът да се изправи пред катастрофални рискове през следващите две години. 60% от специалистите прогнозират катастрофални рискове в малко по-дългосрочен план – през следващото десетилетие.

Саадиа Захиди, управляващ директор на WEF, описва ситуацията като „нестабилен глобален ред, характеризиращ се с поляризиращи наративи и несигурност, влошаващите се въздействия на екстремните метеорологични условия и икономическата несигурност“, което „причинява ускоряване на рисковете – включително дезинформация“.

Изборни вълнения

Относно предстоящите избори в няколко държави СИФ предупреждава, че компаниите за социални медии може да бъдат затрупани от множество припокриващи се кампании за дезинформация. Това ще направи трудни за контрол опитите за манипулиране на избори.

Видеопклипове с майсторски фалшификати, измамни подкасти или уебсайтове, всички генерирани от изкуствен интелект, ще се опитват да повлияят на избирателите. Целта им ще е да доведат до протести или, в по-екстремните сценарии, да доведат до насилие или радикализация, според анализа на WEF.

Фалшивите новини ще бъдат все по-ловко оформени: персонализирани и насочени към конкретни групи. Те все по-рядно ще се разпространяват чрез масови платформи и все повече ще текат през по-затворени канали като услугата за съобщения WhatsApp или китайския WeChat, прогнозира СИФ.

Дезинформационните кампании биха могли да дестабилизират новоизбраните правителства. Това крие потенциал от политически вълнения, насилие и тероризъм. „Потенциалното въздействие върху изборите в световен мащаб през следващите две години е значително и това може да доведе до поставяне под въпрос легитимността на избраните правителства“, каза Каролина Клинт, главен търговски директор за Европа в Marsh McLennan. „Това от своя страна може да повлияе на демократичния процес, водещ до по-нататъшна социална поляризация, бунтове, стачки или дори увеличаване на насилието.“

Рискове за киберсигурността от AI

СИФ предупреждава, че AI ще изложи бизнеса и организациите на нови рискове за киберсигурността. Алгоритмите предоставят на киберпрестъпниците нови пътища за хакване на компании. AI може да се използва за създаване на усъвършенстван злонамерен софтуер, който може да се представя за жив човек, за да спечелва доверието на невинните потребители и да ги хваща в капан, за да разкрият паролите си по време на фишинг-атаки.

Когато севернокорейски хакери атакуваха централната банка на Бангладеш през 2016 г., им отне две години да начертаят компютърните мрежи на банката и да разберат как да атакуват системата. „Ако атаката беше опосредствана от AI, щеше да отнеме два дена“, каза Клинт.

Бизнесът ще трябва да отговори на това. Той ще трябва да използва изкуствен интелект за автоматизиране на защитите срещу кибератаки, автоматично затваряне на уязвими системи и закърпване на пропуски в сигурността. „Трябва да признаем, че всичко, което използваме – като вода и електричество, финансовата система, комуникациите – всичко зависи от интегрирането на невероятно сложна мрежа от системи“, казва Клинт. „Киберсигурността не е свързана със защитата на компютър или защитата на файл. По-скоро задачата й е да се гарантира, че веригите за доставки работят и че обществото като цяло работи“, добави тя.

Използвайки пак примера с централната банка на Бангладеш, Клинт посочи, че на следователите са били необходими месеци, за да разберат какво се е случило и да спрат атаката, но ако AI е бил наличен, той е можел да открие проникването в рамките на два дни.

AI и регулиране на социалните медии

Въпреки нарастващата изолация на много страни, СИФ каза, че бизнесът и правителствата ще трябва да си сътрудничат, за да намерят решения за кампаниите за дезинформация, генерирани от AI, и нарастващите кибер-рискове.

Един от отговорите е да се регулират технологичните компании. Може би ще се наложи те да изискват статиите и изображенията, генерирани от AI, да включват воден знак, идентифициращ ги като изкуствено генерирани. По-силно регулиране може да е необходимо и за компаниите за социални медии. Поради своята същност техните платформи засилват разпространението на дезинформация, като дават на хората повече статии по теми, които „харесват“.

Джон Скот, ръководител на риска за устойчивост в Zurich Insurance Group и един от участниците в доклада, казва, че липсата на редакционен подбор в социалните медии може да ни доведе до формирането на свят, в който никой не знае на кого да се довери и какво съдържание е надеждно. „По някакъв начин трябва да създадем достоверност, някакъв арбитър на истината, който да можем да разберем индивидуално и колективно“, каза той.

Предложените мерки включват кампании за дигитална грамотност относно дезинформацията и международни споразумения за ограничаване на използването на изкуствен разум при вземането на решения при конфликти.

Рисковете са взаимосвързани

Според доклада за риска през 2024 г. ще доминират опасенията относно рисковете от дезинформация, управлявана от ИИ, заедно с кризата с разходите за живот и социалната поляризация. Рисковете са взаимосвързани и могат да бъдат изострени от геополитическите напрежения. А това може да означават, че текущите политически конфликти водят до допълнителни конфликти в други части на света.

Следващите няколко години ще се характеризират с икономическа несигурност и социални разделения, прогнозира СИФ. Клинт от Марш Макленън посочва, че откритията в областта на изкуствения интелект ще доведат до радикални смущения в организациите и много от тях ще изпитат тежки трудности да реагират на заплахите на дезинформацията, наред с другите рискове.

Коментар