OpenAI предупреди за „лоши актьори” покрай изборите

Изкуственият интелект става предпочитан инструмент за дезинформация в навечерието на ключови избори по света (снимка: CC0 Public Domain)

OpenAI, разработчикът на изкуствения интелект ChatGPT, предупреди, че „лошите актьори” използват неговата платформа, за да повлияят на демократичните избори по целия свят, които предстоят тази есен.

В доклад от 54 страници, публикуван в сряда, създателят на ChatGPT твърди, че е прекъснал повече от 20 операции и измамни мрежи от цял ​​свят, които са се опитали да използват неговите модели. Заплахите варират от AI-генерирани статии в уебсайтове до публикации в социалните медии от фалшиви акаунти, съобщи CNBC.

OpenAI казва, че настоящата актуализация за „влияние и кибероперации” има за цел да предостави „моментна снимка” на това, което вижда, и да идентифицира „първоначален набор от тенденции”, за които вярва, че „могат да дадат информация за това как AI се вписва в по-широкия пейзаж на заплахите”.

Докладът на OpenAI се появява по-малко от месец преди президентските избори в САЩ. Това е важна година за избори в световен мащаб, които засягат над 4 милиарда души в повече от 40 страни.

Нарастването на съдържанието, генерирано от AI, доведе до сериозни опасения за дезинформация, свързана с изборите. Броят на създадените дълбоки фалшификати се увеличава с 900% всяка година, според данни от Clarity, фирма за машинно обучение.

Дезинформацията в изборите не е ново явление. Това е основен проблем, датиращ от президентската кампания в САЩ през 2016 г., когато„руски актьори намериха евтини и лесни начини за разпространение на фалшиво съдържание в социалните платформи”, отбелязва CNBC. През 2020 г. социалните мрежи бяха залети с дезинформация за ваксините срещу Covid и изборните измами.

Притесненията на законодателите днес са по-фокусирани върху възхода на генеративния AI, който започна в края на 2022 г. с пускане на ChatGPT и сега се възприема от компании от всякакъв размер.

OpenAI пише в доклада си, че свързаните с изборите употреби на AI „варират по сложност от прости заявки за генериране на съдържание до сложни, многоетапни усилия за анализиране и отговаряне на публикации в социалните медии”. Съдържанието на социалните медии е свързано предимно с избори в САЩ и Руанда и в по-малка степен с избори в Индия и ЕС, казват от OpenAI.

В края на август иранска операция използва продуктите на OpenAI, за да генерира „статии с дълга форма” и коментари в социалните медии относно изборите в САЩ, както и други теми. Но OpenAI уточнява, че по-голямата част от идентифицираните публикации са получили малко или никакви харесвания, споделяния и коментари.

През юли компанията забрани акаунти в ChatGPT в Руанда, които публикуваха коментари в социалната мрежа X, свързани с избори. А през май израелска компания използва ChatGPT, за да генерира коментари в социалните медии за избори в Индия. OpenAI твърди, че е успяла да се справи със случая в рамките на по-малко от 24 часа.

През юни OpenAI се занимаваше с тайна операция, която използва нейните продукти за генериране на коментари за изборите за Европейски парламент във Франция и политиката в САЩ, Германия, Италия и Полша. Компанията заяви, че докато повечето публикации в социалните медии, които е идентифицирала, са получили малко харесвания или споделяния, някои реални хора са отговорили на публикациите, генерирани от AI.

Нито една от операциите, свързани с изборите, не успя да привлече „вирусна ангажираност” или да изгради „устойчива публика” чрез използване на ChatGPT и другите инструменти на OpenAI, заключава компанията.

Коментар