OpenAI, разработчикът на изкуствения интелект ChatGPT, предупреди, че „лошите актьори” използват неговата платформа, за да повлияят на демократичните избори по целия свят, които предстоят тази есен.
В доклад от 54 страници, публикуван в сряда, създателят на ChatGPT твърди, че е прекъснал повече от 20 операции и измамни мрежи от цял свят, които са се опитали да използват неговите модели. Заплахите варират от AI-генерирани статии в уебсайтове до публикации в социалните медии от фалшиви акаунти, съобщи CNBC.
OpenAI казва, че настоящата актуализация за „влияние и кибероперации” има за цел да предостави „моментна снимка” на това, което вижда, и да идентифицира „първоначален набор от тенденции”, за които вярва, че „могат да дадат информация за това как AI се вписва в по-широкия пейзаж на заплахите”.
Докладът на OpenAI се появява по-малко от месец преди президентските избори в САЩ. Това е важна година за избори в световен мащаб, които засягат над 4 милиарда души в повече от 40 страни.
Нарастването на съдържанието, генерирано от AI, доведе до сериозни опасения за дезинформация, свързана с изборите. Броят на създадените дълбоки фалшификати се увеличава с 900% всяка година, според данни от Clarity, фирма за машинно обучение.
Дезинформацията в изборите не е ново явление. Това е основен проблем, датиращ от президентската кампания в САЩ през 2016 г., когато„руски актьори намериха евтини и лесни начини за разпространение на фалшиво съдържание в социалните платформи”, отбелязва CNBC. През 2020 г. социалните мрежи бяха залети с дезинформация за ваксините срещу Covid и изборните измами.
Притесненията на законодателите днес са по-фокусирани върху възхода на генеративния AI, който започна в края на 2022 г. с пускане на ChatGPT и сега се възприема от компании от всякакъв размер.
OpenAI пише в доклада си, че свързаните с изборите употреби на AI „варират по сложност от прости заявки за генериране на съдържание до сложни, многоетапни усилия за анализиране и отговаряне на публикации в социалните медии”. Съдържанието на социалните медии е свързано предимно с избори в САЩ и Руанда и в по-малка степен с избори в Индия и ЕС, казват от OpenAI.
В края на август иранска операция използва продуктите на OpenAI, за да генерира „статии с дълга форма” и коментари в социалните медии относно изборите в САЩ, както и други теми. Но OpenAI уточнява, че по-голямата част от идентифицираните публикации са получили малко или никакви харесвания, споделяния и коментари.
През юли компанията забрани акаунти в ChatGPT в Руанда, които публикуваха коментари в социалната мрежа X, свързани с избори. А през май израелска компания използва ChatGPT, за да генерира коментари в социалните медии за избори в Индия. OpenAI твърди, че е успяла да се справи със случая в рамките на по-малко от 24 часа.
През юни OpenAI се занимаваше с тайна операция, която използва нейните продукти за генериране на коментари за изборите за Европейски парламент във Франция и политиката в САЩ, Германия, Италия и Полша. Компанията заяви, че докато повечето публикации в социалните медии, които е идентифицирала, са получили малко харесвания или споделяния, някои реални хора са отговорили на публикациите, генерирани от AI.
Нито една от операциите, свързани с изборите, не успя да привлече „вирусна ангажираност” или да изгради „устойчива публика” чрез използване на ChatGPT и другите инструменти на OpenAI, заключава компанията.