TechNews.bg
E-обществоВодещи новиниНовиниТоп новини

Бъдещето на дезинформацията: AI рояци ще облъчват обществото

Координирани групи от AI „личности“ могат да създават фалшиво усещане за консенсус

Армии от AI “личности” ще влияят на “общественото мнение” с определени “разбирания” (графика: AI)

Международен изследователски екип предупреди, че следващото поколение бизнес с влияние надали ще разчита на очевидни „copy+paste ботове“, а ще използва координирани общности от AI образи: цели „екипи“ от AI персони, които могат да се адаптират в реално време, да се инфилтрират в групи и да създават усещане за широк обществен консенсус в голям мащаб.

Хор от привидно независими гласове създава илюзията за консенсус, докато разпространява дезинформация. Този сценарий звучи като изваден от филм, но всъщност ни предстои да го видим в реалността.

В публикация на Science изследователски екип начело с Констанц Дейвид Гарсия описва как сливането на големи езикови модели (LLM) с многоагентни системи може да позволи на „злонамерени рояци от AI персони“ да имитират автентична социална динамика.

AI рояците могат да създават фалшиво усещане за „всеобщо мнение“, „обществен консенсус“ и всякаква друга форма на налагане на дадено виждане.

Синтетичен консенсус“

Статията твърди, че големият риск на хоризонта е не само фалшивото съдържание, но и „синтетичният консенсус“: илюзията, че „всички казват така“. Това може да повлияе на вярванията и нормите, дори когато индивидуалните твърдения биват оспорени.

Постоянното „всеобщо разбиране“ може да доведе до по-дълбоки културни промени отвъд промените в нормите, като фино променя езика, символите и идентичността на общността.

„Опасността вече не е само във фалшивите новини, а в това, че самата основа на демократичния дискурс – независимите гласове – се срива, когато един-единствен участник може да контролира хиляди уникални профили, генерирани от изкуствен интелект“, казва Йонас Р. Кунст от Норвежкото бизнес училище BI.

Освен това, заливайки Мрежата с изфабрикувано „бърборене“, злонамерените рояци от AI персони могат да замърсят данните за обучение на алгоритмите за изкуствен интелект. А това означава разширяване на влиянието на измамниците чак вътре в установените платформи с изкуствен интелект.

Подобна заплаха не е теоретична, предупреждават авторите: анализът показва, че такива тактики вече се използват.

Какво е AI рояк?

Авторите определят злонамерения AI рояк като набор от агенти, контролирани от изкуствен интелект, които могат да поддържат постоянни идентичности и памет; да се координират спрямо споделени цели, като същевременно променят своите тон и съдържание; да се адаптират в реално време към ангажираността и човешките реакции; да работят с минимален надзор; и да се разгръщат на различни платформи.

В сравнение с по-ранните ботнет мрежи, съвременните AI рояци са по-трудни за откриване, защото могат да генерират хетерогенно, контекстно-зависимо съдържание, като същевременно действат съобразно добре координирани модели.

Как да се противодейства на AI рояците?

„Освен изкривяванията или безопасността на отделните чатботове или модели, трябва да изучаваме и новите рискове, които възникват от взаимодействието между много AI агенти.

За тази цел е от съществено значение да се прилагат поведенчески науки към AI агентите и да се изучава тяхното колективно поведение, когато взаимодействат в големи групи“, казва Гарсия, професор по социални и поведенчески науки за данни в университета в Констанц.

Тук няма да свърши работа модерацията на публикациите една по една. Вместо това, според авторите, ще са нужни защити, които проследяват координираното поведение и произхода на съдържанието.

„Откриване на статистически невероятна координация, предлагане на опции за проверка, запазващи поверителността, и споделяне на доказателства чрез разпределена обсерватория за AI влияние, като същевременно се намаляват стимулите чрез ограничаване на монетизацията на неавтентичното ангажиране и увеличаване на отчетността“ – това е формулата за борба с AI рояците.

още от категорията

Българска AI платформа дигитализира магистърска програма в Германия

TechNews.bg

Gartner: сбъркан AI може да „дъпне шалтера“ на държава от Г20

TechNews.bg

4 ключови приложения на AI в строителството

TechNews.bg

Внимание! Изкуствен интелект + Св. Валентин = измами в индустриален мащаб

TechNews.bg

Предизвикателство: да запазим естествения интелект в ерата на изкуствения

Мария Малцева

Изкуственият интелект става „по-умен”, когато спори със себе си

TechNews.bg

Коментари