TechNews.bg
E-обществоНовиниТоп новини

Бъдещето на дезинформацията: AI рояци ще облъчват обществото

Координирани групи от AI „личности“ могат да създават фалшиво усещане за консенсус

Армии от AI “личности” ще влияят на “общественото мнение” с определени “разбирания” (графика: AI)

Международен изследователски екип предупреди, че следващото поколение бизнес с влияние надали ще разчита на очевидни „copy+paste ботове“, а ще използва координирани общности от AI образи: цели „екипи“ от AI персони, които могат да се адаптират в реално време, да се инфилтрират в групи и да създават усещане за широк обществен консенсус в голям мащаб.

Хор от привидно независими гласове създава илюзията за консенсус, докато разпространява дезинформация. Този сценарий звучи като изваден от филм, но всъщност ни предстои да го видим в реалността.

В публикация на Science изследователски екип начело с Констанц Дейвид Гарсия описва как сливането на големи езикови модели (LLM) с многоагентни системи може да позволи на „злонамерени рояци от AI персони“ да имитират автентична социална динамика.

AI рояците могат да създават фалшиво усещане за „всеобщо мнение“, „обществен консенсус“ и всякаква друга форма на налагане на дадено виждане.

Синтетичен консенсус“

Статията твърди, че големият риск на хоризонта е не само фалшивото съдържание, но и „синтетичният консенсус“: илюзията, че „всички казват така“. Това може да повлияе на вярванията и нормите, дори когато индивидуалните твърдения биват оспорени.

Постоянното „всеобщо разбиране“ може да доведе до по-дълбоки културни промени отвъд промените в нормите, като фино променя езика, символите и идентичността на общността.

„Опасността вече не е само във фалшивите новини, а в това, че самата основа на демократичния дискурс – независимите гласове – се срива, когато един-единствен участник може да контролира хиляди уникални профили, генерирани от изкуствен интелект“, казва Йонас Р. Кунст от Норвежкото бизнес училище BI.

Освен това, заливайки Мрежата с изфабрикувано „бърборене“, злонамерените рояци от AI персони могат да замърсят данните за обучение на алгоритмите за изкуствен интелект. А това означава разширяване на влиянието на измамниците чак вътре в установените платформи с изкуствен интелект.

Подобна заплаха не е теоретична, предупреждават авторите: анализът показва, че такива тактики вече се използват.

Какво е AI рояк?

Авторите определят злонамерения AI рояк като набор от агенти, контролирани от изкуствен интелект, които могат да поддържат постоянни идентичности и памет; да се координират спрямо споделени цели, като същевременно променят своите тон и съдържание; да се адаптират в реално време към ангажираността и човешките реакции; да работят с минимален надзор; и да се разгръщат на различни платформи.

В сравнение с по-ранните ботнет мрежи, съвременните AI рояци са по-трудни за откриване, защото могат да генерират хетерогенно, контекстно-зависимо съдържание, като същевременно действат съобразно добре координирани модели.

Как да се противодейства на AI рояците?

„Освен изкривяванията или безопасността на отделните чатботове или модели, трябва да изучаваме и новите рискове, които възникват от взаимодействието между много AI агенти.

За тази цел е от съществено значение да се прилагат поведенчески науки към AI агентите и да се изучава тяхното колективно поведение, когато взаимодействат в големи групи“, казва Гарсия, професор по социални и поведенчески науки за данни в университета в Констанц.

Тук няма да свърши работа модерацията на публикациите една по една. Вместо това, според авторите, ще са нужни защити, които проследяват координираното поведение и произхода на съдържанието.

„Откриване на статистически невероятна координация, предлагане на опции за проверка, запазващи поверителността, и споделяне на доказателства чрез разпределена обсерватория за AI влияние, като същевременно се намаляват стимулите чрез ограничаване на монетизацията на неавтентичното ангажиране и увеличаване на отчетността“ – това е формулата за борба с AI рояците.

още от категорията

Топ-шефовете: „AI пести време“. Служителите: „глупости!“

TechNews.bg

Все повече мъртъвци „възкръсват” с изкуствен интелект

TechNews.bg

Нечовешки идентичности и AI агенти увеличават кибер-риска за организациите

TechNews.bg

Bosch и Microsoft внедряват агентен AI в производството

TechNews.bg

Младите най-много се тревожат за влиянието на AI върху заетостта

TechNews.bg

AI не убива работни места, но ги прави по-недостъпни за новаците

TechNews.bg

Коментари