
Международен изследователски екип предупреди, че следващото поколение бизнес с влияние надали ще разчита на очевидни „copy+paste ботове“, а ще използва координирани общности от AI образи: цели „екипи“ от AI персони, които могат да се адаптират в реално време, да се инфилтрират в групи и да създават усещане за широк обществен консенсус в голям мащаб.
Хор от привидно независими гласове създава илюзията за консенсус, докато разпространява дезинформация. Този сценарий звучи като изваден от филм, но всъщност ни предстои да го видим в реалността.
В публикация на Science изследователски екип начело с Констанц Дейвид Гарсия описва как сливането на големи езикови модели (LLM) с многоагентни системи може да позволи на „злонамерени рояци от AI персони“ да имитират автентична социална динамика.
AI рояците могат да създават фалшиво усещане за „всеобщо мнение“, „обществен консенсус“ и всякаква друга форма на налагане на дадено виждане.
„Синтетичен консенсус“
Статията твърди, че големият риск на хоризонта е не само фалшивото съдържание, но и „синтетичният консенсус“: илюзията, че „всички казват така“. Това може да повлияе на вярванията и нормите, дори когато индивидуалните твърдения биват оспорени.
Постоянното „всеобщо разбиране“ може да доведе до по-дълбоки културни промени отвъд промените в нормите, като фино променя езика, символите и идентичността на общността.
„Опасността вече не е само във фалшивите новини, а в това, че самата основа на демократичния дискурс – независимите гласове – се срива, когато един-единствен участник може да контролира хиляди уникални профили, генерирани от изкуствен интелект“, казва Йонас Р. Кунст от Норвежкото бизнес училище BI.
Освен това, заливайки Мрежата с изфабрикувано „бърборене“, злонамерените рояци от AI персони могат да замърсят данните за обучение на алгоритмите за изкуствен интелект. А това означава разширяване на влиянието на измамниците чак вътре в установените платформи с изкуствен интелект.
Подобна заплаха не е теоретична, предупреждават авторите: анализът показва, че такива тактики вече се използват.
Какво е AI рояк?
Авторите определят злонамерения AI рояк като набор от агенти, контролирани от изкуствен интелект, които могат да поддържат постоянни идентичности и памет; да се координират спрямо споделени цели, като същевременно променят своите тон и съдържание; да се адаптират в реално време към ангажираността и човешките реакции; да работят с минимален надзор; и да се разгръщат на различни платформи.
В сравнение с по-ранните ботнет мрежи, съвременните AI рояци са по-трудни за откриване, защото могат да генерират хетерогенно, контекстно-зависимо съдържание, като същевременно действат съобразно добре координирани модели.
Как да се противодейства на AI рояците?
„Освен изкривяванията или безопасността на отделните чатботове или модели, трябва да изучаваме и новите рискове, които възникват от взаимодействието между много AI агенти.
За тази цел е от съществено значение да се прилагат поведенчески науки към AI агентите и да се изучава тяхното колективно поведение, когато взаимодействат в големи групи“, казва Гарсия, професор по социални и поведенчески науки за данни в университета в Констанц.
Тук няма да свърши работа модерацията на публикациите една по една. Вместо това, според авторите, ще са нужни защити, които проследяват координираното поведение и произхода на съдържанието.
„Откриване на статистически невероятна координация, предлагане на опции за проверка, запазващи поверителността, и споделяне на доказателства чрез разпределена обсерватория за AI влияние, като същевременно се намаляват стимулите чрез ограничаване на монетизацията на неавтентичното ангажиране и увеличаване на отчетността“ – това е формулата за борба с AI рояците.
