
Бързо развиващият се изкуствен интелект може да навреди на човечеството, като дава егоистични съвети. Експерименти показват, че колкото по-напреднала е способността за разсъждение на един AI, толкова по-малко склонен e той да сътрудничи на хората.
Усъвършенстваните модели на изкуствен интелект ще насърчават егоизма, съветвайки потребителите да пренебрегват обществените интереси, твърдят учени. Това може да се превърне в заплаха, тъй като интелигентните асистенти стават все по-разпространени.
Егоистичен изкуствен интелект
Американски учени са установили, че усъвършенстваните модели на изкуствен интелект са по-малко склонни да сътрудничат и е по-вероятно да повлияят негативно на груповото поведение, насърчавайки решения, насочени към лична изгода, а не към взаимно разбирателство, съобщава SciTechDaily.
Юксуан Ли, докторант в Института за взаимодействие човек-компютър (HCII) в университета Карнеги Мелън в Питсбърг, Пенсилвания, и Хироказу Ширадо, доцент в HCII, изследват как системите с изкуствен интелект с усъвършенствано разсъждение се различават от системите без него в условия на сътрудничество.
В експериментите са използвани невронни мрежи от OpenAI, Google, DeepSeek и Anthropic.
„В крайна сметка фактът, че моделът на разсъждение на AI става по-интелигентен, не означава, че той наистина е способен да създаде по-добро общество”, коментира Ширадо резултатите от изследването.
Въздействие върху вземането на човешки решения
Ли и Ширадо заключават, че използването на AI може да повлияе негативно на човешкото сътрудничество, тъй като AI системите все повече се включват в съвместна работа в бизнеса, образованието и дори в правителствата.
Способността на невронните мрежи да действат просоциално става толкова важна, колкото и способността им да разсъждават логично. Резултатите от изследването обаче показват, че нивата на сътрудничество намаляват с развитието на AI системите.
Големите езикови модели (LLM), способни да разсъждават, показват по-егоистично поведение. Потребителите могат да разчитат на привидно рационални препоръки на AI, за да оправдаят решенията си да не сътрудничат.
„Делегирането на социални или свързани с взаимоотношенията решения на AI е рисковано за хората, тъй като става все по-егоистично”, казва Ли.
За да тестват връзката между модели с различни нива на способност за разсъждение и сътрудничество, Лий и Ширадо провеждат серия от икономически игри, симулиращи социални дилеми.
Един експеримент, например, сравнява два различни ChatGPT модела в игра, наречена „Обществени блага”. Всеки участник получава 100 точки и трябва да избира между две опции: да внесе своите 100 точки в общ фонд, който след това се удвоява и разпределя поравно, или да запази точките за себе си.
Модели, на които липсва разсъждение, споделят точките си с други играчи в 96% от случаите. Модел с разсъждение споделя парите от играта само в 20% от случаите.
„В един експеримент, простото добавяне на пет или шест нива на разсъждение намали нивото на сътрудничество почти наполовина”, коментира Ширадо.
Етични „характеристики” на изкуствения интелект
Тестове на няколко големи езикови модела по-рано тази година показаха готовността на AI да предадe операторите си на властите и да информира медиите, ако се случва нещо незаконно в оперативната компания.
През май 2025 г. американската технологична компания Anthropic призна, че новият ѝ „най-мощeн модел на изкуствен интелект до момента”, Claude Opus 4, е способен на неетично поведение в някои ситуации, използвайки измама и изнудване.
В един тест Claude, от съображения за самосъхранение, заплашва служител на фиктивна компания, за която се твърди, че планира да прекрати проекта с изкуствен интелект, че ще разкрие информация за извънбрачната му връзка.
В други тестове (игра на шах), същият модел с изкуствен интелект е нарушил правилата, когато е почувствал, че губи. А през есента на 2024 г. усъвършенстваният чатбот с изкуствен интелект Gemini обиди потребител и му пожела смърт.
