
Широката общественост е по-загрижена за изкуствения интелект, отколкото експертите по AI – особено що се касае до работата и човешките връзки. Но и двете групи изразяват силна загриженост относно дезинформацията.
Тревожността за AI не е единичен страх. Това е съвкупност от взаимосвързани опасения, които варират в зависимост от етапа от живота, техническата грамотност, работата и ценностите на човек. Много от тези притеснения обаче често се обединят в няколко общи теми.
Страх от икономически и идентичностни смущения
Разбираемо е, че едно от най-големите притеснения е промяната в работата.
Изкуственият интелект е все по-способен да изпълнява задачи, които някога са били запазена територия за хората – писане на текст, анализ на данни, писане на код, обобщаване на срещи, интерпретиране на изображения, обработка на взаимодействия с клиенти, съставяне на рецепти.
Дали изкуственият интелект ще „ни отнеме работата“ е по-сложен въпрос.
Международният валутен фонд изчислява, че почти 40% от работните места в световен мащаб ще бъдат “засегнати” от изкуствен интелект, като развитите икономики са изправени пред по-голям ‘риск“, тъй като повече работа включва когнитивни задачи.
Докладът за бъдещето на работните места на Световния икономически форум за 2025 г. прогнозира значителни промени на пазара на труда до 2030 г. Това включва 170 милиона новосъздадени работни места и 92 милиона “изместени” работни места. Картината ще доведе до нетен растеж, но и до голям натиск от прехода.
Въпреки че тези прогнози предполагат общ растеж на работните места, други предполагат загуби на работни места, породени от изкуствения интелект, особено за младите, неопитните хора. Независимо от това житейският опит за мнозина често е свързан с смущения – локални, лични и непосредствени.
За много от нас работата осигурява повече от доход. Тя се свързва със самоопределянето, целите и социалните връзки. Тревожността възниква не само от страх от безработица, но и от несигурност относно собствената стойност в един свят, все повече оформен от изкуствения интелект.
Загуба на контрол
Втори основен проблем е това, което може да се нарече ефектът на „Големия брат“ – нарастващата роля на системите с изкуствен интелект при информирането и понякога вземането на решения, които засягат живота на хората.
Те включват наемане на работа, кредитиране, застраховки, спазване на социалните изисквания и дори приоритизиране на здравеопазването.
Притеснението не е просто, че системите с изкуствен интелект може да сгрешат. Става въпрос за това, че решенията може да са непрозрачни, трудни за оспорване и лошо обяснени – на практика да се случват в “черна кутия”.
Въпреки че Принципите за изкуствен интелект на Организацията за икономическо сътрудничество и развитие (ОИСР) изрично подчертават човешката дейност и надзор, прозрачността и отчетността като основни изисквания за използването на надеждни AI системи, глобалните тенденции показват, че предпазните мерки често са слаби. Така става, когато компаниите и държавите се надпреварват за господство на силно конкурентния пазар на изкуствен интелект.
Дезинформация и манипулация
Изкуственият интелект драстично намали разходите за производство на силно реалистично – но изцяло невярно – съдържание. Макар че понякога това може да е забавно, става сериозно, когато убедителни изображения, аудио и видео се използват, за да повлияят на решенията на хората.
Технологията за майсторски фалшификати вече се използва за измами, представяне за друг човек и дезинформация.
Неотдавнашни репортажи на The Guardian описват измамите с майсторски фалшификати като случващи се в „индустриален мащаб“, с висококачествено фалшиво съдържание, достъпно за не-експерти. Нароиха се реклами на медицински продукти и изделия, рекламирани уж от авторитетни лекари, без обаче самите тези авторитетни лекари да подозират, че някой използва имената им и лицата им.
Когато хората вече не могат надеждно да разграничават автентична информация от синтетично съдържание, доверието в институциите, експертизата и онлайн информацията намалява – и следва тревожността.
Поверителност и наблюдение
Поверителността постепенно ерозира от години и това се усилва от способността на изкуствения интелект да анализира големи обеми лични данни – включително поведенчески, биометрични и данни за местоположение – често без да разбираме напълно как се използват тези данни.
Pew Research показва постоянна обществена загриженост относно злоупотребата с данни, представянето за друг човек и загубата на поверителност, свързани със системите с изкуствен интелект.
Тази тревожност не се ограничава само до правителственото наблюдение; тя отразява и безпокойство относно практиките за корпоративни данни, профилирането, целенасоченото убеждаване и информационните асиметрии между хора и институции.
Агентите с изкуствен интелект „превземат контрола“
За повечето хора страховете от AI апокалипсис не са ежедневни проблеми, но те се „надигат“ около нашумели истории за непредсказуемо поведение или автономна работа на изкуствения интелект.
Един скорошен пример е Moltbook – платформа, предлагана на пазара като социална мрежа за агенти с изкуствен интелект, която привлече редица коментари за някои странни и обезпокоителни взаимодействия между системите с изкуствен интелект.
Ройтерс съобщи, че платформата има голяма уязвимост в сигурността, която разкрива лични съобщения, хиляди имейл адреси и над милион идентификационни данни, подчертавайки основните провали в управлението и сигурността.
Тези епизоди често пораждат дистопични интерпретации, напомнящи научнофантастични разкази. Но по-непосредствените рискове са по-скоро практически, отколкото драматични: лоша сигурност, слаб надзор, неясна отговорност и преждевременно внедряване.
Концентрация на власт
Друг източник на безпокойство е концентрацията на възможности на изкуствения интелект сред малък брой фирми и държави. Много хора се притесняват за бъдеще, в което шепа технологични гиганти притежават непропорционална власт и богатство.
ОИСР отбелязва, че пазарите на генеративен изкуствен интелект могат да проявят динамика „победителят взема всичко или повечето“, засилвайки пазарната сила и потенциално увеличавайки неравенството. Когато мощните технологии се възприемат като неизбежни и основополагащи, хората основателно се питат кой печели, кой носи риска и как се поддържа отчетността.
Интегритетът на образованието е под натиск
Тревогата от изкуствения интелект е особено очевидна в образованието.
Притеснението не е само за академичното неправомерно поведение, но и дали оценяването продължава да измерва разбирането, разсъжденията и ученето, когато висококачествени резултати могат да се генерират мигновено.
Неотдавнашна статия в The Australian съобщава за масовото използване на изкуствен интелект от студентите във висшето образование, включително експеримент, в който около 80% от 40 студентски задачи са имали висока вероятност да бъдат генерирани от изкуствен интелект.
Това е глобален проблем. Организацията на ООН за образование, наука и култура (ЮНЕСКО) предупреди, че генеративният изкуствен интелект се развива по-бързо от институционалната готовност, което поражда опасения относно неприкосновеността на личния живот, равенството и дългосрочното бъдеще на образованието.
В основата си тази тревожност отразява загриженост за целта на самото образование – не само за акредитацията, но и за развитието на преценка, критично мислене и интелектуална независимост.
