TechNews.bg
E-обществоВодещи новиниНовини

Учени опровергаха заплахата от AI за човечеството

Широко разпространеното убеждение, че AI е заплаха за човечеството, пречи за бързото му възприемане, смятат учени (снимка: CC0 Public Domain)

Големите езикови модели не представляват екзистенциална заплаха за човечеството, успокои научно изследване. LLM като популярния ChatGPT не са в състояние да се учат сами или да придобиват нови умения, което означава, че не представляват опасност за хората, според учените от Университета в Бат и Техническия университет в Дармщат, Германия.


Изследването, публикувано като част от сборника на 62-та годишна среща на Асоциацията за компютърна лингвистика (ACL 2024), показва, че езиковите модели имат повърхностни умения да следват инструкции и да владеят език, но им липсва потенциал за усвояване на нови умения без изрично указание. Това означава, че те остават по своята същност контролируеми, предвидими и безопасни.

Екипът, ръководен от професор Ирина Гуревич от Техническия университет в Дармщат е провел експерименти, за да тества способността на AI моделите да изпълняват задачи, с които никога не са се сблъсквали преди. Резултатите показват, че съчетанието от способността на LLM да следват инструкции и езиковите им умения може да обясни както възможностите, така и ограниченията, проявени от AI моделите.

„Широко разпространеното убеждение, че този тип изкуствен интелект представлява заплаха за човечеството, предотвратява масовото възприемане и развитие на AI технологиите и също така отклонява вниманието от истинските проблеми”, казва д-р Хариш Тайяр Мадабуши, компютърен учен в университета от Бат и съавтор на новото изследване.

Според него, опасенията относно екзистенциалната заплаха, породена от LLM, се повдигат не само от неспециалисти, но и от някои водещи изследователи на изкуствения интелект по света. Тестовете обаче ясно показват липсата на комплексни мисловни способности на LLM.


„Въпреки че е важно да се обърне внимание на съществуващия потенциал за злоупотреба с AI, като създаването на фалшиви новини и повишен риск от измами, би било преждевременно да се въведат регулации, основани на възприемани екзистенциални заплахи”, смята д-р Мадабуши.

Но резултатите от изследването не означават, че изкуственият интелект изобщо не представлява заплаха, добавя проф. Гуревич. „По-скоро показваме, че хипотетичната поява на специфични за заплахите сложни мисловни умения не е подкрепена от доказателства и че можем да контролираме добре обучението в LLM”, казва тя.

още от категорията

7 тенденции в изкуствения интелект през 2026 г.

TechNews.bg

AI резюметата съсипват труда на кулинарните блогъри

TechNews.bg

AI не се отплаща, но компаниите увеличат разходите си за него

TechNews.bg

Тръмп наема 1000 специалисти за „Технологичната сила“

TechNews.bg

Южна Корея въвежда  всеобхватни регулации за изкуствения интелект

TechNews.bg

ChatGPT с „режим за възрастни“ през първата четвърт на 2026 г.

TechNews.bg

1 коментар

Българин 16/08/2024 at 09:23

Големите езикови модели са просто алгоритми, които на база N на брой предходни думи, генерират следващата най-добра дума. Единствения “риск” от тези алгоритми е, че оптимизират доста работното време и съответно ще доведат до намаляване на нуждата от работна ръка.

Отговор

Коментари