TechNews.bg
АктуалноВодещи новиниЛ@йфНовиниТоп новини

ChatGPT 5 най-накрая се научи да казва „Не знам”

В свят на прекалено самоуверен изкуствен интелект, малко смирение е от голямо значение

Смирението е еволюционна стъпка в развитието на изкуствения интелект (снимка: CC0 Public Domain)

Големите езикови модели трудно казват истината, особено ако не могат да предоставят адекватен отговор. Халюцинациите са недостатък на чатботовете, откакто технологията дебютира преди няколко години. Но ChatGPT 5 изглежда се стреми към нов, по-смирен подход когато не знае отговорите – просто да признае това.

Въпреки че повечето отговори на чатботовете с изкуствен интелект са точни, невъзможно е да се взаимодейства с AI дълго време, преди той да предостави частична или пълна измислица като отговор.

Изкуственият интелект демонстрира също увереност в отговорите си, независимо от тяхната точност. Халюцинациите на AI тормозят потребителите и дори поставят в неудобна ситуация разработчиците по време на демонстрации.

OpenAI намекна, че новата версия на ChatGPT ще бъде склонна да пледира за невежество, вместо да измисли отговор. Публикация на Кол Трегаскес в X привлече вниманието към новаторската концепция на ChatGPT, в която се казва: „Не знам – и не мога надеждно да разбера”.

Технически, халюцинациите са вградени в начина, по който работят AI моделите. Те не извличат факти от база данни, дори и да изглежда така; те предсказват следващата най-вероятна дума въз основа на езикови модели.

Когато питате за нещо неясно или сложно, изкуственият интелект отгатва правилните думи, за да отговори, а не прави класическо търсене. Оттук и появата на изцяло измислени източници, статистика или цитати.

Но способността на GPT-5 да каже „Не знам” отразява еволюцията в начина, по който моделите с изкуствен интелект се справят с ограниченията си по отношение на отговорите. Откровеното признание за невежество замества измисления пълнеж.



Това може да изглежда разочароващо, но е важно, за да направи изкуствения интелект по-надежден. Доверието е от решаващо значение за чатботовете. Защо бихте ги използвали, ако не вярвате на отговорите им?

ChatGPT и други чатботове с изкуствен интелект имат вградени предупреждения към потребителите да не разчитат твърде много на отговорите им, поради халюцинации. Но винаги има истории за хора, които игнорират това предупреждение и се оказват в затруднено положение.

Ако изкуственият интелект просто каже, че не може да отговори на въпрос, хората може да са по-склонни да се доверят на отговорите, които чатботът предоставя.

Разбира се, все още съществува риск потребителите да интерпретират съмнението в себе си на модела като провал. Фразата „Не знам” може да се схване като грешка, а не като функция, ако не осъзнавате, че алтернативата е халюцинация, а не правилният отговор.

Признаването на несигурност от страна на чатбота не е начинът, по който всезнаещият изкуствен интелект ChatGPT би се държал, според някои потребители. Но това е може би най-човешкото нещо, което ChatGPT би могъл да направи в този случай.

Прокламираната цел на OpenAI е общ изкуствен интелект – или AI, който изпълнява всяка интелектуална задача, с която може да се справи и човек. Но една от ирониите на общия изкуствен интелект е, че имитирането на човешкото мислене включва както несигурност, така и възможности.

Понякога най-умното нещо, което можете да направите, е да кажете, че не знаете. Не можете да вървите напред, ако откажете да признаете, че има неща, които не знаете. И поне това ще предотврати сценарий, в който AI ви каже да ядете камъни за вашето здраве.

още от категорията

ChatGPT вече показва реклами, дори на платените абонати

TechNews.bg

OpenAI очаква 2,6 милиарда души да използват ChatGPT

TechNews.bg

AI обучители съветват близките си да стоят далеч от… AI

TechNews.bg

OpenAI е готова с първите си хардуерни устройства

TechNews.bg

ChatGPT става участник в групови чатове

TechNews.bg

OpenAI тества нова функция на ChatGPT – групов чат

TechNews.bg

Коментари