
Големите езикови модели трудно казват истината, особено ако не могат да предоставят адекватен отговор. Халюцинациите са недостатък на чатботовете, откакто технологията дебютира преди няколко години. Но ChatGPT 5 изглежда се стреми към нов, по-смирен подход когато не знае отговорите – просто да признае това.
Въпреки че повечето отговори на чатботовете с изкуствен интелект са точни, невъзможно е да се взаимодейства с AI дълго време, преди той да предостави частична или пълна измислица като отговор.
Изкуственият интелект демонстрира също увереност в отговорите си, независимо от тяхната точност. Халюцинациите на AI тормозят потребителите и дори поставят в неудобна ситуация разработчиците по време на демонстрации.
OpenAI намекна, че новата версия на ChatGPT ще бъде склонна да пледира за невежество, вместо да измисли отговор. Публикация на Кол Трегаскес в X привлече вниманието към новаторската концепция на ChatGPT, в която се казва: „Не знам – и не мога надеждно да разбера”.
Технически, халюцинациите са вградени в начина, по който работят AI моделите. Те не извличат факти от база данни, дори и да изглежда така; те предсказват следващата най-вероятна дума въз основа на езикови модели.
Когато питате за нещо неясно или сложно, изкуственият интелект отгатва правилните думи, за да отговори, а не прави класическо търсене. Оттук и появата на изцяло измислени източници, статистика или цитати.
Но способността на GPT-5 да каже „Не знам” отразява еволюцията в начина, по който моделите с изкуствен интелект се справят с ограниченията си по отношение на отговорите. Откровеното признание за невежество замества измисления пълнеж.
Това може да изглежда разочароващо, но е важно, за да направи изкуствения интелект по-надежден. Доверието е от решаващо значение за чатботовете. Защо бихте ги използвали, ако не вярвате на отговорите им?
ChatGPT и други чатботове с изкуствен интелект имат вградени предупреждения към потребителите да не разчитат твърде много на отговорите им, поради халюцинации. Но винаги има истории за хора, които игнорират това предупреждение и се оказват в затруднено положение.
Ако изкуственият интелект просто каже, че не може да отговори на въпрос, хората може да са по-склонни да се доверят на отговорите, които чатботът предоставя.
Разбира се, все още съществува риск потребителите да интерпретират съмнението в себе си на модела като провал. Фразата „Не знам” може да се схване като грешка, а не като функция, ако не осъзнавате, че алтернативата е халюцинация, а не правилният отговор.
Признаването на несигурност от страна на чатбота не е начинът, по който всезнаещият изкуствен интелект ChatGPT би се държал, според някои потребители. Но това е може би най-човешкото нещо, което ChatGPT би могъл да направи в този случай.
Прокламираната цел на OpenAI е общ изкуствен интелект – или AI, който изпълнява всяка интелектуална задача, с която може да се справи и човек. Но една от ирониите на общия изкуствен интелект е, че имитирането на човешкото мислене включва както несигурност, така и възможности.
Понякога най-умното нещо, което можете да направите, е да кажете, че не знаете. Не можете да вървите напред, ако откажете да признаете, че има неща, които не знаете. И поне това ще предотврати сценарий, в който AI ви каже да ядете камъни за вашето здраве.
