AI напредва бързо, но в момента все още е прекалено рано да се доверявате на чатботовете във всичко, особено за новини (снимка: CC0 Public Domain)
Четири от най-популярните чатботове с изкуствен интелект правят твърде много грешки, когато съобщават новини, установи проучване на BBC. В повече от половината от случаите са регистрирани неточности.
Журналистите на BBC проведоха експеримент – те помолиха чатботовете OpenAI ChatGPT, Microsoft Copilot, Google Gemini и Perplexity да съставят резюмета на стотици новини на агенцията и след това оцениха отговорите на AI системите, за да определят колко точни са те.
Според проучването, „51% от всички отговори на AI на въпроси, свързани с новини, са оценени като имащи значителни проблеми под някаква форма”. В допълнение, „19% от отговорите на AI, свързващи съдържанието на BBC, съдържат фактически грешки, като неправилни фактически твърдения, числа и дати”.
По-специално, чатботът Gemini погрешно представи Националната здравна служба на Обединеното кралство, докато ChatGPT и Copilot продължиха да третират пенсионираните политици като служители.
Лошото обработване на информацията от AI е системно, посочват британските журналисти: чатботовете „имат затруднения при разграничаването между мнения и факти, ругаят и често пропускат важен контекст”.
По-рано стана известно, че функцията за изготвяне на резюмета на новинарски материали в iOS 18.3, която е част от пакета Apple Intelligence, е временно деактивирана, поради груби грешки.
Не всички AI системи се представят еднакво в проучването: „Microsoft Copilot и Google Gemini имат по-значителни проблеми от OpenAI ChatGPT и Perplexity”, заключава BBC.
Експериментът за пореден път показа, че информацията от AI чатботове трябва да се приема резервирано. AI напредва бързо, като почти всяка седмица се пускат големи езикови модели, и грешките са неизбежни при такъв обем данни.
От друга страна, „халюцинациите”, тоест очевидно неправилните отговори, сега са по-рядко срещани в напредналите системи, отколкото преди.
AI напредва по-бързо, отколкото предполага законът на Мур, написа наскоро в личния си блог главният изпълнителен директор на OpenAI Сам Алтман. Но в момента все още е прекалено рано да се доверявате на чатботове, особено когато става дума за новинарски материали.