
Да се използват големите езикови модели като здравни консултанти може да бъде особено опасно. Американско медицинско списание предупреди наскоро да не се използва ChatGPT за здравна информация, след като мъж получи отравяне от препоръка на чатбота да прекрати използването на готварска сол в храната си.
Почти всички сме виждали вече такива коментари в социалните мрежи: „ChatGPT може да ти обясни всичко, докато лекарят в кабинета мълчи“, „само за 5 минути разговор с ChatGPT разбрах десетки пъти повече за моята болест, отколкото научих от един час стоене в лекарския кабинет“ и др. Но внимание: това може да бъде опасно.
Статия в Annals of Internal Medicine съобщи за случай, при който 60-годишен мъж е развил бромизъм след консултация с ChatGPT. Бромизмът е отравяне с бром, което се проявява със симптоми като смущения на паментта, тремор, атаксия, обриви. Статията описва бромизма като „добре разпознат“ синдром от началото на 20-ти век, за който се смята, че е допринесъл за почти един на всеки 10 психиатрични приема по това време.
Пациентът споделил с лекарите, че е прочел за отрицателните ефекти на натриевия хлорид в храната. След това се консултирал с ChatGPT относно премахването на хлорида от диетата си. Тогава започнал да приема натриев бромид за период от три месеца. Това станало, след като прочел в чатбота, че „хлоридът може да бъде заменен с бромид, макар че вероятно е за други цели като почистване“. Натриевият бромид е бил използван като успокоително средство в началото на 20-ти век.
Авторите на статията от Университета на Вашингтон в Сиатъл заявиха, че случаят подчертава „как използването на изкуствен интелект може потенциално да допринесе за развитието на предотвратими неблагоприятни последици за здравето“.
Те добавиха, че не са могли да получат достъп до дневника на разговорите на пациента в ChatGPT, затова не е било възможно да видят съвета, който мъжът е получил от бота. Въпреки това, когато авторите се консултирали с ChatGPT относно това с какво може да се замени хлоридът, отговорът също включвал бромид.
Съветът не предоставял конкретно предупреждение за здравето, нито ботът запитал защо авторите търсят такава информация – „както предполагаме, че би направил медицински специалист“, написали те.
Авторите предупредиха, че ChatGPT и други подобни приложения с изкуствен интелект могат „да генерират научни неточности, да нямат способността да обсъждат критично резултатите и в крайна сметка да… разпространяват дезинформация“.
Компанията-създател на въпросния голям езиков модел обяви ъпгрейд на чатбота миналата седмица и заяви, че една от най-големите му силни страни е в здравеопазването. В него се казва, че ChatGPT – сега базиран на модела GPT-5 – ще бъде по-добър в отговарянето на въпроси на тема здраве и ще бъде по-проактивен в „сигнализирането на потенциални проблеми“, като например сериозни физически или психически заболявания.
Статията в списанието, публикувана миналата седмица преди пускането на GPT-5, казва, че пациентът изглежда е използвал по-ранна версия на ChatGPT.
Авторите казват, че пациентът с бромизъм се е явил в болница и е заявил, че подозира, че съседът му го трови. Казал и, имал множество диетични ограничения. Бил ужасно жаден, но бил „параноичен“ относно водата, която му е била предлагана.
Опитал се да избяга от болницата в рамките на 24 часа след приемането. След като бил хоспитализиран, бил лекуван за психоза. Сетне пациентът бил стабилизиран, а после е съобщил, че има няколко други симптома, показващи бромизъм, като акне по лицето, прекомерна жажда и безсъние.
Занапред лекарите ще трябва да бъдат особено внимателни, казват авторите на научната статия. Те ще трябва да са наясно, че – прекрачвайки прага на кабинета – пациентите им може би вече са питали ChatGPT за своето състояние и идват с известни „знания“.
