Д-р Айзък Кохане, специалист по информационни технологии и медицина в Харвард, и двама негови колеги тестваха изкуствения интелект GPT-4 в ролята на лекар. Резултатите са впечатляващи – чатботът се оказа по-добър от много лекари.
Пуснат през март тази година, AI ботът ChatGPT с езиков модел GPT-4 отговаря правилно на 90% от въпросите в медицинския лицензионен изпит. Той превъзхожда ChatGPT, базиран на езиковите модели GPT-3 и GPT-3.5, и дори някои лекари, които вече имат лицензи, отбелязва Insider.
Резултатите от експеримента са публикувани в книгата „Революцията на изкуствения интелект в медицината”, написана съвместно от д-р Кохане, независимия журналист Кери Голдбърг и вицепрезидента по изследвания в Microsoft – Питър Лий.
GPT-4 се представя отлично не само като проверяващ и фактолог, но и като преводач. Той сортира медицинското досие на пациента на португалски и перифразира натоварените с жаргон документи в текст, с който дори шестокласник може да се справи.
Изкуственият интелект предлага полезни съвети на лекарите как да се държат до леглото и как да говорят на пациента за състоянието му на ясен, но състрадателен език. Машината може да обработва обемни доклади от прегледи, като моментално обобщава съдържанието им.
Системата генерира отговорите си във формат, който показва интелигентност, близка до човешката, но изследователите все пак заключават, че AI е ограничен в мислите си от шаблони – GPT-4 все още не знае как да се впусне в пълноценно разсъждение с причинно-следствени връзки.
Когато обаче на системата са предложени данни от реален случай, тя диагностицира правилно рядко заболяване на ниво специалист, с години на обучение и практика.
Д-р Кохейн се радва, от една страна, че в обозримо бъдеще такъв инструмент ще бъде достъпен за милиони хора, но, от друга страна – той все още не знае как да направи платформата безопасна за потребителя.
GPT-4 не винаги е надежден в отговорите си и книгата дава много примери за различни по вид грешки. Освен това AI има склонност да настоява, че е прав, когато му се посочат тези грешки – това явление вече се нарича „халюцинации” в техническите среди.
В своя защита GPT-4 веднъж заявил: „Нямам намерение да заблуждавам или подвеждам някого, но понякога правя грешки и предположения въз основа на непълни или неточни данни. Не правя клинични преценки и нямам етична отговорност като лекар или медицинска сестра”.
Като една от мерките за защита, авторите на книгата предлагат да се проведат няколко сесии с GPT-4, така че самият AI да „препрочита” или „проверява” собствената си работа със „свеж поглед”. Това понякога помага за откриване на грешки: GPT-4 признава дискретно, че е сгрешил няколко пъти.
Разбира се, винаги работата на изкуствения интелект може да бъде проверено от медицински специалист.
Не знаете как да задавате въпроси, той разбира от философия. Май не знаете как да зададете правилни въпроси.
Отговорите му са непълни и половинчати.Повечето информация която дава е обща и може да се намери и без изкуствения интелект.
Влади Пенев, питах го да ми изброи героите от известен български роман. Знаеше автора на романа, но вместо героите, които всички знаем, върна списък с хора като “Васил Левски”, “Пенчо Славейков” – нямаше нито един верен. Опитах няколко пъти да си задам въпроса отново и на третия опит уцели един съществуващ герой в романа. Със сигурност за романа е изписано много и в Wikipedia и на други места понеже е най-четената българска книга. Но това не е интелект. Не може да разбере, че да върне “Васил Левски” е все едно да питам някой “Какъв цвят е небето” и да ми отговори “куче”. А иначе съм го тествал и с математически задачи, където трябва да вкараш съвсем малко логика – дава перфектно обосновано на английски език решение … но грешно.
БЪЛГАРИНА: би ли цитирал какво точно го пита защото в крайна сметка преодолява повече информация относно повечето казуси, лично аз съм го питал какво е мнението му за Ваксинацията и предразположенията , са заложени в самата система GPT4
Скай нет- точно
Питам го някакви елементарни неща и ми връща доста често грешни отговори. Не бих разчитал на това нещо. Някой трябва да носи отговорност за тези отговори. Иначе така за келешлък и общ чат … става.
Скай нет