
Изкуственият интелект навлиза бързо в здравеопазването. Регулаторната и организационната готовност обаче изостава. Нов анализ показва, че много медицински организации вече имат повече AI пилотни проекти, отколкото могат реално да внедрят в ежедневната практика.
Изследването Healthcare Readiness Report очертава нарастващо разминаване между амбициите за използване на изкуствен интелект и способността на системите на здравеопазване да го управляват при спазване на сложните регулаторни и етични изисквания.
Тази динамика се превръща във важен глобален проблем, особено на фона на ускорената дигитализация на медицината. 76% от здравните организации вече имат повече пилотни AI инициативи, отколкото могат да мащабират, според анализа.
Само 30% от организациите смятат, че са подготвени да следват темпа на регулаторните промени. 55% изразяват сериозни притеснения, че трудно ще поддържат съответствие с постоянно развиващите се политики и нормативни изисквания, посочват анализаторите на Kyndryl.
Kартината е характерна за голяма част от световните здравни системи. AI проектите често започват като ограничени експерименти в тесни клинични или административни области. После идва трудната част.
Когато пилотните начинания трябва да се превърнат в реални системи за ежедневна работа, пред тях изникват редица препятствия. Такива са изискванията за одит, защита на личните данни, управление на киберрисковете, както и сложните процедури за обществени поръчки и технологично сертифициране.
Пилотни начинания с малко перспектива
Здравните организации днес работят под сериозно оперативно напрежение. Очакванията за качество на услугите растат. Ресурсите често са ограничени.
Допълнително усложнение е фактът, че много болнични системи функционират в повече от една юрисдикция. Това означава различни регулаторни режими. Понякога дори противоречиви.
В тази среда интересът към изкуствения интелект нараства. AI обещава по-бързи диагностични процеси, по-добро управление на данни и по-ефективни административни операции. Но организационните ограничения често спират този потенциал.
Според 31% от участниците в проучването, именно регулаторните норми и изискванията за съответствие са основната бариера пред преминаването от пилотни проекти към масово внедряване. Това подчертава основния извод на доклада – секторът остава слабо подготвен за предстоящите нормативни промени.
От Kyndryl предупреждават, че без модернизиране на управленските модели много организации рискуват да останат в постоянна фаза на експерименти, без да стигнат до реално внедряване в мащаб.
Нов подход към регулацията
Паралелно с публикуването на доклада, компанията представи и нов технологичен подход към проблема. Решението се нарича „policy as code“.
Идеята е сравнително проста. Регулаторните изисквания и вътрешните правила се превръщат в машинно четим код. Този код управлява начина, по който работят системите с изкуствен интелект. Така се гарантира автоматично спазване на политиките и по-добра проследимост на действията на алгоритмите.
Технологията е насочена към т.нар. агентни AI системи – автономни софтуерни агенти, които изпълняват сложни задачи в клинични и административни процеси. В подобна среда проследимостта и одитът са критично важни.
Регулаторното съответствие трябва да бъде заложено още в началото на всяка AI инициатива, казва Кристин Ландри, глобален вицепрезидент за здравеопазването в консултантското звено на Kyndryl.
Тя подчертава, че здравеопазването работи в една от най-сложните регулаторни среди в света. Затова системите за изкуствен интелект трябва да бъдат изграждани със защита, контрол и прозрачност още на архитектурно ниво.
Управлението остава ключов проблем
Основните данни от доклада показват системно напрежение в здравната ИТ инфраструктура. Пилотните проекти са много. Работещите модели за мащабно внедряване – значително по-малко.
Причината е в управлението на риска и в липсата на стандартизирани процедури. Мащабирането на изкуствения интелект изисква ясни модели за оценка на риска, мониторинг на алгоритмите, контрол на качеството на данните и управление на достъпа. Необходими са и прозрачни механизми за отчетност.
Когато AI системите започнат да влияят върху клинични решения, възникват и нови изисквания. Здравните организации трябва да могат да покажат как е достигнато дадено решение. Кои данни са използвани. И какви защитни механизми са били приложени.
Тези въпроси са особено чувствителни в среда, където става дума за пациентска безопасност и защита на личната информация.
Именно модернизирането на управлението и регулаторните механизми ще бъде ключово условие, ако здравният сектор иска да превърне експериментите с изкуствен интелект в реални, мащабируеми решения за клиничната практика.
