Отвъд възможностите на хората: AI надзирава AI

AI мониторингът на AI включва ниво на мащабируемост, скорост и последователност, което хората не могат да постигнат (снимка: CC0 Public Domain)

Не може да се разчита на изкуствения интелект да направи всичко правилно, така че има нужда от хора. Има нужда също от AI за наблюдение на AI – за скорост и мащаб на операциите.

Гафовете на AI са отрезвяващи, независимо дали са халюцинации или вземане на съмнителни решения. Това е една от причините хората да участват в процеса. Изкуственият интелект обаче може да работи със скорост и мащаб, които са физически невъзможни за хората, като същевременно извежда крайни резултати, които изискват човешки преглед и надзор. Този тип партньорство – на AI и човека – гарантира, че AI върши работата си правилно.

„Човекът не може да чете и оценява нещата 24/7 и да предприема действия за милисекунди. Затова тестът на Тюринг вече не се прилага, сега говорим за същата способност като човек, но със 100 000 пъти подобрение в мащаба, скоростта и точността, защото извлича много повече информация” казва Мохамед Елгенди, главен изпълнителен директор на платформата за тестване на AI/ML Kolena, в интервю за Information Week.

„Големи езикови модели се използват за оценка на [други] модели, преди да бъдат внедрени, и като парапети след внедряването им”, допълва Елгенди. Например, бизнесът може да иска обикновен предпазен парапет за чатбот, който не позволява на AI да споменава конкурент, или по-сложни предпазни огради за насилие, халюцинации и джейлбрейк. Във финтех пространството моделите са възпрепятствани да дават финансови съвети в приложения, тъй като това е незаконно.

„Идеята за използване на AI за наблюдение и регулиране на други AI системи е решаваща за гарантиране, че тези системи са едновременно ефективни и етични”, казва Кеш Мерил, основател на компанията за разработка на софтуер Zibtek. „В момента техники като модели за машинно обучение, които предсказват поведението на други модели (мета-модели), се използват за наблюдение на AI. Тези системи анализират модели и резултати от оперативния AI, за да открият аномалии, отклонения или потенциални повреди, преди те да станат критични”.

Предимствата на AI мониторинга на AI включват ниво на мащабируемост, което хората не могат да постигнат, по-високо ниво на последователност, тъй като AI не изисква почивка, и анализ въз основа на по-дълбоки модели и корелации, които може да бъдат пренебрегнати от хората анализатори.

Мониторингът като тестване

AI се изразява чрез софтуер и като всеки друг вид софтуер, тестването е необходимо, за да се гарантира, че AI прави това, за което е проектиран. Например, повече приложения извикват API на голям езиков модел (LLM), но проблемът с потреблението на AI е, че някой трябва да го измери. Чрез AI, който използва структурирани времеви данни, е възможно да се постигне по-точно прогнозиране.

„Опитвате се постоянно да наблюдавате потреблението, въведено от AI, като използвате структурирани данни от времеви редове, за да разберете моделите в тях, за да направите прогнози, да разберете аномалиите или да разберете връзката на точката на промяна между тях”, казва Деварврат Шах, главен изпълнителен директор и съосновател на Ikigai Labs, корпоративна AI платформа за структурирани данни от времеви серии, и професор по наука за данни и статистика в MIT.

Също така е необходимо използване на AI за тестване на хипотези, казва той. Например, обществото има определени норми, които се очаква да бъдат спазвани, и AI вече се използва за съответствие с нормативните изисквания. AI обаче може да се използва, за да се определи кои норми са валидни и невалидни. Потребителят ще представи на AI норма и AI може да каже дали тази норма може да бъде преобразувана в тест за хипотеза или не. Ако може, тогава с помощта на данни би било възможно да се проверява нормата постоянно. AI може също така да каже на потребителя от какъв вид данни има нужда.

„Говорейки като академик, това, което трябва да направим, е да дефинираме понятието тест за хипотеза и след това да създадем тест и доказателство от това”, казва Шах. „AI и аз трябва да можем както да дефинираме разпоредбите, така и да управляваме регулирането на AI, независимо дали става въпрос за одит на формулярите или съдебни спорове за формулярите”.

Зулфикар Рамзан, главен учен и главен вицепрезидент по продуктите и разработката в компанията за защита на самоличността Aura, смята, че прозрачността не е достатъчна, особено за сложни системи, защото те са твърде сложни за човешкото разбиране. „Има много страхотни изследвания на AI, но когато става въпрос за по-напредналите алгоритми, ние не сме близо до това, което трябва да бъдем за производствени среди”, казва Рамзан.

Предизвикателства с AI надзора от AI

Има три предизвикателства при използването на AI за наблюдение на AI, според Кеш Мерил от Zibtek. Първото е сложността на саморегулацията. Проектирането на AI, който ефективно наблюдава друг AI, включва сложно рекурсивно обучение, което може да бъде предизвикателство за прилагане и поддържане.

Второто е прекомерното разчитане на технологиите. Съществува риск да станете прекалено зависими от технологичните решения, потенциално пренебрегвайки човешката преценка, която е от решаващо значение при надзора и контекстуализирането на решенията на AI.

Третото предизвикателство са етични съображения и съображения за поверителност. Използването на AI за наблюдение на други AI системи поражда значителни опасения относно поверителността и наблюдението, особено относно това кой контролира тези системи и как се използват.

Друго предизвикателство е дали е възможно да се разбере какво всъщност се случва. „Нямате нужда от докторска степен в машинното обучение за разбиране на прости алгоритми. [Въпреки това], когато имате работа с наистина неограничени среди, в които взаимодействате с потребителски данни, които могат да дойдат отвсякъде или да бъдат каквото и да е, възможността да уловите надеждно всеки един от тези случаи на употреба може да бъде проблематична”, казва Рамзан от Aura.

Според него, организациите трябва да започнат първо с използване на AI за наблюдение на данни, тъй като точността на изводите зависи от това. „Трябва да разгледате данните си предварително, защото ако ги нямате, няма значение какво се случва надолу по веригата”, казва Рамзан.

„Второто нещо е свързано с инженеринга на функции и знанието какво да търсите в данните. Това е мястото, където е важен опитът в областта. След това можете да започнете да търсите програмно тези типове екземпляри. Тогава и само тогава класификаторът има значение”, подчертава Рамзан.

Бъдещето на AI наблюдението

OpenAI говори открито за желанието и усилията си да изгради изкуствен общ интелект (AGI), което е по-труден проблем за решаване от днешния изкуствен тесен интелект (ANI), създаден да прави добре едно конкретно нещо. В момента компанията Kolena работи върху AGI в партньорство с правителствена агенция и въпреки дългосрочните прогнози, които се простираха до 2050 г., Елгенди очаква AGI да дебютира през 2025 г.

„Когато става дума за AGI, вие искате той да не научи някои неща, защото научаването на информация от интернет е причинило халюцинации и необходимост от вземане на решения”, казва Елгенди. „Мониторингът ще включва две неща: проверка дали AI прави това, за което е предназначен, и ще позволи на човек да разбере подробностите за това как всяко действие е довело до крайния резултат, когато AI се е объркал”.

Кеш Мерил вижда възхода на все по-автономни AI системи, способни на самокоригиране и по-нюансирано вземане на решения, базирани на етика. „Напредъкът в обяснимия AI вероятно ще изиграе значителна роля в това AI мониторингът да стане по-прозрачен и разбираем, което е жизненоважно за спечелване на обществено доверие и спазване на регулаторните изисквания”, казва Мерил и допълва: „Докато усъвършенстваме тези технологии, целта ще бъде да създадем балансирана екосистема, в която AI подобрява човешките способности, без да замества критичния надзор, който само хората могат да осигурят.“

Рамзан на Aura удвоява значението на обяснимия (еxplainable) AI: „Това е област, в която сега има много активни изследвания. Също така, със законодателството и режимите за съответствие, които стават все по-важни, това ще доведе до идеята, че се нуждаем от по-добра обяснимост”.

„Мога да ви кажа, наистина е страшно да внедрите система за първи път и да не знаете как ще работи или как да я валидирате. Така че на първо място трябва да се положат много усилия в стъпката на валидиране”, заключава Рамзан.

Коментар