Бизнесът все по-настойчиво се интересува от възможносттта за внедряване на частни генеративни AI системи – големи езикови модели, предназначени за вътрешнокоропративно обслужване. Пътят към използването им обаче е изпълнен с неизвестности и предизвикателства почти като чуждопланетна одисея.
Внедряването на частни чатботове трябва да се ръководи от екипи от специалисти, които съумяват ловко да балансират между галопиращото технологично развитие и сложната и променяща се регулаторна среда. Тези екипи трябва да действат мъдро и предвидливо. Когато успяват, те могат да постигнат гигантски скок в ефективността и конкурентоспособността, казва Йохен Ридизер, заместник CDO във Fujitsu. Той бе на посещение в България по повод съвместния форум на Fujitsu и VMware в София на 14 ноември.
В търсене на изолирано LLM решение
Генеративните AI и големите езикови модели ще играят важна роля за предприятията през 2024 г., предвижда Fujitsu. Внедрени в организациите от всякакви видове и размери, технолгиите от типа „GPT” могат да движат бизнеса напред, осигурявайки рязък скок в ефективността.
„Всички познават големия езиков модел ChatGPT и неговите огромни възможности. Но днес фирмите търсят подобно решение, което да е инсталирано вътрешно, „on premise”, да е изолирано от външния свят, за да съумеят да опазят интелектуалната си собственост“, сподели Ридизер. „Именно в тази посока ние полагаме много усилия“.
Работата по подобни проекти произтича от огромния интерес на организациите-потребители. Това е философията, залегнала в новия подход на Fujitsu: да следва търсенията и потребностите на корпоративните организации, развивайки технологиите „отвън навътре“.
„Самите потребители искат от нас създаването на частни, вътрешнофирмени LLM платформи. Така е, защото всяка организация има своите конфиденциални документи и интелектуална собственост и мениджърите искат пълна автоматизация без риск от изтичане на чувствителните данни. Освен всичко в някои региони като ЕС има и закони, които ги задължават да опазват стриктно потребителските данни“, казва Ридизер.
Управление на знанието
Предизвикателство за всички организации, които се нуждаят от собствен, частен LLM, е производителността. Големите езикови модели изискват интензивна изчислителна дейност. За функционирането им е необходима мощна инфраструктура. На свой ред тя се нуждае от много енергия за работата си. Изграждането на изчислителната техника е предизвикателство, но то изглежда по-малко в сравнение с дилемата за управлението на знанието.
„Организациите искат да изградят собствени „GPT” системи, които да обслужват дейността им. Ако, например, имате множество технически ръководства, искате всеки служител да може да задава въпроси на този вътрешен „GPT” и да получава адекватни отговори,“ обяснява Ридизер. „Например, питаш за паролата по подразбиране за дадено устройство и чатботът ти я казва. Трениран е да отговаря на подобни въпроси. Голямата полза от това е, че цялото знание, необходимо за ежедневната дейност на служителите, си остава вътре в компанията. Нищо не излиза навън, както би било при използването на системи като ChatGPT например“.
С вътрешен чатбот могат да се ускорят не само рутинните справки за данни, локации, събития. Ако организацията се занимава с разработване на софтуер, вътрешният езиков модел ѝ позволява да ускори създаването на програмните системи, без нито ред сорс-код да излиза извън компанията. Оформянето на писма до клиенти, маркетингови послания и друго важно съдържание се автоматизира, без риск от компрометиране на бизнеса, тъй като всички данни остават изолирани, затворени във вътрешния „двор“ и при пълно спазване на регулации като GDPR.
Етика и изкуствен интелект
Дългосрочният ефект от внедряването на частен LLM е свързан с автоматизацията и многократното ускоряване на множество рутинни процеси. Това донякъде може да помогне и за преодоляване на проблема с недостига на специалисти.
„AI етиката е изключително важна. При частните, вътрешноинсталационни решения, които са изолирани от външния свят, коректността на модела зависи от самата организация, защото базовият модел се обогатява със собствени данни. Много голямо значение има кой използва модела, защото с всяко взаимодействие LLM се надгражда и обогатява. Това означава, че трябва да сме много внимателни какво подаваме на вътрешния чатбот. Чия е отговорността да не се получат изкривявания – това е важен въпрос и той няма конкретен отговор!“, казва Ридизер.
Отворен или затворен код
Въпросът за етиката поставя на дневен ред и дилемата дали да се доверим на философията на отворения код, избирайки отворените LLM, или да се стремим към затворена система, която работи като „черна кутия“ – без да можем да знаем какво се случва вътре в устройството на системата.
„Управлението на знанието е най-важният аспект от създаването на собствени, частни LLM – какви са собствените ни бази данни, какво е собственото ни знание, което влагаме вътре“, допълва Ридизер. Малкият, вътрешен езиков модел трябва да има добра функционалност да работи с вътрешнофирмените данни, без да му се налага да се обучава повторно.
Регулаторната джунгла
В процеса на обучаване и трениране на вътрешнокорпоративните езикови модели важна роля ще изиграят съществуващите и бъдещите регулации.
„Предизвикателство е да отговорим на изискванията, например на GDPR. Той дава право на всеки потребител по всяко време да оттегли своите данни. Какво означава това за малките, частни езикови модели, внедрени вътрешнофирмено? Ние искаме да вземем данни и да обучим и тренираме модела. Но всеки потребител има право да оттегли своите данни и ние трябва да ги „оттеглим“ и от езиковия модел, с който работим. Дали това ще означава, че трябва да го пре-обучим наново? Това са съществени технически предизвикателства, пред които тепърва ще се изправяме. Нищо не е статично, това е динамичен процес, който следва да отговаря на регулациите“, разказа Ридизер.
Със съзряване на технологията неизбежно ще дойдат и нови регулации. ЕС вече подготвя своя закон за AI. Очаква се, че и други правителства по света ще въведат своите норми за изкуствения разум. Според специалисти, след появата на общоевропейския закон за AI много други държави ще побързат да последват примера.
„Ако технологията съзрее, неизбежно ще възникнат и регулациите за нея. И ние трябва да решим как да се справим в тази ситуация,“ заключава Ридизер.
Това пътуване – с високата скорост всред на галопиращото развитие на технологията – всред постоянно променяща се и непредвидима среда наподобява междупланетно пътешествие, с което ние трябва да се справим непременно.