Нов етап в AI чатботовете: собствени, „частни“ модели

Нуждата от поверителност при общуването с чатботове породи появата на частни модели, които не “източват” данни навън (снимка: CC0 Public Domain)

Поверителността се превърна в основен проблем при чатботовете с изкуствен интелект, които са свързани към нечии корпоративни сървъри. Ето, че се оформя следващ етап в развитието на технологията: ботове, които се грижат за поверителността и неприкосновеността. Първият такъв е факт и навярно появата му ще отприщи раждането на други алтернативи.

Компании като Samsung, JPMorgan, Apple и Amazon забраниха на служителите си да използват ChatGPT от страх, че поверителна фирмена информация може да изтече чрез споделянето с бота. ChatGPT, който е собственост на OpenAI, непрекъснато се самообучава чрез всички подкани и съобщения, които потребителите въвеждат.

Алтернатива за всеки

Но сега вече има алтернатива за всеки, притеснен от идеята за потенциалното разкриване на лична информация пред онлайн чатбот. PrivateGPT е AI модел с отворен код, който позволява на потребителите да задават въпроси въз основа на собствените си документи без интернет връзка.

Създаден от разработчик на име Иван Мартинес Торо, PrivateGPT работи локално на домашното устройство на потребителя. Системата изисква първо да се изтегли голям езиков модел (LLM) с отворен код, наречен gpt4all. След това потребителят получава инструкции да постави всички свои файлове, които ще използва за обучението на чатбота, в специална директория, за да може моделът да „сдъвче“ всички данни.

След като ботът бъде обучен, потребителят може да задава всякакви въпроси на модела. Той ще отговаря, използвайки документите, предоставени като контекст. PrivateGPT може да поеме над 58 000 думи и в момента се нуждае от значителни локални изчислителни ресурси – по-специално добър процесор.

„PrivateGPT в сегашното си състояние е по-скоро доказателство за концепция (POC). Това е демонстрация, която доказва осъществимостта на идеята за създаване на напълно локална версия на AI асистент, подобен на ChatGPT, който да може да приема документи и да отговаря на въпроси, без каквито и да е данни да напускат компютъра“, казва Торо.

AI моделът може спокойно да работи офлайн. „Лесно е да си представим потенциала за превръщането на този POC в действителен продукт. За компаниите това е възможност за рязък скок на производителността, след като ще имат достъп до свой собствен, персонализиран, защитен и частен ChatGPT.“

Торо казва, че е създал приложението, след като е видял колко ценен е ChatGPT на работното място. „Хората и правните отдели в настоящата ми компания имаха достъп до ChatGPT за няколко седмици и в крайна сметка изчерпахме кредитите; мнозина се обърнаха към мен с молба да им помогна да си върнат достъпа, защото не искаха да се върнат към стария начин на вършене на работата – без него“.

Поверителността е основен мотив

Същата ситуация обаче накарала Торо да се замисли за тайната и неприкосновеността: правният отдел на фирмата искал да обобщи частен правен документ с помощта на ChatGPT, но не успял поради рисковете за поверителността.

Именно поверителността се превърна в основен проблем при онлайн моделите на база AI, които са свързани към нечии корпоративни сървъри.

Един скандален случай на изтичане на данни чрез LLM чатове се случи през април, когато трима служители на Samsung в Корея случайно „източиха“ чувствителна информация към ChatGPT. Един служител бе споделил поверителен изходен код, за да го провери за грешки. Друг бе поискал от ChatGPT да оптимизира написания код. Трети пък сподели запис на среща и поиска от чатбота да конвертира разговора в писмени бележки.

Заваляха забрани

След тази поредица много от големите технологични компании осъзнаха близостта на опасностите за своите корпоративни тайни и забраниха използването на чатбота за своите служители. Bloomberg забрани какъвто и да е генеративен AI и стана ясно, че се опитва да създаде свой собствен патентован модел.

Освен корпоративна информация чрез ChatGPT могат да изтекат и лични данни, което провокира реакции от страна на правителствените регулатори.

Това е причината, поради която неотдавна Италия реши временно да забрани ChatGPT – за около месец – позовавайки се на опасения относно използването на лична информация от услугата и противоречието с Общия регламент за защита на данните на ЕС (GDPR). По-късно забраната падна, след като OpenAI изпълни условията, поискани от италианския орган за защита на данните.

Коментар