
Oгромна част от корпоративния риск, свързан с използване на външни генеративни AI системи, идва от съвсем малък брой приложения, установи ново проучване. Главният „заподозрян“ е най-популярният AI чатбот ChatGPT.
Шепа AI приложения представляват по-голямата част от случаите на излагане на корпоративни данни, разкри нов анализ, който се базира на 22,4 милиона подкани към генеративни AI през 2025. Точно шест приложения съставляват 92,6% от потенциалното излагане на данни.
Макар и мрачна, тази новина има и хубав аспект – организациите могат да фокусират управлението на риска върху тази група, за да се предпазят, казват анализаторите от Harmonic Security.
В главната роля: ChatGPT
На ChatGPT се падат 71,2% от излагането на корпоративни данни, съгласно изследването. Harmonic заяви, че ChatGPT представлява 43,9% от всички 22,4 милиона прегледани подкани.
Анализът посочва Microsoft Copilot и Google Gemini като приложения с по-високи „пропорции“ на излагане на данни спрямо същинския дял от промптовете. По-конкретно, на Microsoft Copilot се пада 2,9% от общата употреба на генеративни AI, а на Gemini – 3,2%.
Данните на Harmonic показват, че общият риск от експозиция не е свързан равномерно с обемите на използване на различните инструменти. Компанията позиционира този дисбаланс като фактор при приоритизирането на риска от екипите по сигурността.
Лични профили
По-голямата част от експозициите в набора от данни са възникнали чрез инструменти, предоставени от бизнеса. Компанията също така установи, че 17% от всички експозиции са възникнали чрез лични или безплатни акаунти.
Тези акаунти са извън типичните корпоративни контроли. Следователно ИТ екипите имат „нулева видимост, няма одитни следи и данните могат да обучават публични модели“ в такива случаи.
От разгледаните 98 034 случая, които Harmonic класифицира като чувствителни, 87% са възникнали чрез ChatGPT Free. Останалите са концентрирани в малка група широко използвани услуги: Google Gemini (5935 случая), Microsoft Copilot (3416), Claude (2412) и Perplexity (1245).
Управление с дълга опашка
Освен доминиращите приложения, според Harmonic, има и още над 600 инструмента, които все пак създават напрежение и изискват внимание и управление. Общият подход на тотално блокиране на AI сайтовете (т. нар. одеяло), може да повлияе на вече вградените AI функции.
Компанията посочи примери, включително Canva, Google Translate, Grammarly и Gamma. Блокирането на такива сайтове може да създаде „значителни организационни търкания“.
Интересна подробност е, че около 4% от използването на генеративни AI в набора от данни е свързан с приложения, базирани в Китай. Според компанията, тези приложения „нямат никакъв надзор“.
Видове данни
Harmonic заяви, че 579 000 запитвания, или 2,6% от всички 22,4 милиона, са съдържали данни, които са чувствителни за дадената компания. Естеството на тези данни често прави откриването трудно, защото са „силно неструктурирани“.
Програмният код е категорията, която носи най-голям риск от излагане на корпоративни данни: 30% от експозициите. Други 22,3% представляват съдържание от правно естество.
Данните за сливания и придобивания съставляват 12,6% от експозициите, финансовите прогнози – 7,8%, а данните за инвестиционни портфейли – 5,5%. Компанията също така изброява ключове за достъп, лична информация и данни за продажбени канали, наред с други категории, открити в подканите.
Изводи
Констатациите говорят за продължаващ натиск върху предприятията да управляват нарастващия брой услуги, базирани на изкуствен интелект, според Harmonic.
Очаква се използването на специализирани асистенти и вградени AI функции на изкуствен интелект да остане „значителен фактор в моделите на експозиция“.
