Как да се опазим от изкуствения интелект

В много случаи хората не са наясно как техните данни се използват или могат да бъдат използвани от AI моделите (снимка: CC0 Public Domain)

Много хора са влюбени в генеративния изкуствен интелект и използват новите AI инструменти за всякакви лични или бизнес цели. Но често пренебрегват потенциалните последици за поверителността, а те могат да бъдат значителни.

От ChatGPT на OpenAI до Gemini на Google, Copilot на Microsoft и Apple Intelligence, новите AI инструменти са лесно достъпни и се разпространяват бързо сред потребителите. Те обаче имат различни политики за поверителност по отношение на потребителските данни и тяхното съхранение. В много случаи потребителите не са наясно как техните данни се използват или могат да бъдат използвани.

Ето защо да си информиран потребител става изключително важно. Но контролът върху поверителността и данните е различен, в зависимост от AI инструмента. „Няма универсален отказ за всички инструменти”, казва Джоди Даниелс, главен изпълнителен директор и консултант по поверителността в Red Clover Advisors, в интервю за CNBC.

Разпространението на AI инструменти – и тяхното интегриране в много от това, което хората правят на своите персонални компютри и смартфони – прави въпроса за поверителността още по-уместен.

Преди няколко месеца Microsoft пусна първите си Surface компютри със специален бутон Copilot на клавиатурата за бърз достъп до чатбота на компанията, изпълнявайки обещание, дадено по-рано. Apple очерта визия за AI, която се върти около няколко по-малки модела, работещи на устройства и чипове на компанията. Шефовете в Купертино говориха публично за значението, което Apple придава на поверителността, което може да бъде предизвикателство за AI моделите.

Ето няколко начина, по които хората могат да защитят поверителността си в новата ера на генеративен изкуствен интелект (GenAI):

Задайте на AI въпроси за поверителността

Преди да изберете AI инструмент, прочетете внимателно свързаните политики за поверителност. Как се използва вашата информация и как може да бъде използвана? Има ли опция за изключване на споделянето на данни? Има ли начин да се ограничи какви данни се използват и колко дълго се съхраняват? Могат ли данните да бъдат изтрити? Трябва ли потребителите да минават през лабиринти, за да намерят настройки за отказ?

Според професионалистите по поверителност, трябва да ни светне червен флаг, ако не можем лесно да отговорим на тези въпроси или да намерим отговори на тях в правилата за поверителност на доставчика.

„Инструмент, който се грижи за поверителността, ще ви каже [това, което ви интересува]”, посочва Джоди Даниелс. И ако не го направи, „трябва да имате собственост върху поверителността”, добавя тя. „Не можете просто да приемете, че компанията ще направи правилното нещо. Всяка компания има различни ценности и всяка компания прави пари по различен начин”.

Джоди дава за пример Grammarly, инструмент за редактиране, използван от много потребители и фирми. Разработчикът ясно обяснява на няколко места в уебсайта си как се използват данните.

Пазете чувствителните данни от големи езикови модели

Някои хора са много доверчиви, когато става въпрос за включване на чувствителни данни в генеративни AI модели. Но Андрю Фрост Мороз, основател на Aloha Browser, фокусиран върху поверителността, препоръчва на хората да не предоставят никакви видове чувствителни данни, тъй като всъщност не знаят как AI може да ги използва или евентуално да злоупотреби с тях.

Това важи за всички видове информация, която хората могат да въведат, независимо дали е лична или свързана с работата. Много корпорации са загрижени относно използването на AI модели от служителите, за да им помогнат в работата. Служителите може да не обмислят как тази информация се използва от модела за целите на обучението.

Ако въвеждате поверителен документ, AI моделът вече има достъп до него, което може да породи всякакви опасения. Повечето компании ще одобрят използването само на потребителски версии на AI инструменти, които поддържат защитна стена между частната информация и големите езикови модели.

Хората също трябва да бъдат внимателни и да не използват AI модели за нещо, което не е публично или което не биха искали да бъде споделяно с други в каквото и да е качество, каза Фрост Мороз.

Осъзнаването на това как използвате AI е важно. Ако го използвате, за да обобщите статия от Wikipedia, това може да не е проблем. Но ако го използвате, за да обобщите, например, личен правен документ, това не е препоръчително.

Или да кажем, че имате изображение на документ и искате да копирате определен параграф. Можете да помолите AI да прочете текста, за да го копирате. Правейки това, AI моделът ще знае съдържанието на документа, така че потребителите трябва да имат това предвид, казва Мороз.

Използвайте възможностите за отказ

Всеки инструмент от поколение AI има свои собствени политики за поверителност и може да има опции за отказ. Gemini на Google, например, позволява на потребителите да създават период на задържане и да изтриват определени данни, наред с други контроли.

Потребителите могат да се откажат от използване на техните данни за обучение на модели от ChatGPT. За да направят това, те трябва да навигират до иконата на профила в долния ляв ъгъл на страницата и да изберат Data Controls под заглавката Settings. След това трябва да деактивират функцията, която казва „Подобрете модела за всички”. Докато тази опция е деактивирана, новите разговори няма да се използват за обучение на моделите на ChatGPT, според раздела за често задавани въпроси (FAQ) в уебсайта на OpenAI.

Няма реални предимства за потребителите да позволят на AI да се обучава върху техните данни – има рискове, които все още се проучват, казва Джейкъб Хофман-Андрюс, старши технолог в Electronic Frontier Foundation, международна организация с нестопанска цел за цифрови права.

Ако личните данни са публикувани неправомерно в мрежата, потребителите може да имат опция да ги премахнат и след това те ще изчезнат от търсачките. Но отучването на AI модели е съвсем различна игра, казва Хофман-Андрюс. Може да има някои начини за смекчаване на използването на определена информация, след като е попаднала в AI модел, но те не са безупречни – как да се направи това ефективно е въпрос на активно изследване.

Включване само по основателни причини

Компаниите интегрират GenAI в ежедневни инструменти, които хората използват в личния и професионалния си живот. Copilot за Microsoft 365, например, работи с Word, Excel и PowerPoint, за да помогне на потребителите със задачи като анализи, генериране на идеи, организация и други.

За тези инструменти Microsoft казва, че не споделя потребителски данни с трета страна без разрешение и не използва клиентски данни за обучение на Copilot или неговите AI функции без съгласие.

Потребителите обаче могат да се намесят, като влязат в центъра за администриране на Power Platform, изберат настройки на клиента и включат споделянето на данни за Dynamics 365 Copilot и Power Platform Copilot AI Features. Тези опции позволяват споделяне на данни и запазване.

Предимствата на включването са възможността да направите съществуващите функции по-ефективни. Недостатъкът обаче е, че потребителите губят контрол върху начина, по който се използват техните данни, което е важно съображение, казват специалистите по поверителност.

Добрата новина е, че потребителите, които са избрали Microsoft, могат да оттеглят съгласието си по всяко време. Те могат да направят това, като отидат на страницата с настройки на клиента в центъра за администриране на Power Platform и изключат споделянето на данни за Dynamics 365 Copilot и Power Platform Copilot AI Features.

Задайте кратък период на задържане при търсене с GenAI

Потребителите може да не се замислят много, преди да потърсят информация с помощта на AI. Въпреки това, дори търсенето на определени типове информация с GenAI може да бъде натрапчиво за поверителността.

Има добри практики при използване на AI инструменти за целите на търсенето. Ако е възможно, задайте кратък период на задържане за Gen AI инструмента, казва Хофман-Андрюс. И изтрийте чатовете, след като сте получили търсената информация.

Компаниите все още имат сървърни регистрационни файлове, но това може да помогне за намаляване на риска трета страна да получи достъп до вашия акаунт. Това може също да намали риска чувствителната информация да стане част от обучението на модела. „Наистина зависи от настройките за поверителност на конкретния сайт”, заключава Хофман-Андрюс.

Коментар