Достъп до AI само с ID: OpenAI затяга контрола

Рисковете, свързани с използването на AI, нарастват и разработчиците предприемат ограничителни мерки (снимка: CC0 Public Domain)

Разработчикът на изкуствен интелект OpenAI обяви задължителен процес на проверка за организации, които желаят да получат достъп до авангардни AI модели. Системата Verified Organisation изисква издадена от правителството идентификация и е предназначена да предотврати злоупотреба с технологията.

Според новите правила, организациите от списъка на поддържаните държави трябва да преминат проверка чрез качване на официален документ. Един ID може да се използва само за проверка на една компания на всеки 90 дни и OpenAI си запазва правото да откаже достъп без обяснение.

Компанията казва, че мярката е насочена към борба с „малкия брой разработчици”, които нарушават правилата за използване на API и ще помогне да се поддържа баланс между откритост и сигурност.

Анализаторите приписват промените на нарастващите рискове, свързани с възможностите на AI. През февруари 2025 г. Блумбърг съобщи, че OpenAI разследва инцидент с лабораторията DeepSeek от Китай: според публикацията през есента на 2024 г. големи обеми данни може да са били незаконно изтеглени чрез API на услугата за обучение на модели на трети страни.

Това беше един от факторите, които накараха OpenAI да въведе допълнителни ограничения – миналото лято достъпът до платформата в Китай беше напълно блокиран.

Новата система също така засилва борбата срещу злонамерените дейности. Докладите на OpenAI многократно цитират опити на свързани със Северна Корея групи да използват AI модели за кибератаки или дезинформация. Верификацията, наред с други неща, ще затрудни достъпа на такива организации до AI инструменти.

В същото време основните функции на OpenAI ще останат достъпни без верификация, а проверените потребители ще получат изключителен достъп до експериментални функции. Системата ще започне пълноценна работа през май-юни, синхронно с пускането на нови модели.

Коментар