
След като обвини конкурентите в кражба на технологии, OpenAI въвежда строг контрол на достъпа, биометрия и изолирани сървъри. Компанията се бори не само с външни заплахи, но и с вътрешни.
Разработчикът на ChatGPT значително затегна мерките си за сигурност в отговор на опасенията относно корпоративния шпионаж. Според източници на Файненшъл Таймс, затягането на сигурността, което започна по-рано, се е ускорило значително, след като конкурентен модел от китайския стартъп DeepSeek навлезе на пазара през януари тази година.
OpenAI обвини DeepSeek в незаконно копиране на моделите му, използвайки техники за „дестилация”. Като част от засилените мерки за сигурност компанията въвежда политика за „ограничаване на информацията”, която отнема достъпа на служителите до поверителни алгоритми и нови продукти.
Така например, по време на разработването на модела OpenAI o1, само доверени членове на екипа с достъп до информация за проекта са имали право да обсъждат разработката в споделени офис пространства, отбелязва TechCrunch.
Освен това OpenAI изолира собствените си технологии на самостоятелни компютри, внедрява биометричен контрол на достъпа до офис пространства (сканиране на пръстови отпечатъци на служителите) и използва политика за „отказ по подразбиране” за достъп до интернет, която изисква изрично разрешение за външни връзки.
Компанията за изкуствен интелект засилва също така физическата сигурност в своите центрове за данни и разширява екипа си по киберсигурност. Промените изглежда отразяват по-широки опасения относно опитите на чуждестранни конкуренти да откраднат интелектуалната собственост на OpenAI.
Въпреки това, предвид продължаващата „война за таланти” сред американските компании за изкуствен интелект и все по-често изтичащите коментари от главния изпълнителен директор Сам Алтман, OpenAI изглежда се бори и с вътрешни проблеми със сигурността.
