Обмислят сертифициране на рискови AI модели

Необходими са ограничения, които да гарантират, че AI се използва отговорно
(снимка: CC0 Public Domain)

Нарастват опасенията, че изкуственият интелект може да се използва за дискриминация или разпространение на злонамерена информация. Ето защо администрацията на президента на САЩ Джо Байдън започна да проучва необходимостта от тестване и сертифициране на AI инструменти като ChatGPT.

Министерството на търговията на САЩ излезе с официално изявление относно необходимостта от сертифициране на потенциално рискови нови модели на изкуствен интелект, преди да бъдат пуснати, съобщи Уолстрийт Джърнъл.

„Знаем, че трябва да поставим някои ограничения, за да сме сигурни, че AI моделите се използват отговорно”, каза Алън Дейвидсън, ръководител на Националната администрация по телекомуникации и информация към Министерството на търговията на САЩ. 60 дни са предвидени за обществено обсъждане на този въпрос.

Миналата седмица Джо Байдън обсъди темата в Белия дом с консултативен съвет, включващ представители на Microsoft и Google. Попитан от репортер дали AI технологията е опасна, Байдън отговори: „Това предстои да видим. Може би”.

Microsoft, Google и други компании за изкуствен интелект заявиха, че непрекъснато актуализират мерките за сигурност, включително програмиране на чатботове, така че да не дават отговори на определени въпроси.

„Вярваме, че мощните AI системи трябва да бъдат обект на строги оценки на сигурността”, заяви в блога си разработчикът на ChatGPT – компанията OpenAI. „Необходима е регулация, за да се гарантира възприемането на такива практики и ние активно се ангажираме с правителството в най-добрата форма, която може да приеме такава регулация”.

При липсата на федерален закон, регулиращ използването на AI системи, някои правителствени агенции използват съществуващите законови лостове.

Антитръстовото подразделение на Министерството на правосъдието заяви, че наблюдава конкуренцията в сектора, а Федералната търговска комисия предупреди компаниите за правните последици от отправянето на неверни или необосновани твърдения относно AI продуктите.

Коментар