ЕС публикува кодекс за AI на човешко ниво

Европа засега е най-напред в регулациите на изкуствения интелект
(снимка: CC0 Public Domain)

Европейската комисия публикуваха вчера първия проект на Практически кодекс за модели на изкуствен общ интелект (AGI), известен също като „силен AI” и „AI на човешко ниво”. Документът, който ще бъде финализиран до май следващата година, очертава насоки за управление на риска, очертава план за съответствие и начини компаниите да избегнат големи глоби.

Европейският „Закон за AI” влезе в сила на 1 август, оставяйки място за бъдещи правила за общ AI. Този проектодокумент е първи опит да се изясни какво се очаква от усъвършенстваните AI модели, отбелязва Engadget. На заинтересованите страни се дава време за обратна връзка и предложения за подобрения, преди регламентите да влязат в сила.

AI моделите с общо предназначение се дефинират като системи, обучени с изчислителна мощност от повече от 10²⁵ флопса. Компаниите, които се очаква да бъдат обхванати от документа, са OpenAI, Google, Meta, Anthropic и Mistral – този списък може да се увеличи.

Кодексът обхваща няколко аспекта в разработката на общ AI: прозрачност, спазване на авторски права, оценка на риска и намаляване на техническия и управленския риск. Разработчиците трябва да разкрият уеб роботите, използвани за обучение на модели – това е важно за притежателите на авторски права и създателите на съдържание. Оценката на риска включва мерки за предотвратяване на киберпрестъпления, включване на дискриминационни материали в комплекти за обучение и загуба на контрол върху AI.

Очаква се разработчиците на AI да формулират рамка за безопасност и сигурност (SSF). Този документ ще помогне за структуриране на политики за ограничаване на заплахите и тяхното смекчаване пропорционално на отделните системни рискове.

Предложените от ЕС регламенти обхващат и технически области, включително защита на AI моделите, осигуряване на устойчив на грешки контрол на достъпа и непрекъсната преоценка на тяхната ефективност.

Разделът, описващ механизмите за взаимодействие с властите, предвижда прилагане на отчетност от самите разработчици: необходима е постоянна оценка на риска и, ако е необходимо, участие на експерти от трети страни в оценката.

Нарушаването на Закона за AI носи сериозна глоба до 35 милиона евро или 7% от глобалните годишни приходи, което от двете е по-голямо. Страните, засегнати от законопроекта, могат да представят коментари до 28 ноември. Документът ще бъде финализиран до 1 май 2025 г.

Коментар