
Нови правила за разработване и използване на модели с изкуствен интелект с общо предназначение (ИИОП) влязоха в сила в ЕС на 2 август. Институт GATE към СУ „Св. Климент Охридски” е сред експертните участници в разработването на Кодекса за поведение.
ИИОП са технологии, които стоят в основата на системи като ChatGPT, Copilot и други генеративни AI решения. Новитe правила на ЕС са част от прилагането на Акта за изкуствения интелект (AI Act) и изискват от разработчиците на такива AI модели да:
- поддържат и актуализират техническа документация;
- предоставят ясна и достъпна информация на организациите, които използват тези модели в свои продукти и услуги;
- прилагат политики за спазване на авторското право;
- публикуват обобщение на данните, използвани за обучение на модела, по образец, одобрен от Европейската комисия.
В допълнение на тези мерки доставчиците на модели на AI с общо предназначение, пораждащи системен риск, трябва да извършват оценка на модела в съответствие със стандартизирани протоколи и инструменти, да оценяват и ограничават възможните системни рискове на ниво ЕС, да проследяват, документират и докладват на Службата по AI инциденти и да гарантират подходящо равнище на защита на киберсигурността.
Системни са, например, рисковете, свързани с дискриминация срещу определена група от населението, които, ако бъдат пренесени от модел с общо предназначение, биха могли да засегнат милиони потребители, поясниха от институт GATE.
В подкрепа на прилагането на тези изисквания, през юли ЕК представи и Кодекс за поведение за модели с общо предназначение – доброволен документ, предлагащ насоки за етично и отговорно използване на AI, включително прозрачност, авторски права, сигурност и управление на риска.
Макар и доброволен, Кодексът вече се възприема от водещи компании и организации като добросъвестен ориентир за съответствие с бъдещите правни изисквания. Той допринася за изграждане на доверие, защита на основните права и ефективно управление на рисковете по цялата верига – от разработчици и доставчици на AI модели до крайните потребители.
Институт GATE – първият Център за върхови постижения в областта на големите данни и изкуствения интелект в Източна Европа – е сред експертните участници в разработването на Кодекса за поведение, като участва в две от специализираните работни групи: „Прозрачност и авторски права” и „Управление на риска в организациите”.
„Създаването на Кодекса е важна стъпка към реалното прилагане на етични и правни принципи в технологичната практика. Участието ни в този процес е част от нашия ангажимент за изграждане на етична, сигурна и отговорна AI екосистема, която да служи на обществото. За нас в GATE е от значение и да създаваме среда, в която разработените политики да могат да бъдат тествани и усъвършенствани”, коментира Иво Емануилов, ръководител на Лабораторията за експериментално регулиране и цифрови политики (GATE ERPL) и представител на института в работните групи.
GATE продължава да развива своя принос чрез Лабораторията за експериментално регулиране и цифрови политики – новата иновационна лаборатория, създадена за разработване, тестване и оценка на технологични решения и политики, свързани с изкуствения интелект. Тя предлага:
- хибридна среда, която комбинира правен, етичен и технологичен анализ;
- възможности за прототипиране на регулаторни модели;
- контролирана среда за тестване на реалната приложимост и безопасност на AI технологии.
Лабораторията за експериментална регулация е първата по рода си в България и една от малкото в ЕС, която позволява реална проверка на ефективността и въздействието на нови AI решения още преди тяхното въвеждане на пазара.
