Първи притеснения за прилагането на еврозакона за AI

Има твърде голям риск надзорните органи по закона на ЕС за изкуствения разум да се окажат подвластни на политически или корпоративен натиск (снимка: CC0 Public Domain)

Европейско обединение от организации на гражданското общество призова за независимост на националните регулаторни органи, отговорни за контрола на изкуствения интелект. Групата от над 30 сдружения заяви, че Еврокомисията трябва да изясни на държавите-членки, че националните органи, прилагащи закона, трябва да бъдат действително независими.

Обединение от 34 организации на гражданското общество изпрати съвместно писмо до Еврокомисията с настояване да се обърне внимание на проблема с независимостта на националните регулатори, натоварени с отговорността да съблюдават прилагането на новия европейски Закон за изкуствения интелект.

Писмото е адресирано до Роберто Виола – генералния директор на дирекция комуникации в ЕК. То е изпратено от Европейската организация на потребителите BEUC. „Комисията трябва да изясни на държавите-членки, че националните органи, които прилагат Закона за AI, трябва да бъдат независими,“ подчертава BEUC.

„Пишем от името на 34 граждански организации относно определянето на национални органи за надзор на пазара съгласно Закона за изкуствения интелект… Член 70, параграф 1 от Закона за AI е много ясен и изисква властите да „упражняват правомощията си независимо, безпристрастно и без изкривявания […], за да защитят обективността на своята дейност и задачи”. Ние обаче сме дълбоко обезпокоени да видим, че някои от първите органи за пазарен надзор, които ще бъдат назначени, няма да успеят да изпълнят изискванията за независимост и безпристрастност на Закона за AI, тъй като са политически повлияни или зависими от правителството“.

BEUC дава за пример новоназначения датски орган „Агенция за цифрово управление“, който, наред с други неща, „отговаря за прилагането на политиките на датското правителство за развитие на цифровия публичен сектор“. Друга илюстрация са италианските власти AGID – Агенция за цифрова Италия и Италианската национална агенция за киберсигурност. Ръководителят на Националната агенция за киберсигурност наскоро беше заснет на митинг на управляващата политическа партия в Италия.

„Правителствата по целия свят се стремят да станат лидери в областта на AI и осигуряват благоприятна среда за компаниите, участващи в разработването на AI. Има значителен политически натиск изкуственият разум да се използва AI както в частния, така и в публичния сектор. Това може да доведе до недостатъчни или нулеви действия за справяне с вредите от тези технологии. Политическите приоритети не трябва да подкопават работата на независимите регулатори“, казва писмото.

„Докато органите за надзор на пазара в други норми на ЕС относно безопасността на продуктите може да са свързани с министерства и да се управляват политически, това не трябва да се случва с органите по закона за изкуствения интелект. AI има потенциала да подобри живота на хората, но само ако е разработен и внедрен с оглед на потребителите и основните човешки права. Безпрецедентният обхват и силата на тази технология във всички аспекти на нашия живот, включително нейните потенциални рискове и вреди за потребителите и обществото, изисква регулаторите да се справят с възможните ексцесии на технологията. Поради това е изключително важно регулаторите да могат да работят независимо и безпристрастно, както се изисква от Закона за AI, и без неоправдано влияние от страна на правителства или частни компании“, пише в документа.

След такава аргументация BEUC и представляваните от нея 34 организации призовават Комисията да издаде „разясняващо изявление“ за всички държави-членки. В него трябва да се посочи ясно, че всеки орган за пазарен надзор, назначен да прилага еврозакона за AI, трябва да бъде изцяло независим орган, който не може да бъде инструктиран от правителството, нито от политически или корпоративен натиск.

Коментар