Зоват ЕС да мисли за правата на човека, подготвяйки закона за AI

150 правозащитни организации призоваха ЕС да не се поддава на лобистки натиск от страна на Big Tech, когато гласува закона за изкуствения интелект (снимка: CC0 Public Domain)

Наскоро група от правозащитни организации и обединения на гражданското общество настояха институциите на Европейския съюз да подобрят защитата на основните човешки права при изготвянето на предстоящия Закон за изкуствения интелект. Дали обаче ще бъдат чути?

През май 2023 г. комисиите в Европейския парламент гласуваха поредица от изменения на ЗИИ – включително редица забрани за „натрапчиви и дискриминационни“ системи, както и мерки за подобряване на отчетността и прозрачността при внедряване на AI. Всички тези мерки по-късно бяха приети от целия парламент по време на пленарно гласуване – през юни.

Измененията обаче представляват само проект, който тепърва ще е обект на преговори. Те би трябвало да са на ход тези дни, при закрити врата. В тях следва да участват Европейският съвет, Парламентът и Комисията. А те имат доста различни позиции по набора от въпроси за избистряне.

Позицията на Съвета, например, е за въвеждането на по-голяма секретност при внедряването на ИИ от служби като полицията. Същевременно Съветът иска да разшири кръга на т. нар. изключения, при които внедряването на ИИ е улеснено в контекста на правоприлагането и миграционните процеси.

Парламентът, от друга страна, избра пълна забрана на предиктивните полицейски системи. Той подкрепя разширяването на обхвата на публично достъпната база данни на ЗИИ за т. нар. системи с висок риск, така че базата да обхваща и тези, внедрени от публични органи.

Притесненията

Преди преговорите Human Rights Watch, Amnesty International, Access Now, European Digital Rights (EDRi), Fair Trials и десетки други групи на гражданското общество призоваха ЕС да забрани редица приложения с ИИ, за които има данни, че са вредни, дискриминационни или водят до злоупотреби.

Организациите настояват да има задължителна оценка на въздействието върху основните човешки права и то през целия жизнен цикъл на системите с ИИ. Освен това правозащитниците настояват за ефективни правни средства за хората, които са негативно засегнати от ИИ.

„В Европа и по света AI системите се използват, за да ни наблюдават и контролират в обществени пространства, да предсказват вероятността ни да извършим престъпление в бъдеще, да улесняват нарушенията на правото на искане на убежище, да предсказват нашите емоции и да ни категоризират, както и да вземат съдбоносни за хората решения, които определят достъпа до обществени услуги, социални помощи, образование и заетост“, пишат организациите в изявление.

„Без силна регулация компаниите и правителствата ще продължат да използват ИИ системи, които насаждат масово наблюдение и следене, структурна дискриминация, централизирана власт на големите технологични компании, безотчетно публично вземане на решения и нанасяне на щети върху околната среда“, допълват те.

Организациите призоваха институциите на ЕС „да гарантират, че разработването и използването на ИИ е отговорно, публично прозрачно и че хората са овластени да оспорват вредите“.

Приложения при национална сигурност и военни дела

За подписалите изявлението основната спорна точка около ЗИИ в сегашния му вид е, че употребата на ИИ в системите на националната сигурност и военното дело са напълно освободени от неговите разпоредби. Използването на ИИ от страна на правоприлагащите органи пък е частично освободено.

Ето защо групите призовават институциите на ЕС да очертаят ясни ограничения за прилагането на ИИ от органите за национална сигурност, правоприлагането и миграционните органи. С особена сила това следва да важи, когато става въпрос за „вредни и дискриминационни“ практики за наблюдение и следене. Правозащитниците настояват, че тези ограничения трябва да включват:

  • пълна забрана на технологиите за „дистанционна биометрична идентификация“ в реално време и ретроспективно в публично достъпни пространства, от всички участници и без изключение;
  • забрана на всички форми на предиктивна охрана;
  • премахване на всички вратички и изключения за правоприлагането и миграционния контрол;
  • пълна забрана на системите за разпознаване на емоции.

Според правозащитните организации, ЕС трябва да отхвърли опита на Съвета на ЕС да налоби „общо изключение“ за ИИ системи, разработени или внедрени за целите на националната сигурност.

Граждански контрол

Групите също така призовават ЕС за повече граждански контрол. Искането е ЕС да „упълномощи по подходящ начин членовете на обществеността да разбират и да оспорват използването на системи с изкуствен интелект, тъй като е „решаващо“ ЗИИ да има ефективна рамка за отчетност, прозрачност, достъпност и обезщетение.

Като част от това е необходимо да има задължение за всички организации, внедряващи ИИ системи, да извършват и публикуват оценки на въздействието върху основните човешки права – преди всяко внедряване на високорискова ИИ система. Тези организации трябва да регистрират използването на ИИ в публично видима база данни на ЕС, още преди внедряването.

Не на последно място следва да се гарантира, че хората са уведомени и имат право да търсят информация, когато са засегнати от ИИ системи.

Лобизмът като пречка

И накрая, групите за защита на правата на човека призовават ЕС да отблъсне лобистките опити на големите технологични компании. Преговарящите „не трябва да се поддават на лобистките усилия на големи технологични компании, които се стремят да заобиколят регулациите заради финансовите си интереси“.

Според най-нови данни, в последните години големите технологични корпорации са превзели списъка на фирмите с най-голям бюджет за лобиране в ЕС, измествайки оттам фармацевтичните бизнеси и петролните корпорации. През 2021 г. големите технологични фирми са похарчили повече от 97 милиона евро за лобиране в ЕС, за да се чуят гласовете им в ЕС.

Коментар