Съдии, а не политици ще определят AI правилата в САЩ

Американски юристи загатват, че конфликтът между разработчиците на AI и творците може да завърши с появата на система за лицензиране и възнаграждения (снимка: CC0 Public Domain)

Изглежда, че съдилищата, а не политиците, ще бъдат тези, които ще определят правилата и ограниченията за разработването и прилагането на системи с изкуствен интелект в САЩ. Този подход драстично се различава от европейския.

Наскоро в щатите започна разследване: дали OpenAI е нарушил законите за защита на потребителите, като е “скрапирал“ онлайн данните на милиони хора, за да обучи алгоритъма на своя AI чатбот ChatGPT. Междувременно художници, автори и дори собственици на снимкови библиотеки съдят компаниите за изкуствен интелект като OpenAI, Stability AI и Meta. Обвинителите твърдя, че въпросните фирми са нарушили законите за авторското право, като са обучавали моделите си върху авторски творби, без да предоставят никакво признание или плащане.

Ако съдебните процедури се окажат успешни, те биха могли да принудят OpenAI, Meta, Microsoft и други компании да променят начина, по който изграждат AI. Може би дори ще се намерят нови начини за възнаграждаване на артисти, автори и други творци – за това, че творчеството им се използва като обучителни данни за AI модели. Навярно дори ще се развие цяла система за лицензиране и възнаграждения?

Всичко това се задава на хоризонта, докато политиците продължават да говорят за създаването на закони за изкуствения интелект.

Бавното изковаване на законите

Бумът на генеративните системи с изкуствен интелект подтикна някои американски политици да заговорят за приемането на специфични закони за изкуствения интелект. Въпреки това е малко вероятно подобно законодателство да бъде прието в рамките на година, казва Бен Уинтърс, старши съветник в Electronic Privacy Information Center. Причината е в разделението в Конгреса и интензивното лобиране от страна на технологичните компании. Дори най-видният опит за създаване на правила за изкуствения интелект в САЩ, а именно рамката “SAFE Innovation” на сенатор Чък Шумър, не включва конкретни предложения за закон.

Някои местни политици напомнят, че през това време ЕС работи усилено по създаването на своя собствена норма за регулиране на AI. Говори се, че целият свят очаква с нетърпение да види резултата от този проект. Той евентуално ще се превърне в образец в глобален мащаб. Така поне се случи с нормата за защита на личните данни GDPR, която бе подготвяна дълго и старателно и в крайна сметка стана модел за подражание за страните извън ЕС.

Тогава какво следва за американците, докато техните политици се бавят с подготовката на закони за AI? „Изглежда, че по-простият път [към регулирането на AI е] да се започне със съществуващите закони“, казва Сара Майерс Уест, управляващ директор на AI Now Institute, изследователска група.

А това ще означава съдебни дела.

Съдът като път

САЩ са пословични с воденето на съдебни дела за какво ли не. Съществуващите там норми предоставят много оръжия на онези, които казват, че правата им са били накърнени – в случая от компаниите за ИИ.

Най-скорошният пример е комикът и автор Сара Силвърман. Тя твърди, че OpenAI и Meta са “скрапирали“ незаконно нейните материали в интернет, които са защитени с авторски права, за да обучат AI моделите си. Твърденията на дамата са подобни на тези на група художници в друг групов иск, който твърди, че популярен AI софтуер за генериране на изображения е използвал авторски изображения на въпросните художници, но без тяхното съгласие.

Microsoft, OpenAI и AI инструментът за програмиране Copilot на GitHub също са изправени пред колективен иск. В него пък се твърди, че AI средствата разчитат на „софтуерно пиратство в безпрецедентен мащаб“, тъй като системите за програмиране се учат на база на съществуващ програмен код, “скрапиран“ от уебсайтове.

Разследвания и съдебни дела може да завалят и от страна на държавни институции. И те са сериозно средство за промяна. Една държавна агенция може да осъди частните фирми по начин, който да промени нормативната основа в страната.

Например, Федералната търговска комисия може да изиска OpenAI да плати глоби или да изтрие всички данни, които са били незаконно използвани, та дори и да да изтрие алгоритмите, които са използвали незаконно събраните данни, казва Марк Ротенберг, президент и основател на Центъра за изкуствен интелект и цифрова политика (CAIDP) – организация с нестопанска цел.

В най-крайния случай ChatGPT може да бъде свален офлайн. Има такъв прецедент вече: агенцията накара компанията за диетични приложения Weight Watchers да изтрие своите данни и алгоритми през 2022 г. след незаконно събиране на данни за деца.

Други правителствени органи също могат да се намесят, например правоприлагащите агенции могат да започнат свои собствени разследвания. Бюрото за финансова защита на потребителите например сигнализира, че проучва използването на AI чатботове в банкирането.

Трудни съдебни схватки

Кога ще се появят резултатите от съдебните дела? Може да отнеме поне няколко години, преди груповите искове да доведат до вземането на важни решения.

Много от съдебните дела, заведени тази година, ще бъдат отхвърлени от съдиите като твърде широкобхватни, смята Мехтаб Хан, постоянен сътрудник в Юридическия факултет на Йейл, който специализира в интелектуалната собственост, управлението на данни и етиката на AI. Но тези дела все ще послужат на важна цел. Адвокатите “хвърлят широка мрежа и ще гледат какво ще се хване“. Това позволява занапред да се оформят по-прецизни съдебни дела, които могат да накарат компаниите да променят начина, по който изграждат и използват своите AI модели.

Съдебните дела могат също така да принудят компаниите да подобрят своите практики за документиране на данни, казва Хан. В момента технологичните компании имат много елементарна представа какви данни влизат в техните AI модели. По-добрата документация събирането и използването на данните е в състояние да разкрие всякакви незаконни практики. И фирмите имат мотив да подобрят практиките си за документацията, защото от друга страна това може да им помогне да се защитят в съда.

Потенциалът на реактивния подход

Американските юристи признават, че този подход – да се чака резултат от съдебните дела, вместо да се създават закони – е по-скоро реактивен. С това той се отличава от метода на работа в други страни, където властите искат да предотвратят най-лошите последици от AI и работят проактивно.

Надеждата е, че реактивният подход все пак ще донесе някои практически ползи. Редица адвокати посочват случая с Napster, P2P системата за споделяне на музика. Компанията беше съдена от звукозаписните компании за нарушаване на авторски права и това доведе до забележително дело относно честната употреба на музика. Споразумението с Napster постла пътя за компании като Apple, Spotify и други да започнат да създават нови лицензионни сделки, казва Матю Бътерик, адвокат в кантора, която представлява Силвърман.

Юристът се надява, че подобни съдебни дела ще постелят пътя към постигането на лицензионно решение, при което артисти, писатели и други притежатели на авторски права ще могат да получават възнаграждения за използването на тяхното съдържание в AI моделите, подобно на системата в музиката индустрия за работа с мостри от песни.

Коментар