Етиката при AI да се вгражда още при проектирането

Наличието на коректни набори от данни за обучение на системите с изкуствен разум остава един от най-големите проблеми пред разработчиците (снимка: CC0 Public Domain)

При създаване на системи с изкуствен интелект бизнесът трябва да мисли за етиката от самото начало, когато започне да концептуализира и разработва AI решенията. Това ще помогне за отговорното и безпристрастно внедряване на AI инструментите.

В разработката на продукти с изкуствен разум следва да се прилага подходът, познат от света на сигурността. Там принципът „сигурност още при проектирането“ води до необходимостта от оценка на рисковете в самото начало. Така се избягват прекъсванията в работата и скъпото преоборудване на по-късен етап.

Същият начин на мислене следва да се приложи и при разработването на AI продукти, казва Кати Бакстър, главен архитект за етичните AI практики на Salesforce.com. Тя подчертава необходимостта организациите да отговарят на основни стандарти за етика при създаването на AI.

Уроците от киберсигурността

Има много уроци, които могат да се научат от индустрията за киберсигурност, която се е развила само за няколко десетилетия, откакто първият зловреден софтуер се появи през 80-те години. За сектор, който дори не е съществувал дотогава, киберсигурността бързо трансформира начина, по който компаниите защитават своите системи, с акцент върху идентифициране на рисковете от самото начало и разработване на базови стандарти и разпоредби, които трябва да бъдат приложени.

В резултат на това повечето организации прилагат основни стандарти за сигурност, които всички заинтересовани страни – включително служители и партньори – трябва да спазват. Всички нови работници, които постъпват в дадена организация, обичайно преминават през процес на ориентиране и обучение. В рамките на тази подготовка компанията очертава какво се очаква от служителите по отношение на практиките за киберсигурност, като например използване на силна парола и на VPN.

Същото трябва да се случва и по отношение на етиката в AI. Нещо повече, сериозните фирми дори имат свои вътрешни екипи, които са посветени изцяло на този въпрос.

Отново като част от практиките за етично разработване на AI системи добра идея е да има вътрешни ресурси, които да помогнат на служителите да оценят дали дадена задача или услуга трябва да бъде изпълнена въз основа на насоките на компанията за етика – и да разберат къде са границите. Така например, дадено решение, свързано с дигиталния маркетинг, не може да се използва за разпознаване на лица. Съответно всеки член на отдела за продажби, който не е наясно с това и се опитва да продаде продукта като система с лицево разпознаване, ще се явява в нарушение на политиките на компанията.

И точно както практиките за киберсигурност биват редовно преразглеждани и подобрявани, за да бъдат в крак с променящия се пейзаж на заплахите, това трябва да се прави и с политиките, свързани с етиката на изкуствения разум. Това е критично, тъй като обществата и културите се променят с течение на времето. Ценностите, считани за уместни преди 10 години, може вече да не са в съответствие с възгледите на населението днес. Затова AI продуктите следва да отразят промените в мисленето.

Данните – ключов проблем

Въпреки че наличието на ясни и стройни политики би могли да смекчи някои рискове от изкривявания в AI, остават други предизвикателства – по-специално достъпът до данни. Липсата на достатъчен обем или разнообразие може да доведе до неточно представяне на дадена индустрия или даден сегмент.

Това е значително предизвикателство за много сектори и в много страни. Когато AI моделите биват обучавани на база ограничени набори от данни, базирани на тясна подгрупа от населението например, това може да повлияе на предоставянето на съответните услуги и способността за коректно изпълняване на ангажиментите.

Донякъде решение може да бъде закупуването на данни от външни източници. Например, могат да се закупят лингвистични данни, които се използват за обучение на чатботове. Друг вариант е да се използват синтетични данни.

Що се касае до ролята, която регулаторите играят в управлението на етиката на изкуствения интелект, налагането на категорични изисквания може да бъде трудно, тъй като все още има много неясноти относно способностите на изкуствения разум и взаимодействието му с човека.

Справедливост – що е то

Един от големите въпроси, когато става дума за етика и за регулации при AI, е що е справедливост. Определянето на това понятие само по себе си е сложно. Могат да се намерят поне две дузини различни дефиниции, всяка с различен нюанс. И все пак това, което е справедливо за една група, неизбежно ще бъде по-малко справедливо за друга група хора.

Важно е да се разсее погрешното схващане, че AI системите по подразбиране са справедливи, просто защото са машини и следователно са лишени от пристрастия. Организациите и правителствата трябва да положат усилия, за да гарантират, че ползите от изкуствения разум са равномерно разпределени и че приложението му отговаря на определени критерии за отговорно създаден синтетичен интелект.

Коментар