
Учените, които следят развитието на AI, се опитват да обясняват защо „справедливият изкуствен интелект“ остава почти невъзможна цел. Един от най-интересните отговори на този въпрос е, че алгоритмите възпроизвеждат исторически неравенства.
Изследователите все по-често предупреждават: изкуственият интелект не създава пристрастия сам по себе си – той ги наследява от средата, в която е обучен.
И колкото повече AI се внедрява в наемането на персонал, банковото дело, обслужването на клиенти, образованието и съдебната система, толкова по-належащ става въпросът дали изобщо е възможно да се направят такива системи наистина справедливи.
Основният проблем е, че концепцията за „справедливост“ няма универсално определение. Във финансите справедливостта може да означава равен достъп до кредити, в наказателното правосъдие – минимизиране на дискриминацията срещу определени групи, а в образованието – равни възможности за успех.
Алгоритмите трябва да превърнат тези принципи в математически показатели, но всеки от тях неизбежно отразява човешките възприятия за това кои различия са приемливи и кои не.
Ситуацията се усложнява от самата природа на данните, върху които се обучават моделите. Изкуственият интелект анализира историческите решения на хора и организации, което означава, че автоматично абсорбира съществуващите социални дисбаланси.
Ако една компания е промотирала предимно мъже на ръководни позиции в продължение на години, алгоритъмът може да заключи, че тези кандидати са „най-успешните“, дори ако полът не се използва директно като параметър.
Подобен проблем възниква и в банковите системи. Хората от социално слаби групи често имат по-малко успешна или пълна кредитна история или по-ниски официални доходи поради минала дискриминация. За модела това може да изглежда като повишен финансов риск, въпреки че в действителност тази връзка далеч не винаги е вярна.
В резултат на всичко това алгоритъмът започва да възпроизвежда стари неравенства под прикритието на обективен анализ.
Учените подчертават, че опитите да се направи една система справедлива въз основа на един критерий често подкопават друг критерий. Например, алгоритъмът може еднакво точно да оцени вероятността от неизпълнение на заеми за различни групи от населението, но в същото време неправилно да отхвърля по-често една група и да издава по-рискови заеми на друга.
Въпреки че показателите за оценка може формално да бъдат изпълнени, последствията за отделните лица ще бъдат неравностойни, подчертават учените.
Припокриващите се групи са друг проблем за AI. Една система може да демонстрира „справедливост“ към жените като цяло и към етническите малцинства в частност, но едновременно с това систематично да дискриминира, например, възрастни жени от етническите малцинства. Такива групи обикновено са недостатъчно представени в данните, така че грешките срещу тях се губят в общата статистика и остават неоткрити.
Изследователите смятат, че този проблем не може да бъде решен единствено с технически средства. Дори най-сложните алгоритми работят в рамките на социални и политически системи, където вече съществуват неравенство и дисбаланс на властта.
Затова все повече експерти се застъпват за участие в разработването на AI не само на инженери, но и на самите хора, засегнати от автоматизираните решения, особено тези от уязвими общности.
При мащабните езикови модели задачата става още по-сложна. Такива системи се обучават върху огромни количества онлайн текст, които вече съдържат стереотипи, токсичност и културни предразсъдъци. Това означава, че справедливостта при решенията на AI престава да бъде еднократно техническо предизвикателство и се превръща в непрекъснат процес на наблюдение, преразглеждане и обществен дебат.
Изследователите подчертават, че вместо въпросът „справедлив ли е AI?“, е по-подходящо да се пита „за кого точно е справедлив, при какви условия и кой носи отговорност за последствията от решенията му“.
