AI: все повече опасения за расова дискриминация

Липсата на определение за изкуствен интелект е разбираема, но също така и проблематична
(снимка: CC0 Public Domain)

Приложението на изкуствения разум в ключови сфери от обществения живот като здравеопазването и банковото дело може да доведе до дискриминиране на определени групи потребители. Темата все по-често предизвиква тревога у научните среди и бизнеса. Публикациите и анализите на изследователите сочат, че рискът от „изкривявания” е не само реалистичен, но и твърде вероятен.

Милиони долари се изразходват за разработване на софтуер за изкуствен интелект, който да автоматизира част от човешката работа. Надеждата е, че компютърният ум не само може да отмени много от дейностите, включително оцеляване според стандартизирани критерии, но и да спести човешки грешки. Оказва се обаче, че изкуственият разум прави свои, компютърни грешки. А те могат да са определящи за създаването на нови видове неравенства.

Четене на рентгенови снимки

Милиони долари се влагат в разработване на софтуер за изкуствен интелект, който да чете рентгенови снимки и други образци на образната диагностика. Надеждата е, че той може да забележи неща, които лекарите търсят, но понякога пропускат, като например рак на белия дроб. Ново проучване, за което съобщава Wired, установи, че тези алгоритми могат да видят и нещо, което лекарите не търсят: расата на пациента.

Авторите на изследването и други експерти по медицински изкуствен интелект предупреждават, че подобни резултати трябва да ни тревожат. Здравните алгоритми следва да работят справедливо и еднакво с хората с каквато и да е расова идентичност.

Доказателства, че алгоритмите могат да разгадаят расата на база образна диагностика, водят началото си от тестове върху пет вида изображения, използвани в радиологичните изследвания, включително рентгенови снимки на гърди и ръце, както и мамографии. Изображенията са на пациенти, които са се идентифицирали като чернокожи, бели или азиатци.

За всеки тип снимки изследователите са обучили алгоритми, използвайки изображения, обозначени с расата на пациента. След това учените захранили алгоритмите за прогнозиране на расата на пациентите с различни изображения без етикет.

Радиолозите обикновено не считат расовата идентичност на човека за видима при рентгеновите снимки, които „гледат” под кожата. И все пак алгоритмите по някакъв начин са се научили да я откриват. При това с точност и за трите расови групи, освен това и за различните позиции на тялото.

Дори най-зле работещият алгоритъм е успял да отгатне расата в 80% от случаите; най-добрата разработка е дала 99 процента точност. Резултатите и свързаният с тях код бяха публикувани онлайн в края на миналия месец от група от повече от 20 изследователи с опит в областта на медицината и машинното обучение, но проучването все още не е рецензирано.

Изнесените данни породиха нови опасения, че софтуерът за изкуствен интелект може да засили неравенството в здравеопазването. За този проблем проучванията показват, че маргинализираните расови групи често получават по-слаба грижа в сравнение с богатите или белите хора.

Банкиране и кредити

Подобно нещо може да се случи и в света на банките и застраховането. Банките, групи за защита на потребителите и мозъчни тръстове в САЩ наскоро предупредиха, че са налице „потенциални капани при използването на изкуствен интелект и машинно обучение при вземане на решения за отдаване на заем”.

Силата на предсказване при моделите за машинно обучение може да увеличи потенциалните рискове „поради по-голямата сложност на моделите и техния потенциал да изострят историческите различия и недостатъци в основните данни”, според изследователите от FinRegLab. AI и машинното обучение могат да засилят моделите на дискриминация и финансово изключване.

Звучи много витиевато? Базираният в Бостън американски Национален център за защита на потребителите беше далеч по-откровен. Той предупреди в писмо от 1 юли до регулаторните органи, че „използването на сложни, непрозрачни алгоритмични модели при транзакции с потребителски кредити увеличава риска от незаконна дискриминация и… измами и злоупотреби”.

Юридическият център отбеляза, че дори няма единно виждане относно дефиницията на „изкуствен интелект”. Това само по себе си е извор на загриженост относно начина, по който се използва.

„Липсата на определение за AI е разбираема, но също така е проблематична”, пише групата. „Възможно е да има неправилни предположения, че използването на AI задължително прави системата по-точна или предсказуема или че е безпристрастна и безспорно справедлива”.

Регулации

Регулаторното ограничаване на възможностите за подобни „грешки” е предизвикателство. За създаването на нормативна база в тази област законотворците трябва да са пределно наясно с технологиите на изкуствения интелект. А неговото развитие е такова, че е трудно да се предвиди какви ситуации биха могли да възникнат.

На свой ред регулаторите, които ще прилагат новите норми, трябва да гарантират, че се спазват законите за справедливо отношение и че машинното обучение не води до отказ на дадена услуга, поради причини като раса и пол.

Коментари по темата: „AI: все повече опасения за расова дискриминация”

добавете коментар...

  1. Бабави

    И откакво да се опасяваме?
    Че ако сме еди какви си няма да получим заем, защото сме повече или долни?
    Или че, ще ни се дадат такива лекарства , а не еди какви си?
    Все пак добре е да сме предупредени.
    Пък те нека си гледат работата.

Коментар