Умните алгоритми могат да дискриминират „неволно“

Сложните аналитични технологии, използвани от банките и застрахователите за вземане на бизнес решения, могат неволно да дискриминира някои потребители (източник: CC0 Public Domain)

Големите данни и базираните на тях анализи в различни сектори могат да дискриминират определени потребители. Темата стана гореща отново, след като американски финансисти предупредиха, че подобни изкривявания са много вероятни в банковия и застрахователния сектор, а най-голямата социална мрежа бе атакувана заради алгоритмите, които използва за показване на определени реклами на определени потребители.

Финансови „големи данни“

Сложните аналитични технологии, използвани от банките и застрахователите за вземане на бизнес решения, могат неволно да дискриминира някои потребители. За това предупреди новият шеф на регулатора по на финансовите услуги в Ню Йорк Линда Лейсуел, цитиран от Ройтерс.

„Големите данни – това е риск и възможност“, каза Лейсуел, действащ суперинтендант на Нюйоркския държавен департамент по финансови услуги (NYDFS) на форум на застрахователните адвокати. „Трябва да сме сигурни, че начинът, по който [технологията] се прилага, не вреди на крайния потребител на продукта“, каза Лейсуел.

Коментарът на Лейсуел бе направен в момент, когато все повече застрахователни компании и банки разчитат на умни технологии и автоматизация, за да си помогнат при вземането на решения, вариращи от определяне на допустимостта за застраховане до премиите до кредитоспособност. Паралелно с това нараства и безпокойството сред регулаторите относно сложните математически формули, които се използват за вземане на тези решения.

„Имаме много работа в технологичната индустрия и това ще бъде фокус за нас“, каза Лейсуел. Застрахователните компании ще трябва да оценят въздействието на използваните алгоритми и да отговорят дали резултатите им не създават условия за дискриминация.

„Не ми се вярва, че човекът, който създава подобен алгоритъм, умишлено ще се опитва да дискриминира някого и да изключи дадена група, но какво е въздействието на [създадения от него] алгоритъм?” – реторично запита Лейсуел.

Темата е продължение на започнат по-рано дебат относно алгоритмите, които финансовите институции използват за оценка на потребителите си. Дискусията стартира още в началото на годината, когато регулаторът беше под управлението на Мария Въло, предшественик на Лейсуел. Под ръководството на Въло агенцията издаде ръководство, което позволява на застрахователите в Ню Йорк да използват данни от социални медии и други нетипични източници, когато оценяват премиите за своите потребители. Въло обаче също подчерта тогава, че боравенето с подобни източници и анализът на данни не бива да „дискриминират определени клиенти”.

Обяви за работа и реклами

Манипулации са възможни и в социалните медии и това отново може да доведе до дискриминация, разкри проучване, свързано с рекламите във Facebook. Ново академично изследване показа, че алгоритмите на Facebook могат да канализират някои обяви за работа по начин, който е дискриминационен – дори когато рекламодателите не прилагат каквито и да е стереотипи и отговарят рекламата им да бъде еднакво видима за всички потенциално заинтересовани.

Група от изследователи от Североизточния университет в САЩ, Университета в Южна Калифорния и групата за защита на гражданските права Upturn е пуснала реклами, които търсят хора за работни места в дърводобивната промишленост и за учители в предучилищни заведения. Обявите трябвало да бъдат добре балансирани по пол. Въпреки това Facebook е рекламирала първото повече сред мъже, а обявата за учители – повече сред жени.

Facebook предлага големи възможности на рекламодателите да избират кой да вижда техните реклами, като гарантира, че рекламите на пелени се изпращат най-вече на младите родители, а поканите за финансиране на политическите кандидати се виждат предимно от техни поддръжници. Но дори след като рекламодателите изберат всички хора поравно да виждат съобщенията, Facebook несъзнателно избира кой всъщност да гледа анонсите, основавайки се отчасти на „знанието“ на алгоритмите си – които предсказват кой потребител на какво е склонен да кликне.

Закон за „безпристрастност“ на алгоритмите

Всичко това се случва в момент, в който американски законодатели представиха законопроект, който ще изисква от големите компании да одитират системите за машинно самообучение и изкуствен интелект, за да гарантират тяхната „безпристрастност“.

Предложеният „закон за алгоритмичната отчетност“ ще изисква въвеждането на правила за оценка на „високо чувствителни“ автоматизирани системи. Компаниите ще трябва да преценяват дали алгоритмите, които захранват техните инструменти, не създават изкривявания или дискриминация, както и дали не представляват риск за неприкосновеността на личния живот или сигурността за потребителите.

В изявление относно създаването на проектозакона един от съавторите му, сенатор Рон Вайден, казва, че „компютрите все по-често участват във вземането на най-важните решения, засягащи живота на хората – дали човек може да си купи жилище, дали може да си намери работа – или дори да отиде в затвора”. По думите му, твърде често тези алгоритми зависят от пристрастни предположения или данни, които всъщност могат да засилят дискриминацията срещу определени групи хора.

В анонса за новия законопроект се споменава и случаят с рекламите на Facebook. В аргументацията става дума и за сходен проблем с Amazon, чиито обяви за работа в някои случаи се показват изключително на мъже и се дискриминират жените.

Коментари по темата: „Умните алгоритми могат да дискриминират „неволно“”

добавете коментар...

  1. ха

    Като говорим за дискриминация винаги се питам как трябва да се постъпи при следната ситуация. Имам фирма в дадено градче и търся някакъв служител. Пускам обява в интернет, НО за да няма дискриминация тя трябва да се върти в целия свят. Все пак може някой китаец да реши да се пресели, за да получи работата. То хубаво, но значи обяви на Apple и тези на фирмичката ми ще са с еднаква аудитория и следователно ще трябва да отделям същия бюджет ли?
    Иначе политиците под “дискриминация” не разбират реалното значение на думата, а ограничаване по критерии, които не са свързани пряко с характеристиките на избора. Примерно да искаш дървосекачите да са мъже е дискриминация, но спокойно можеш да поставиш като изискване кандидатът да може да вдигне гиричка с еди какво си тегло, еди колко си пъти и за еди колко си време. От психологическа гледна точка, обаче, нещата вече трудно могат да се изследват и доказват – примерно как ще отсееш адекватните шофьори с тест? Дори психо тестовете за професионалните шофьори са определено неефективни.

  2. :D

    КОГА ЩЕ СЕ НАУЧИТЕ, че думата “discriminate” означава “разграничавам”, “правя разлика”, “отнасям се различно” (не задължително в лош смисъл)?!?

    Както един умен човек каза – когато мъж или жена си избира половинка, реално дискриминира всички останали.

    Когато една жена стане лесбийка, тя дискриминира всички мъже. Аналогично, всеки мъж, който е гей, дискриминира жените.

    Когато човек реши да стане инженер, дискриминира социалните науки, когато реши да стане задръстен феминацист, дискриминира цялата наука и свързания с нея научен метод, че направо си ги и отрича 😀

    Всяко едно наше действие, всеки един наш избор е форма на дискриминация.

    Точно по тази причина, алгоритмите, които правят избор, дискриминират. Не е неволно. Дискриминацията е в основата на взимането на всяко едно решение.

    Всичко останало е евтина пропаганда, целяща заличаването на идентичността на човека, идентичността на народите; цели унищожаването на разнообразието, за което уж толкова много се борят либерастите.

    А, най-смешното и жалко е, че при всичката тая мания за разнообразие (diversity), малоумниците отричат най-важното – разнообразието на идеи, мнения; разнообразието като личности със свой собствен мироглед и право на избор.

  3. Той

    В момента на световно ниво над 90 % от учителите са жени, над 80 % от инженерите – мъже и близо 100 % от чистачите – неграмотни чернокожи. Както и да го погледнеш, това са дискриминация и неравенство, но това работи. Математиката и биологията не са като джендър-науките, витаещи в Страната на чудесата.

  4. Уточнение

    Това е пример за джендър теориите, които отричат половия диморфизъм, а и биологичните полове като цяло. Пряко следствие от тази идеология, проповядвана от 3-та вълна феминистки, е изкуственото изравняване на броя на мъжете и жените във всички професии, като това често става чрез квоти. Естествено феминистките най-много се натискат за началнически позиции и по-малко за работнически професии.

  5. егати логиката

    Ясно е, че се опитват да не се дискриминират хората. Това е добре. Но какво е дискриминацията и не се ли злоупотребява с това понятие като цяло?

    Доколкото се разбира от статията е даден за пример две обяви от Facebook, едната (за дърводобивната промишленос) е насочена повече към мъже, а другата (учители в предучилищни заведения) към жени. И къде е виждате проблем?

    Ааа може би трябва да има повече дървосекачки и повече мъже занимаващи се с малки деца.

  6. Colombino

    Пак трябва да гледам филма “Идиокрация”, защото с големи крачки сме се засилили натам. Някакви хора се опитват да отменят имплицитните математически зависимости с експлицитни закони. Със същия успех могат да отменят и закона за гравитацията.

Коментар