Кой ще е отговорен, ако изкуственият интелект е безотговорен?

Когато изкуственият интелект взема решения, това вече касае живота на различни хора – а кой поема отговорността? (снимка: CC0 Public Domain)

Ежедневно взаимодействаме с алгоритми, които с времето предвиждат нашите действия и ни дават информация за вземане на решение. Филтрите за нежелана поща в имейлите, технологиите за дигитални карти и навигация, лицевото разпознаване по време на снимка със смартфон – това са само част от примерите за ежедневното използване на AI технологии, които добавят удобство в живота ни. Но кой носи отговорност, ако тези алгоритми сгрешат?

Много се говори за изкуствения разум, особено откакто взе да печели конкурси за картини, музика и други форми на изкуство. Но може би нещо, което трябва да се обсъжда по-често заедно с тази тема, е етиката при изкуствения разум. Решенията, взети от AI, са резултат от алгоритми, данни и бизнес-процеси. Как тогава може да се гарантира отговорно отношение, къде са етичните съображения?

Анатомия на алгоритмите

Изключително важно е да разберем, че анализите, машинното самообучение и AI изучават миналото, за да вземат решения за бъдещето. Ако данните от миналото са изкривени, то и решенията за бъдещето ще са изкривени. Ако данните за миналото страдат от недостатъчност в дадено отношение, техният анализ ще доведе до бъдещи решения, които също страдат от недостатъчност – и това може да има непредвидени последици.



Анализът на алгоритмите не разбира нашите цели като обществото. Когато се стремим да подобрим здравеопазването, правосъдието, икономическия растеж и околната среда, ние се стараем да балансираме с всички фактори – да не ощетяваме бедните, да не създаваме неравнопоставеност и т.н. Всяко решение се изпипва в контекста на нашите ценности като общество. За алгоритъма обаче няма такива стойност като честност, справедливост, достойнство.

От друга страна, анализите, машинното обучение и AI стават широко разпространени в обществото и техните автоматизирани решения се вземат предвид параметрите на големи популации. В същото време обществото е невероятно динамично и е в процес на непрекъсната промяна. Това означава, че AI трябва да бъде в състояние на непрекъснато обучение. Всеки, който разработва технология, която автоматизира решения за другите, трябва да носи отговорност за спазването на основните принципи на отговорния изкуствен разум, което да води до прозрачни и справедливи резултати.

Организации от различни индустрии изразяват нарастващо притеснение за отговорността при вземане на автоматизирани решения, за тяхната справедливост, социален контекст, адекватност.

Но как да внедрим отговорен AI

Контекстуализирането на принципите е една от първите стъпки в усилието за създаване на „разумен“ изкуствен разум. Важно е при разработването да са ясни ценностите и приоритетите, под чиито флаг се създава системата на база AI. Това ще помогне за комуникацията с всички хора, участващи в разработването, внедряването и използването на AI системата, всички в една и съща рамка.

Експертите съветват етиката в разработването на изкуствения разум да се повери в ръцете на екип, който ясно съзнава тази отговорност. Това може да е малък екип, посветен на операционализирането на принципите на отговорния AI. Той следва да има грижата да работи с всички отдели, свързани със създаването на AI системата, и на всеки етап от жизнения цикъл на AI. Решението да се сформира екип е по-добро от това да се разчита на един човек, защото екипът предлага разнообразие и набор от умения, предпазвайки от индивидуални пристрастия.

Създателите на AI биха могли да преразгледат ролята на етиката от гледна точка на етапите от жизнения цикъл на технологията. Отговорното отношение трябва да бъде вплетено на всяка стъпка: събиране на данни, подготовка на данни, моделиране и тестване, разработване, производство и текущ мониторинг.

Регулациите ще закъснеят

Съветът на специалистите към всички, които разработват системи с изкуствен разум, е да предприемат тези стъпки за етика на изкуствения разум още днес. Нормативните регулации ще се появят – рано или късно. Но, както винаги в технологичния свят, законотворчеството върви след иновациите.



Изпреварването на регулациите е ценно – когато те станат факт, организацията, която вече е подходила отговорно, ще има преднина. От друга страна адаптирането на съществуващите практики за AI етика към бъдещите регулации ще бъде по-лесно, ако основите са положени отрано. Изчакването да се създадат регулации за AI може да създаде по-голям технически дълг, който ще представлява тежест в бъдеще, предупреждават специалистите.

Коментари по темата: „Кой ще е отговорен, ако изкуственият интелект е безотговорен?”

добавете коментар...

  1. Anonymous

    Skynet безотговорна ли е?
    Питам за една приятелка приятелка_майка на Т1000!

Коментар