Системите за изкуствен интелект стават все по-широко разпространени – но с това нарастват и шансовете техните проблеми да добият по-мащабни последици.
Учени от Масачузетския технологичен институт наскоро успяха да заблудят тренировъчна програма за изкуствен интелект така, че тя идентифицира детска пластмасова играчка като… пушка. Ако бъдещ робот-полицай или войник направи подобна грешка, резултатите биха били катастрофални.
Затова сега изследователите разработват инструменти, с които да изчистят потенциалните недостатъци сред милиардите виртуални „мозъчни клетки” на системите за изкуствен интелект.
Обичайно програмите с изкуствен интелект за разпознаване на изображения, автомобилните автопилоти и други форми на ИИ използват изкуствени невронни мрежи, в които компонентите, наречени „неврони”, се захранват с данни и работят заедно по решаването на задача – като например забелязване на препятствия по пътя. Мрежата се учи, като многократно настройва връзките между невроните си и опитва да реши задачата отново и отново.
С течение на времето системата определя кои невронни връзки са най-добри при изчислителните решения. Тогава ги възприема като схеми „по подразбиране”, имитирайки начина, по който се учи човешкият мозък.
Как се учи
Основно предизвикателство пред тази технология е, че разработчиците често не знаят как точно мрежите стигат до изводите, на които базират своите решения. Така е трудно да се разбере какво точно се е случило, та е допусната дадена грешка, казва Юнфенг Янг, компютърен учен в Колумбийския университет и съавтор на ново проучване, представено през октомври миналата година на симпозиум в Шанхай.
Янг и колегите му са създали DeepXplore – програма, предназначена за дебъгване на системите за изкуствен интелект чрез обратен инженеринг на процесите на самообучение. DeepXplore тества невронна мрежа с широк спектър от объркващи сигнали от реалния свят и казва на мрежата, когато отговорите й са погрешни, за да може тя да се коригира.
Например, DeepXplore би могла да определи дали изображение от камера, подадено от автомобилна система за управление, погрешно е насочило превозното средство към пешеходци. Инструментът за отстраняване на грешки също така следи кои неврони в мрежата са активни и тества всеки от тях поотделно.
Предишните инструменти за отстраняване на грешки в системите за изкуствен интелект не можеха да разберат дали всеки неврон е проверен за грешки, казва Янг.
От какво се учи
Друг съществен въпрос пред разработчиците на ИИ системи е от какви данни се учат този род системи. Една система е толкова добра, колкото качествени са данните, от които се обучава. Тук също има очевидни проблеми също, казва Андрю Енджи от Университета Станфорд, който е и главен учен в китайския интернет гигант Baidu.
Например, една система за ИИ в здравеопазването, която е тренирана да разпознава кои пациенти с пневмония имат висок риск от смърт, има за задача да изпрати рисковите пациенти в болница. Но тя класифицира пациентите с астма като пациенти с нисък риск.
В нормална ситуация хората с астма, които с развили пневмония, се пращат право в интензивното отделение и се подлагат на лечение, което значително намалява риска от смърт. Машината с изкуствен интелект обаче приема, че задачата астма+пневмония означава нисък риск от смърт.
Напредъкът
Добрата новина е, че системи като DeepXplore успяват да разпознаят десетки грешки, които по-рано са били неуловими със съществуващите технологии. Напредъкът може да помогне за изграждане на по-точни и по-надеждни невронни мрежи. Това, според Шан Лу – компютърен изследовател от Университета в Чикаго – може „на свой ред да бъде полезно за много научно-изследователски дисциплини и ежедневния ни живот”.