Когато изкуственият интелект се научи да лъже

В развитието си изкуственият разум неизбежно ще се научи да мами…
(снимка: CC0 Public Domain)

Чували сме много за маменето, когато се говори за изкуствен интелект. Самоуправляемите автомобили, например, могат да бъдат лъгани с пътните знаци: с малка намеса вместо „STOP” те ще виждат само ограничение на скоростта. Изкуствен разум може да бъде заблуден, че пандата на дадена снимка е гибон. Гласовите асистенти могат да бъдат подвеждани чрез вербални команди със смущения в звука...

Това са само част от примерите, които сме чували. Има го и обратното – изкуственият разум може да бъде впрегнат в измами. Така например, ИИ се прилага за създаване на снимки и видеозаписи с несъществуващи сцени, герои или изказвания – това са така наречените дълбоки измами или „дийп фейк” материали. В крайна сметка почти всички големи форуми и конференции за изкуствен разум не минават без обсъждане на проблема със заблуждаването и измамата.

Опасна еволюция на ИИ

В последно време обаче назрява темата за един още по-сериозен аспект на измамите с изкуствен интелект: какво би значело изкуственият разум да мами и какво се случва, когато зад измамите на изкуствения разум стои не човешкото намерение, а намерение на самия изкуствен разум?!

Това притеснение може да изглежда някак далечно, ако смятаме, че ИИ все още е сравнително слабо разпространен, с „тесен” обхват и може да бъде доста глупав в много отношения. Да имат някакъв аналог на „намерение” би било голяма стъпка за днешните ИИ системи. Въпреки това, ако искаме да изпреварим кривата по отношение на измамите с ИИ, трябва да сме наясно с всички начини, по които тези системи могат да ни заблудят.

Важно е да имаме някаква концептуална рамка или поне разбиране за спектъра на видовете измами, на които ИИ може да се научи самостоятелно, преди да започнем да предлагаме технологични защити.

Какво е измамата

Ако хвърлим поглед далеч назад в историята, измамата е стара колкото света. Тя със сигурност не е присъща само на човешките същества. Адаптацията и еволюцията, нуждата от оцеляване са довели до безброй форми на измама в природата – мимикрията например.

Но да се определи точно какво представлява измамата у изкуствения разум е нелесна задача. За да се говори за измама, трябва да става дума за мислене за действия, последващи резултати, цели, средства, методи.

Какво е измамата? Експертите я дефинират като „фалшиво общуване в полза на комуникатора”. В това условие е важно да се уточни, че предаването на информация е с намерението да се манипулира. Всичко изглежда доста ясно, докато не стигнем до въпроса какво е „намерение” и какво се изисква за наличието на намерение, както и дали фалшивата комуникация непременно включва намерение да бъде в полза на измамника. Ако се лъже по алтруистични причини, това измама ли е?

Намерението изисква да имаме дадена теория наум. А това означава, че агентът има някакво разбиране за себе си и че може да разсъждава за други външни субекти и техните намерения, желания, състояния и потенциални поведения. Ако измамата изисква наличието на намерение, то тогава ИИ-измамата би изисквала изкуственият разум да има наум някаква теория.

Тук идва въпросът за намерението. Изглежда, че настоящите форми на ИИ-измама разчитат на човешки намерения и теории. Тоест, даден човек използва ИИ като инструмент или средство за осъществяване на намерението си да заблуди. Но дали е така? Само защото сегашните ИИ нямат теория в ума си не означава, че те не могат да се научат да заблуждават!

Някои ИИ системи се научават на измамническо поведение, без да имат реална оценка или разбиране какво всъщност представлява „измамата”. Това може да е много просто: скриване на дадени ресурси или предоставяне на невярна информация за постигането на някаква цел.

Два типа измамни действия

Може да се дефинират, общо взето, два типа измамни действия. Единият вид са активните: ИИ активно участва в изпълнението на намерението изпращане на дезинформация. Вторият вид са пасивните: пропускане или отказване на информация (укриване). ИИ системите могат да научат всеки от тези видове поведение при подходящи условия.

Това е нещо, което в известна степен и сега се прави: системите за киберсигурност на база ИИ се научават да спират определен тип електронни писма в пощенските сървъри. Със сигурност не един и двама компютърни гении са мислили как да направят „данъчен асистент”, който да „пропуска” определени видове доходи при попълването на данъчна декларация, за да сведе до минимум дължимите суми.

Подготовка за бъдещето

Първата стъпка към подготовката за бъдещото, в което изкуственият разум ни мами, е осъзнаването, че такива системи вече има, че вече ни заблуждават – че вероятно ще продължат да заблуждават. Как се случва това, дали е желана черта и дали всъщност можем да откриваме кога се случва – това ще бъдат следващите предизвикателства. След това можем да започнем да правим необходимия анализ какво точно представлява измамата, дали и за кого е полезна и какви рискове носи.

Това е нелека задача и ще изисква интердисциплинарна работа на експерти от всякакви области, в т.ч. социолози, психолози, политолози, адвокати, военни, етици и политици. Ще трябва да мислим как да проектираме нови решения, за да смекчим измамите на ИИ. Ще е нужно да разработим нови решения, за да идентифицираме измамното поведение, да откриваме намеренията. Предизвикателството е колосално и само ще се разраства с увеличаване на познавателния капацитет на ИИ.

Желанието на някои да създадат ИИ системи със зачатъци на ум и социална интелигентност не след дълго ще се срещне със способността на ИИ да разбира чуждите чувства, вярвания, емоции и намерения. Това ще открие пред него способността да се действа, за да повлияе на тези чувства, вярвания или действия. С други думи – да мами. Важно е да започнем да работим по този проблем отсега.

Коментар