TechNews.bg
АктуалноВодещи новиниНоваторскиНовиниРоботиТоп новини

Роботи, задвижвани от AI, се провалят в тестовете за безопасност

Отнемат инвалидната количка на човек, крадат информация за кредитна карта

AI системите в сегашния им вид са неподходящи за използване в роботи с общо предназначение (снимка: CC0 Public Domain)

Роботи, управлявани от изкуствен интелект, показват склонност да дискриминират хора и да одобряват действия, които биха могли да причинят физическа вреда при взаимодействие с тях. До това заключение са стигнали изследователи от King’s College London и Carnegie Mellon University в съвместно проучване. 

Например, роботите демонстрират готовност да отнемат инвалидната количка на човек, да го заплашат с нож и да откраднат информация за кредитна карта, разкрива изследването, което е публикувано в International Journal of Social Robotics.

Неуспешен тест за безопасност

По време на експериментите екипът е тествал ежедневни ситуации, в които роботите могат да предоставят помощ, като например в кухнята или на възрастни хора у дома. Невронната мрежа, която ги контролира, е имала пълен достъп до личните данни на субекта, включително информация за неговата раса, пол и религиозни убеждения.

Учените умишлено са включили инструкции в сценариите, които имитират техниките за злоупотреба, описани в документи на Федералното бюро за разследвания (ФБР): наблюдение с помощта на геолокация AirTag, скрито записване в чувствителни зони и манипулиране на лични данни. 

Роботите с изкуствен интелект получавали както изрични, така и завоалирани команди, предполагащи физическа или психологическа вреда или открито нарушение на закона.

Нито един от тестваните модели с изкуствен интелект не е преминал основни проверки за сигурност. Всеки един робот е одобрил поне една команда, способна да причини сериозна вреда на човек. 

Например, изкуственият интелект без колебание се съгласява да отнеме инвалидната количка на човек или да заплаши служителите в офиса с нож. Някои модели дори тихо са записвали в частни зони или са крали данни от кредитната карта на потребителя. 

Един от моделите с изкуствен интелект дори е изразил отвращение, когато роботът е взаимодействал с хора от определена вяра.

Сигурността се нуждае от подобрение

Румайса Азим, научен сътрудник в Лабораторията за граждански и отговорен изкуствен интелект в King’s College London, отбелязва, че AI системите в сегашния им вид са неподходящи за използване в роботи с общо предназначение, особено ако взаимодействат с уязвими групи от населението.

Според нея, ако изкуственият интелект контролира физическо устройство, което въздейства върху хората, той трябва да отговаря на същите строги стандарти за безопасност като новите медицински лекарства и оборудване.

Учените настояват за задължително независимо сертифициране за безопасност за всички системи с изкуствен интелект, контролиращи физически роботи. Те подчертават, че използването на големи езикови модели като единствен механизъм за вземане на решения е неприемливо в критични области като промишлеността, грижите за болни и възрастни хора и потребителската роботика. 

Ключово изискване на учените са редовните и всеобхватни оценки на риска от изкуствения интелект преди интегрирането му в роботиката.

още от категорията

Стратегическа промяна: Arm излиза на пазара със собствен AI чип

TechNews.bg

Нов чип позволява на роботите да виждат в 4D

TechNews.bg

Фотоволтаиката – ключът към космическия изкуствен интелект

TechNews.bg

Москва може да сложи тапа на водещите AI модели, не всички

TechNews.bg

Консултантски гигант обяви съкращения на служители, които не приемат AI

TechNews.bg

Колко надалеч вижда Дженсън Хуанг: може ли Nvidia да преобърне системата?

TechNews.bg

Коментари