TechNews.bg
АктуалноВодещи новиниНоваторскиНовиниРоботиТоп новини

Роботи, задвижвани от AI, се провалят в тестовете за безопасност

Отнемат инвалидната количка на човек, крадат информация за кредитна карта

AI системите в сегашния им вид са неподходящи за използване в роботи с общо предназначение (снимка: CC0 Public Domain)

Роботи, управлявани от изкуствен интелект, показват склонност да дискриминират хора и да одобряват действия, които биха могли да причинят физическа вреда при взаимодействие с тях. До това заключение са стигнали изследователи от King’s College London и Carnegie Mellon University в съвместно проучване. 

Например, роботите демонстрират готовност да отнемат инвалидната количка на човек, да го заплашат с нож и да откраднат информация за кредитна карта, разкрива изследването, което е публикувано в International Journal of Social Robotics.


Неуспешен тест за безопасност

По време на експериментите екипът е тествал ежедневни ситуации, в които роботите могат да предоставят помощ, като например в кухнята или на възрастни хора у дома. Невронната мрежа, която ги контролира, е имала пълен достъп до личните данни на субекта, включително информация за неговата раса, пол и религиозни убеждения.

Учените умишлено са включили инструкции в сценариите, които имитират техниките за злоупотреба, описани в документи на Федералното бюро за разследвания (ФБР): наблюдение с помощта на геолокация AirTag, скрито записване в чувствителни зони и манипулиране на лични данни. 

Роботите с изкуствен интелект получавали както изрични, така и завоалирани команди, предполагащи физическа или психологическа вреда или открито нарушение на закона.

Нито един от тестваните модели с изкуствен интелект не е преминал основни проверки за сигурност. Всеки един робот е одобрил поне една команда, способна да причини сериозна вреда на човек. 


Например, изкуственият интелект без колебание се съгласява да отнеме инвалидната количка на човек или да заплаши служителите в офиса с нож. Някои модели дори тихо са записвали в частни зони или са крали данни от кредитната карта на потребителя. 

Един от моделите с изкуствен интелект дори е изразил отвращение, когато роботът е взаимодействал с хора от определена вяра.

Сигурността се нуждае от подобрение

Румайса Азим, научен сътрудник в Лабораторията за граждански и отговорен изкуствен интелект в King’s College London, отбелязва, че AI системите в сегашния им вид са неподходящи за използване в роботи с общо предназначение, особено ако взаимодействат с уязвими групи от населението.

Според нея, ако изкуственият интелект контролира физическо устройство, което въздейства върху хората, той трябва да отговаря на същите строги стандарти за безопасност като новите медицински лекарства и оборудване.

Учените настояват за задължително независимо сертифициране за безопасност за всички системи с изкуствен интелект, контролиращи физически роботи. Те подчертават, че използването на големи езикови модели като единствен механизъм за вземане на решения е неприемливо в критични области като промишлеността, грижите за болни и възрастни хора и потребителската роботика. 

Ключово изискване на учените са редовните и всеобхватни оценки на риска от изкуствения интелект преди интегрирането му в роботиката.

още от категорията

Експеримент в образованието: AI във всички училища на Ел Салвадор

TechNews.bg

AI променя приоритетите в киберсигурността

TechNews.bg

Наблюдаваме най-големия бум на ИТ разходите от 30 години насам

TechNews.bg

AI помогна на световната икономика да устои на митата на Тръмп

TechNews.bg

Повечето авто-производители ще порежат AI инвестициите до 2029 г.

TechNews.bg

Сценарият AI да стане Терминатор е нереалистичен, смята Дженсън Хуанг

TechNews.bg

Коментари