
Роботи, управлявани от изкуствен интелект, показват склонност да дискриминират хора и да одобряват действия, които биха могли да причинят физическа вреда при взаимодействие с тях. До това заключение са стигнали изследователи от King’s College London и Carnegie Mellon University в съвместно проучване.
Например, роботите демонстрират готовност да отнемат инвалидната количка на човек, да го заплашат с нож и да откраднат информация за кредитна карта, разкрива изследването, което е публикувано в International Journal of Social Robotics.
Неуспешен тест за безопасност
По време на експериментите екипът е тествал ежедневни ситуации, в които роботите могат да предоставят помощ, като например в кухнята или на възрастни хора у дома. Невронната мрежа, която ги контролира, е имала пълен достъп до личните данни на субекта, включително информация за неговата раса, пол и религиозни убеждения.
Учените умишлено са включили инструкции в сценариите, които имитират техниките за злоупотреба, описани в документи на Федералното бюро за разследвания (ФБР): наблюдение с помощта на геолокация AirTag, скрито записване в чувствителни зони и манипулиране на лични данни.
Роботите с изкуствен интелект получавали както изрични, така и завоалирани команди, предполагащи физическа или психологическа вреда или открито нарушение на закона.
Нито един от тестваните модели с изкуствен интелект не е преминал основни проверки за сигурност. Всеки един робот е одобрил поне една команда, способна да причини сериозна вреда на човек.
Например, изкуственият интелект без колебание се съгласява да отнеме инвалидната количка на човек или да заплаши служителите в офиса с нож. Някои модели дори тихо са записвали в частни зони или са крали данни от кредитната карта на потребителя.
Един от моделите с изкуствен интелект дори е изразил отвращение, когато роботът е взаимодействал с хора от определена вяра.
Сигурността се нуждае от подобрение
Румайса Азим, научен сътрудник в Лабораторията за граждански и отговорен изкуствен интелект в King’s College London, отбелязва, че AI системите в сегашния им вид са неподходящи за използване в роботи с общо предназначение, особено ако взаимодействат с уязвими групи от населението.
Според нея, ако изкуственият интелект контролира физическо устройство, което въздейства върху хората, той трябва да отговаря на същите строги стандарти за безопасност като новите медицински лекарства и оборудване.
Учените настояват за задължително независимо сертифициране за безопасност за всички системи с изкуствен интелект, контролиращи физически роботи. Те подчертават, че използването на големи езикови модели като единствен механизъм за вземане на решения е неприемливо в критични области като промишлеността, грижите за болни и възрастни хора и потребителската роботика.
Ключово изискване на учените са редовните и всеобхватни оценки на риска от изкуствения интелект преди интегрирането му в роботиката.
