
За сериозна опасност от хакване на моделите с изкуствен интелект и превръщането им в убийци предупреди Ерик Шмид, бивш главен изпълнителен директор на Google. Все пак той остава оптимист за развитието на AI като цяло.
Изкуственият интелект е уязвим на хакерски атаки и това е много опасно, смята Ерик Шмид. Той предупреди за „лоши неща, които изкуственият интелект може да направи“ в отговор на въпрос от CNBC дали AI е по-разрушителен от ядрените оръжия.
„Има ли възможност за разпространение на изкуствен интелект? Абсолютно“, каза Шмид. Рисковете, свързани с това, включват попадане на технологията в ръцете на злонамерени лица, пренасочване и злоупотреба с технологията.
„Има доказателства, че можете да вземете модели, затворени или отворени, и да ги хакнете, за да премахнете техните ограничения. Лош пример би било да се научат да убиват“, предупреди Шмид.
В момента няма ефективен „режим за неразпространение“, който би могъл да помогне за ограничаване на опасностите от изкуствения интелект, каза бившият шеф на Google.
Въпреки мрачното си предупреждение, Шмид е оптимист относно изкуствения интелект като цяло и дори смята, че технологията не получава заслуженото внимание.
Някои анализатори сравняват настоящия бум на изкуствения интелект с краха на дотком компаниите от началото на 2000-те. Шмид обаче вярва, че историята няма да се повтори.
„Не мисля, че това ще се случи тук, но не съм професионален инвеститор. Знам със сигурност, че хората, които инвестират трудно спечелените си пари, вярват, че дългосрочната икономическа възвръщаемост ще бъде огромна. В противен случай, защо биха поемали такъв риск?“, заключи той.
