Илон Мъск, Стив Возняк и повече от 1000 други експерти в сферата на технологиите призоваха за шестмесечен мораториум върху обучението на AI системи, които се представят по-добре от наскоро представения модел GPT-4 на компанията OpenAI. В отворено писмо те предупреждават за потенциални рискове за обществото.
Писмото е публикувано от организацията с нестопанска цел „Future of Life Institute” и е подписано от много известни хора в ИТ индустрията, съобщи Ройтерс. Всички те призоваха за „пауза” в разработването на AI, докато не бъдат разработени общи протоколи и стандарти за сигурност за индустрията, чието прилагане ще бъде проверено от независими одитори.
Писмото подчертава, че мощни AI системи трябва да се разработват само след като човечеството е уверено в положителните последици от такова развитие и че свързаните с тях рискове ще бъдат управляеми.
Експертите също така изтъкват потенциални заплахи за обществото и цивилизацията от AI системи, способни да се конкурират с хората, което може да доведе до икономически или политически катаклизми. Затова разработчиците на AI трябва да си сътрудничат тясно с регулаторите.
„Обширни изследвания показват, че системи с изкуствен интелект, които се конкурират с хората, могат да представляват сериозна опасност за цялото човечество”, се казва в писмото.
Наскоро дори Европол предупреди, че системи като ChatGPT могат да бъдат използвани злонамерено за фишинг, дезинформация и киберпрестъпления. Илон Мъск, чиято компания за електромобили Tesla използва елементи с изкуствен интелект в системите си за автопилот от доста време, открито и многократно е изразявал загриженост относно опасностите от AI системите.
Поддържаният от Microsoft чатбот ChatGPT на OpenAI демонстрира качества, които принудиха конкурентите спешно да ускорят развитието на собствените си големи езикови модели. В резултат на това компаниите побързаха да интегрират генеративен AI в своите продукти. Ръководителят на OpenAI Сам Алтман не е подписал писмото, а самата компания отказва коментар.
Експертите смятат, че AI разработките трябва да се забавят, докато човечеството започне да разбира по-добре последствията, тъй като системите с изкуствен интелект могат да причинят сериозни щети. Като се има предвид, че големите играчи пазят в тайна информацията за това, върху което работят, ще бъде трудно обществото да се защити, ако страховете са оправдани.
Само заради страх за бизнеса и печалбите. Искат паузи и повече време, за да измислят милиардерите как да си опазят парите и поддържат печалбата нищо друго не ги интересува.