
В навечерието на новата година Илон Мъск, най-богатият човек на планетата и мениджър на няколко технологични компании, изрази опасенията си относно бързото развитие на изкуствения интелект и роботиката, настоявайки за забавяне.
Мъск смята, че настоящите темпове на напредък в AI и роботите създават сериозни рискове за безопасността, етиката и надзора, тъй като човечеството може да няма време да разработи ефективни регулаторни механизми.
Той призова разработчиците на изкуствен интелект незабавно да спрат или поне да забавят напредъка си, предаде OfficeChai. Според шефа на Tesla и SpaceX, технологиите се развиват толкова бързо, че човечеството рискува да не успее да създаде адекватни регулаторни и защитни механизми, преди AI системите да станат твърде мощни и автономни.
Липса на ясна правна и етична рамка за AI
Илон Мъск подчерта, че нивото на внимание към въпросите на сигурността трябва да бъде напълно съизмеримо с темпото и мащаба на технологичното развитие. Той има съмнения, че настоящите механизми за държавно регулиране и институционален надзор могат ефективно да ограничат рисковете, свързани с изкуствения интелект и роботиката, като същевременно запазят сегашния темп на напредък.
По-специално, липсата на ясна правна и етична рамка за разработване на автономни ИТ системи и свръхмощни модели с изкуствен интелект може да доведе до непредвидени последици за обществото, икономиката и глобалната стабилност като цяло, предупреди Мъск.
Според него, за да се сведат до минимум тези рискове, спешно трябва да се разработят и приложат всеобхватни регулаторни мерки, съизмерими със скоростта и дълбочината на текущите технологични промени.
Мъск смята, че едно от ключовите предизвикателства пред по-нататъшното развитие на изкуствения интелект е да се гарантира, че технологията ще остане просто ИТ инструмент, обслужващ човечеството, а няма да се превърне в потенциална заплаха.
Постигането на тази цел, според милиардера, изисква индустрията и регулаторните органи да отделят толкова (ако не и повече) внимание на етиката, безопасността и дългосрочната устойчивост, колкото на подобряването на производителността и възможностите на моделите с изкуствен интелект.
Приоритетните области включват:
- разработване и прилагане на стандарти за прозрачност в алгоритмите и процесите на обучение;
- създаване на ефективни механизми за независима оценка на риска на всички етапи от жизнения цикъл на ИТ системите, базирани на изкуствен интелект;
- разработване на международно договорени норми и разпоредби, които ще позволят своевременно откриване и ограничаване на неконтролираното и потенциално опасно внедряване на най-мощните технологии.
Изобретателят и инвеститор Илон Мъск е убеден, че само балансиран подход, съчетаващ стремежа към технологични пробиви със строги предпазни мерки, може да гарантира безопасно и отговорно развитие на технологиите с изкуствен интелект в полза на цялото общество.
Неприемливо ниво на сложност
Илон Мъск изтъква, че редица съвременни разработки в машинното обучение (ML) и автономните ИТ системи вече наближават ниво на сложност, при което обществото може да се сблъска със сериозни трудности при пълното им разбиране и безопасен контрол.
По неговите думи, в тази ситуация е изключително важно провеждането на задълбочено, ранно обсъждане на потенциалните рискове и последици. Особено важен е мултидисциплинарният подход, обединяващ експерти по технологии, право, етика, философия и социално инженерство, за да се оцени цялостно въздействието на автономните ИТ системи.
Мъск също така подчерта, че преди технологиите с изкуствен интелект да бъдат внедрени в критични области на обществото (енергетика, транспорт, здравеопазване, отбрана, финансова инфраструктура и др.), трябва да се формира консенсус относно приемливите граници на тяхното приложение и механизмите за сигурност.
Научна несигурност
Изявленията на Илон Мъск са част от много по-широк и по-интензивен дебат, който се разгръща в научните, технологичните и експертните общности през 2025 г.
Водещи експерти и компании са съгласни, че бързото ускоряване на развитието на изкуствения интелект неизбежно трябва да бъде съпроводено с паралелно и съизмеримо увеличение на вниманието към следните ключови области:
- разработване и внедряване на ефективни механизми за национално и международно регулиране;
- осигуряване на високо ниво на прозрачност в алгоритмите, процесите на обучение и вземането на решения;
- цялостно идентифициране, количествено определяне и управление на рисковете, свързани с използването на изкуствен интелект, особено в критични области.
Само с едновременен и балансиран напредък във всички тези области може да се постигне устойчиво и социално отговорно развитие на технологиите за изкуствен интелект в близко бъдеще.
По-нататъшното развитие на AI може да навреди на хората
По-рано тази година активисти подписаха отворено писмо, призоваващо за забрана на разработването на свръхинтелигентен изкуствен интелект (ASI). Повече от 1000 известни личности и публични личности – от Хенри Чарлз и Меган Маркъл до Стив Банън – подписаха писмото.
Активистите са загрижени, че в момента няма ефективни мерки за безопасност на ASI. Те настояват да се изчака, докато науката и широката общественост подкрепят подобни технологии.
„Много водещи ИТ компании за изкуствен интелект се стремят да създадат свръхинтелект през следващото десетилетие, способен значително да превъзхожда всички хора в почти всички когнитивни задачи”, се казва в изявлението.
„Това поражда опасения, вариращи от икономическо остаряване и лишаване на човека от пълномощия, загуба на свобода, граждански права, достойнство и контрол, до рискове за националната сигурност и дори потенциално изчезване на човечеството”, предупреждава отвореното писмо.
Изявлението подписаха още основателят на Virgin Group Ричард Брансън, съоснователят на Apple Стив Возняк и на Skype – Яан Талин, режисьорът и писател Стивън Фрай, съветникът по изкуствен интелект на папа Франциск Паоло Бенанти, адмиралът от ВМС на САЩ в оставка Майк Мълън и бившият президент на Ирландия Мери Робинсън.
Писмото е подписано и от носителите на Нобелова награда: програмистът Джефри Хинтън, икономистът Дарон Аджемоглу, астрофизикът на НАСА Джон Мадър и физикът Франк Вилчек.
„Призоваваме за забрана върху развитието на свръхразум, която не трябва да бъде отменена, докато не се постигне широк научен консенсус, че това може да се направи безопасно и по контролиран начин, и е налице силна обществена подкрепа”, заявиха подписалите писмото.
