OpenAI, компанията, която започна надпреварата в изкуствения интелект с изключително ефективния бот ChatGPT, формира специален екип за управление и контрол на „суперинтелигентни” AI системи. Един от основателите на компанията и главен изследовател Иля Суцкевер ще ръководи екипа.
Според публикация в блога на OpenAI, изкуствен интелект отвъд възможностите на човешкия ум може да се появи в рамките на едно десетилетие. В същото време изобщо не е сигурно, че този „супер-разум” ще бъде благосклонен към човечеството – следователно е необходимо да се търсят начини за контрол и ограничаване на възможностите на такива системи.
OpenAI признава, че днес няма решения за ефективен контрол и управление на суперинтелигентния AI и предотвратяване на „агресия” от негова страна. Съществуващите технологии за настройка на изкуствения интелект се основават на обучение с подсилване въз основа на човешка обратна връзка. В същото време такива техники разчитат на факта, че хората по принцип могат да контролират AI, което е малко вероятно при системи, които са потенциално по-интелигентни от хората.
За да проучи този проблем, специалният екип на OpenAI ще получи достъп до 20% от изчислителната мощност на компанията. Към него ще се присъединят учени и програмисти от отдела за персонализиране на изкуствения интелект, както и от други подразделения на разработчика. През следващите четири години екипът възнамерява да овладее ключовите технически предизвикателства, свързани с контрола на суперинтелигентния AI.
Всъщност говорим за AI обучение чрез обратна връзка. То ще използва специален изкуствен интелект, предназначен да оценява други AI системи и да гарантира желаните резултати, както и да гарантира безопасността на тяхната работа. OpenAI вярва, че изкуственият интелект ще се справи с това по-добре и по-бързо от хората.
С развитието на AI системите от тях се очаква да поемат все повече и повече задачи и в резултат на това те ще създават и прилагат по-добри технологии за персонализиране от наличните в момента. Те ще работят с хората, за да направят собствените си наследници по-отзивчиви към нуждите на хората, които само ще контролират, без да участват пряко в изследванията.
Разбира се, нито един метод няма абсолютна защита от грешки, признава OpenAI. Използването на един AI за оценка на други може да доведе до увеличаване на бъговете и уязвимостите в създаваните AI системи и като цяло да покаже, че най-трудната част от персонализирането е свързана с най-неочакваните аспекти на това как работи изкуствения интелект.
OpenAI обаче вярва, че настройката на суперинтелигентността е основно задача на машинното обучение и специалистите в тази индустрия ще играят критична роля. Компанията възнамерява да сподели резултатите от своите изследвания в бъдеще, за да създаде и защити проекти, дори и тези, които не са свързани с нейните разработки.
Според публикация на Ройтерс, противниците на инициативата смятат, че AI с мислене на човешко ниво може да излезе извън контрол дори преди да е ангажиран с осигуряване на безопасна работа на други AI системи. Анализаторите припомнят, че през април представители на експертната и бизнес общност публикуваха отворено писмо, в което предупредиха да не се създава AI, който е по-напреднал от GPT-4.