AI не става по-умен с увеличаване на изчислителната мощност

Много специалисти в областта на AI смятат, че етапът на активно обучение на големите езикови модели е към своя край (снимка: CC0 Public Domain)

Увеличаването на изчислителната мощност вече не прави изкуствения интелект по-умен, според специалисти от ИТ индустрията. Какво означава това за Nvidia, която е основният бенефициент от бума на AI, и разработчиците на големи езикови модели?

Способността на графичните процесори да мащабират добре изчислителната производителност в условията на забавяне на класическия закон на Мур отдавна е представяна от ръководството на Nvidia като спасителен пояс за компютърната индустрия. Но експлозивният растеж на системите с изкуствен интелект започва да се забавя и на хоризонта се задават нови предизвикателства за мащабиране на производителността.

За мнозина в Силициевата долина законът на Мур е изместен от нова концепция: „законът за мащабиране” на изкуствения интелект, отбелязва Файненшъл Таймс. Доскоро се смяташе, че мащабирането на изчислителната инфраструктура и насищането ѝ с по-големи обеми от данни води до качествени промени в системите с изкуствен интелект. Очакваше се, поради това, че AI ще стане „по-умен” и всички големи компании в технологичния сектор започнаха активно да увеличават изчислителната мощност на своите центрове за данни.

По-рано анализаторите смятаха, че сегашният темп на растеж на производителността на центровете за данни ще продължи, докато не бъде създаден „суперинтелект”, способен да надмине човешкия интелект, но базиран на софтуерни алгоритми и зависимости. Едва през последните седмици експертите се загрижиха, че новите големи езикови модели на OpenAI, Google и Anthropic не постигат очаквания напредък.

Един от основателите на OpenAI, Иля Суцкевер, който напусна стартъпа, наскоро заяви: „2010-те години бяха ерата на мащабирането, но сега се връщаме в ерата на откритията и удивлението”. Забележително е, че Суцкевер беше уверен преди година, че цялата повърхност на Земята ще трябва да бъде покрита със слънчеви панели, които да захранват огромния брой центрове за данни.

Много участници на пазара са съгласни, че етапът на активно обучение на езикови модели е към своя край, но за да се запази сегашното темпо на напредък, трябва да се премине към следващия етап. Изпълнителният директор на Microsoft Сатя Надела вярва, че забавянето на обучението на големи езикови модели не ограничава особено темпото на напредъка, тъй като системите с изкуствен интелект придобиват способността да разсъждават.

Според основателя на Nvidia, Дженсън Хуанг, намаляването на нуждата от изчислителни ресурси за обучение на езикови модели няма да означава намаляване на търсенето на нейните продукти. Разработчиците на AI системи ще се стремят да намалят времето за реакция на системата на въпроси, зададени от потребителите. Тази надпревара ще изисква още повече хардуерни ресурси, според лидера на Nvidia, а това е добре за бизнеса на компанията.

Президентът на Microsoft Брад Смит е убеден, че пазарното търсене на ускорителни чипове ще продължи да расте поне още една година. Въпреки това, преходът на AI системите към нов етап на развитие трябва да бъде осигурен от появата на реални области на приложение, които са полезни за бизнеса. Все още има проблеми с това, тъй като всяка иновация трябва да носи материални ползи, а ефектът от използването на AI в сегашния му вид в много сектори на икономиката все още не е толкова очевиден.

Това не попречи на технологичните гиганти да инвестират огромни суми пари в разширяване на своите изчислителни ресурси. Тази година общите капиталови разходи на Microsoft, Amazon, Google и Meta трябва да надхвърлят 200 милиарда долара, а през следващата година вероятно ще надхвърлят 300 милиарда долара, според представители на Morgan Stanley.

Коментар