В началото на седмицата Apple представи много нови продукти, но нито веднъж не спомена понятието „изкуствен интелект“, макар, че елементи на AI присъстват в повечето от тях. Това „мълчание“ озадачи анализаторите.
Докато представяха емблематични продукти като Silicon Mac Pro и Vision Pro на конференцията за разработчици WWDC 2023, лекторите на компанията никога не споменаха директно „изкуствен интелект“, както правят Microsoft и Google, а го замениха с други понятия: „машинно обучение“ и „ трансформър”, отбелязва ArsTechnica.
Говорейки за новите алгоритми за автоматично коригиране и гласово въвеждане в iOS 17, старши вицепрезидентът на Apple по разработка на софтуер Крейг Федериги каза, че функцията се основава на машинно обучение и езиков модел – трансформър, благодарение на който системата работи по-точно от всякога. Или, че „моделът“ се задейства при всяко натискане на клавиш, което е възможно благодарение на мощните процесори на Apple в сърцето на iPhone.
Така Федериги избегна термина „изкуствен интелект“, но потвърди, че продуктът използва езиков модел с „трансформираща“ архитектура, оптимизиран за обработка на естествен език. На същата архитектура работят невронните мрежи, които са основата на генератора на изображения DALL-E и чатбота ChatGPT. Това означава, че автоматичната корекция в iOS 17 работи на ниво изречение, като предлага завършване на думи или цели фрази.
Освен това езиковият модел допълнително се учи, като се приспособява към особеностите на речта на собственика на телефона. Всичко това става възможно благодарение на Neural Engine, който дебютира в процесорите Apple A11 през 2017 г. и оптимизира производителността на приложенията за машинно обучение.
Терминът „машинно обучение“ беше споменат няколко пъти от Apple: при описание на новите възможности на заключения екран на iPad – функцията Live Photo сама синтезира допълнителни кадри; при функцията за сканиране на PDF в iPadOS за последващо автоматично заместване във формуляри; при функцията AirPods Adaptive Audio, която разкрива музикалните предпочитания на потребителя; и в описанието на новата джаджа Smart Stack за Apple Watch.
„Машинно обучение“ се използва в новото приложение Journal – сега потребителите могат да си водят личен интерактивен дневник на iPhone. Приложението само препоръчва какво съдържание да се маркира, на базата на данните, съхранявани в телефона.
И накрая, „машинното обучение“ се използва за създаване на 3D потребителски аватари с изображения на очите, показани на предния екран на AR очилата Vision Pro. И за компресиране на тези аватари се използва кодек, базиран на алгоритъм на невронна мрежа.
Непряко споменаване на AI технологии последва при описанието на новия чип Apple M2 Ultra, който има до 32 CPU ядра и 76 GPU ядра, както и 32 ядра Neural Engine. Процесорът осигурява до 31,6 трилиона операции в секунда и повишава производителността с 40% в сравнение с M1 Ultra.
Apple изрично заяви, че тези ресурси могат да се използват за обучение на „големи трансформиращи модели“ със 192 GB RAM, каквато днешните дискретни графични процесори нямат и поради това остават пасивни при някои задачи.
Всичко това означава, че AI обучението е достъпно за средния потребител – не само за притежателите на най-добрия Mac Pro, започващ от $6999, но и на по-скромния Mac Studio на цена от $1999. Остава да изчакаме сравнителни прегледи с ускорители като NVIDIA H100.