Водещите компании на облачния пазар прибягват до разработки на собствени чипове, които ще им позволят да създадат и собствени сървъри, като по този начин намалят зависимостта си от Intel, съобщи тайванското издание Digitimes, позовавайки се на източници от индустрията.
Google, Microsoft, Facebook, Amazon и Alibaba се нуждаят от по-специални чипове, които да работят с приложенията за изкуствен интелект. Intel отдавна доминира на пазара за процесори, а това не устройства големите интернет играчи, които продължават да разширяват възможностите на своите приложения и услуги.
На конференцията за разработчици Google I/O 2018 по-рано тази година интернет компанията представи тензорни процесори от трето поколение „Tensor Processing Unit” (TPU), предназначени за машинно обучение. Според разработчика, тези чипове са осем пъти по-производителни от своите предшественици.
TPU 3.0 във вид на платка достига производителност 100 петафлопа, докато версия TPU 2.0, представена миналата година, има показател 180 терафлопа. Процесорната платка се поставя в слот PCI Express 3.0 x16.
Междувременно се появиха информации, че Amazon също разработва специализирани чипове, които ще позволят на умните колонки на компанията да обработват големи данни в самото устройство, вместо в облака.
Според информация на ТВ канала CNBC, и Microsoft работи по проект за собствени процесори, които ще обработват алгоритмите за изкуствен интелект в облачната инфраструктура на компанията.
Хората много точно са го казали: “ще намалят зависимостта си от Intel”.
Една задача се решава за 1 час от специализирано TPU.
Същата тази задача се решава за 10 часа от едно обикновено CPU.
Така че вместо да купуват 10 процесора от Интел, сами ще си произведат 1 TPU и ще намалят значително зависимостта си от Интел.
Друг е въпросът, че последната година AMD изригнаха и с Threadripper тръшнаха в земята сървърните процесори на Интел. При наличието на Threadripper се чудя каква е причината компаниите са продължават да използват процесорите на Интел.
До Anonymous:
Това, което си го написал в долните 2 коментара е напълно правилно, но това не прави статията неадекватна. Просто трябва да прочетеш внимателно – пише “ще се намали зависимостта от Интел..”, а не ще се спре тотално ползването за Интел! Разбира се, че за офис приложения, ОС и т.н. ще се ползват процесорите на Интел и АМД, но реално най-често е най-важни за облачни и сървърни структури е процесорната мощ при сървърни (бази данни, Big Data) и специализирани процеси, машинно обучение, ИИ свързани с точно тези TPU.
Ако преди години или съвсем скоро за всичко са се ползвали Интел и АМД и наскоро NVidia, сега явно тези TPU ще покрият огромна част от тях.
До ха:
Първо се запознай с хардуера, който компанните разработват, после говори глупости високопарно.
TPU-тата на Google нямат нищо общо със зависимост от Intel.
Всичко се върти около ефективност при обработване на конкретен тип задачи, за които има и ще има все по-голямо търсене.
Това, което един 32-ядрен процесор на Intel върши за 24-30 часа, едно TPU го върши за 8-10 минути. Защото е специализирана задача.
Но, без CPU всичкото TPU, GPU и прочее дори няма да може да припали, защото му трябва процесор с общо предназначение, който да подкара операционната система и да управлява специализираните процесори.
Също така ще отбележа, че 99% от софтуера е написан за и изисква процесори с общо предназначение.
Нито TPU-тата на Google, нито GPU-тата на Nvidia могат да обслужват TCP/IP заявки, нито да бутат бизнес приложения като MS Office и Google docs; не могат да комуникират с периферни устройства, което е ключова задача за всички приложения с потребителски интерфейс.
Ако някоя от тези компании искаше да намали зависимостта си от Intel, щеше да мине на AMD и ARM сървърни процесори. Точно толкова просто е.
С други думи, Digitimes са извадили нечовешки тъп и неадекватен извод.
Скоростта на една система се определя от най-бавната й операция. И в този ред на мисли тази операция вече не се извършва от централния процесор, а от специализирани чипове. Така на практика CPU-то вече НЕ Е от значение! Можеш да си ползваш такова от много старо поколение и пак да имаш отлични резултати, заради бързия ти специализиран чип. Така че точно е казано, че намаляват зависимостта си от Intel, като започват да купуват много по-рядко техните процесори.
Не мисля, че зависимостта от Интел е какъвто и да е движещ фактор. x86_64 няма как да отпадне просто ей така, CPU-тата от този тип ще продължат да се ползват.
Облачните гиганти разработват **специализирани** чипове, най-вече в насока ИИ (A.I.), но без CPU, което да управлява GPU-та, TPU-та и прочее, няма как да стане.
Евентуален удар срещу Intel би била миграция към ARM процесори + специализирани GPU, TPU, … но, това ще повлияе на специализираните нужди за определени задачи. Web, стрийминг (музика, видео), бази данни и прочее на TPU-та не вървят.
В този ред на мисли, коригирайте си информацията. Производителността на TPU 3.0 на Google не е написана, 100 petaflops не е производителността на 1 процесор.
Википедия дава приблизително добра идея каква ще е производителността:
1. TPU 3.0 е 2 пъти по-бърз от TPU 2.0, т.е. 2 x 45 TFLOPS = 90 TFLOPS
2. В един модул ще слагат 4 пъти повече TPU 3.0 чипове. TPU 2.0 модулите са с по 4 чипа (4×45 = 180TFLOPS). Следователно, 1 TPU 3.0 модул ще има 16 x 90TFLOPS = 1,4 EFLOPS (exaflops) производителност.
За достигане на 100 petaflops ще им трябват приблизително 4550 модула.
При TPU 2.0 ползват 64 модула за 1 pod, в общо 256 pod-а, което е 16384 модула.
Значи, новата им архитектура ще съдържа около 3 пъти по-малко pod-ове, или по-малко модули в 1 pod.