Законът на Мур, по който се развиваха микропроцесорите в продължение на десетилетия, вече губи своята актуалност. Скоро графичните процесори (GPU) ще станат по-мощни от централните процесори (CPU) и в крайна сметка ще ги заменят, смята главният изпълнителен директор на Nvidia – Дженсен Хуанг.
Всеки компонент от хардуера на компютъра има своята роля – CPU изпълнява определени задачи, а GPU – други, но в последните години границата между тях се размива, като някои от задачите се споделят между двата типа процесори.
Законът на Мур гласи, че транзисторите на всеки квадратен инч се удвояват с всяка година. Това беше вярно за дълъг период от време, след което законът бе променен и срокът за удвояване на броя на транзисторите се покачи на две години.
Ясно е, че законът на Мур е на изживяване, защото транзисторите не могат да се свиват безкрайно. В един момент производственият процес ще се сблъска с квантови ограничения и това ще бъде краят.
Но от друга страна, имаме паралелните изчисления, които поддържат темпото на ръст в производителността. Дженсен Хуанг набляга на факта, че графичните процесори на Nvidia стават по-мощни в по-кратки срокове отколкото централните процесори и използват подобни производствени технологии.
Времето на процесорите от типа CPU изтича, смята главният изпълнителен директор на Nvidia, цитиран от SegmentNext.com. Редица компании като Alibaba и Tencent вече инвестират в Nvidia Volta за техните облачни сървъри, базирани именно на GPU решения.
Но в интерес на истината, когато Nvidia говори за предстоящата замяна на CPU с GPU, това се отнася преди всичко до сървърите. Същият процес ще отнеме много повече време при десктоп компютрите, ако въобще се случи някога.
Нито Intel, нито AMD ще наблюдават пасивно подобен процес. В момента Intel налага 14-нм процесори и подготвя бъдещите 10- и 5-нанометрови чипове. Най-вероятно, квантовите изчисления ще бъдат истинската промяна, преди индустрията да достигне предела в производствения процес.
Тоя, па, не знае къде се намира … По-скоро си представям GPU-тата да бъдат заменени от специализиран хардуер за различните задачи.
GPU-тата са неефективни при еднопоточни данни, силно разклонени програми, неструктурирани данни.
В същото време какво става в индустрията:
Гугъл си проектираха Tensor Processing Unit за облака.
Apple пуснаха Neural Engine в A11 Bionic (iPhone 8, 8+ и X) .
Huawai са интегриранли NPU (Neural Processing Unit) в Kirin 970.
Друг специализиран хардуер, който измести GPU-тата е ISP (Image Signal Processors) – и Qualcomm и Apple Ax имат свои варианти.
В същото време Intel имат FPGA-та интегрирани в някои нови процесори.
Може би Nvidia трябва да преосмислят бъдещето на GPU-тата. Ясно е, че без тях няма да можем, но едва ли ще поемат толкова много задачи, колкото се надяват от компанията.
и повече токец дърпат и повече място заемат, да увеличат размера на цпу на отделна платка и да смучи 400-500вата? интересно ми е как ще изглежда работата! всичко е до оптимизация, но просто истинските програмисти са твърде малко за да оптимизират и извлекат максимума от процесор/графична карта… така, че стига скоро моро..