Усъвършенствано хардуерно устройство може да намали консумацията на енергия при AI изчисления най-малко 1000 пъти. Технологията е резултат от над 20 години научно-изследователска работа и изглежда идва в „правилния“ момент, когато революцията на изкуствения интелект заплашва да превърне центровете за данни в най-страшните консуматори на ток.
Изследователи от университета в Минесота са разработили усъвършенствано хардуерно устройство, което може да намали консумацията на енергия в изчислителните приложения с изкуствен интелект най-малко 1000 пъти. Технологията е наречена CRAM – изчислителна памет с произволен достъп (computational RAM). При тази система данните се обработват изцяло в масива на паметта, елиминирайки необходимостта от трансфер на данни „напред-назад“. Данните просто не напускат паметта. Методът значително намалява мощността и съответно консумацията на енергия.
„Тази разработка е първата експериментална демонстрация на CRAM, при която данните могат да се обработват изцяло в рамките на масива памет, без да напускат мрежата, където компютърът съхранява информация“, казват учените.
Развитието на технологията CRAM е резултат от над 20 години изследвания. Първоначално смятана за „луда“ идея, сега тя се оказа осъществима благодарение на съвместни усилия на учени от различни дисциплини, включително физика, наука за материалите и компютърно инженерство.
„Първоначалната ни концепция да използваме клетки с памет директно за изчисления, родена преди 20 години, се смяташе за лудост“, каза Джиан-Пинг Уанг, старши автор и изтъкнат професор в университета.
Изследването се основава на работата на Уанг с магнитни тунелни връзки (MTJ) – миниатюрни устройства, които подобряват микроелектронните системи. MTJ, използвани в магнитна памет с произволен достъп (MRAM), предлагат висока скорост и енергийна ефективност.
Стъпвайки на тази предистория, CRAM решава въпроса с „тясното място“ на традиционната компютърна архитектура, където изчисленията и паметта са отделни. Технологията позволява гъвкави, енергийно ефективни изчисления, съобразени с различни AI алгоритми.
Изследователският екип се надява да доразвие идеята в сътрудничество с ИТ индустрията. Учените планират да работят съвместно с лидери в полупроводниковата индустрия, за да увеличат мащаба на демонстрационните си модели и да произведат хардуер, който подобрява функционалността на AI.
Откритието идва в момент, когато настъпва същинска енергийна криза при изчисленията на база изкуствен интелект. Международната агенция по енергетика прогнозира, че потреблението на енергия за AI ще се удвои от 460 тераватчаса през 2022 г. до 1000 TWh през 2026 г. Това е еквивалентно на потреблението на електроенергия в Япония.
Технологията CRAM предлага решение – според учените от Минесота, оценката за 1000-кратното намаление всъщност е консервативна; CRAM може да намали потреблението на енергия от 1700 и дори 2500 пъти, смятат те.