人工智慧模型训练太耗能!三星与 SK 海力士用新技术降低

人工智慧模型训练太耗能!三星与 SK 海力士用新技术降低

随着生成式人工智慧应用发展,训练模型也大幅增长,HBM 和 DDR5 等记忆体角色日趋重要,但也使记忆体能耗更突显。南韩媒体 Chosun Biz 报道,三星和 SK 海力士与学术界展开合作投资下一代技术,以降低记忆体能耗,提升高效能运算效率。

据统计,DRAM 占辉达 A100 GPU 为主资料中心平台总耗能约 40%。层数增加后,HBM 记忆体能耗也会跟着增加。而南韩首尔大学推出 DRAM Translation Layer 技术,声称可将 DRAM 功耗降低 31.6%,吸引三星青睐。

故三星正与首尔大学合作,以降低记忆体功耗。目前是 Compute Express Link 技术,开发 12 奈米制程 16GB DDR5 DRAM,与上代相较能耗降低 23%。

除了三星,SK 海力士推出 LPDDR5X,将 High-K 金属栅(HKMG)制程用于行动 DRAM。因 High-K 材料介电常数比传统 SiON 绝缘膜高约 5 倍,可用相同面积和厚度储存 5 倍电荷,帮助减少电流外泄。控制外泄电流的基础上,SK 海力士 LPDDR5X 不但传输速度提高 33%,功耗也比上一代降低超过 20%。

市场人士回应,训练模型对记忆体厂商提出进一步技术要求,厂商也展开竞争,将使记忆体成本逐渐下降,消费者也能从中获益。

(首图来源:三星)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。