华邦电推创新 CUBE 架构超高频宽记忆体,进军边缘运算 AI 市场

华邦电推创新 CUBE 架构超高频宽记忆体,进军边缘运算 AI 市场

记忆体大厂华邦电宣布推出 CUBE (客制化超高频宽元件) 新记忆体解决方案,透过大幅优化记忆体技术,展现高效能的边缘 AI 运算能力,帮助客户在主流应用场景中达成边缘 AI 计算的应用。

华邦电指出,CUBE 增强了前端 3D 结构的性能,例如 chip-on-wafer(CoW)和 wafer-on-wafer(WoW),以及后端 2.5D/3D chip on Si-interposer 的基板和扇出( Fan out)解决方案。而且 CUBE 专为满足边缘 AI 运算装置不断增长的需求而设计,能利用 3D 堆叠技术并结合异质键合技术以提供高频宽低功耗的单颗 256Mb 至 8Gb 记忆体。除此之外,CUBE 还能利用 3D 堆叠技术加强频宽降低资料传输时所需的电力。

华邦电表示,CUBE 架构让 AI 部署产生了转变,并且我们相信,云 AI 和边缘 AI 的整合将会带领 AI 发展至下一阶段。因此,华邦电正在透过 CUBE 解锁全新可能,并且为强大的边缘 AI 设备提高记忆体性能及优化成本。而 CUBE 的推出是华邦电实现跨平台与介面部署的重要一步。CUBE 适用于穿戴设备、边缘服务器设备、监控设备、ADAS 及协作机器人等应用。

华邦点强调,CUBE 提供卓越的电源效率,功耗效能低于 1pJ/bit,能够确保延长执行时间并优化能源使用。另外,凭藉 32GB/s 至 256GB/s 的频宽,CUBE 可提供远高于行业标准的性能提升。而且,CUBE 拥有更小的外形尺寸。目前基于 20nm 标准,可以提供每颗晶片 256Mb-8Gb 容量,甚至 2025 年将有 16nm 标准。而引入硅通孔(TSV)可进一步增强性能,改善信号完整性、电源稳定性、以 9um pitch 缩小 IO 的面积和较佳的散热。

最后,CUBE 的 IO 速度于 1K IO 可高达 2Gbps,当与 28nm 和 22nm 等成熟制程的 SoC 整合时,CUBE 则可达到 32GB/s至 256GB/s 频宽,相当于 HBM2 频宽,也相当于 4 至 32 个 LP-DDR4x 4266Mbps x16 IO 频宽。甚至,当 SoC 堆叠在 CUBE上时,则有机会最小化 SoC 晶片尺寸,进而省下 TSV 面积损失,能够为边缘 AI 设备带来更明显的成本优势。

华邦电进一步强调,CUBE 可以释放混合边缘/云 AI 的全部潜力,以提升系统功能、回应时间以及能源效率。此外,华邦还正在积极与合作伙伴公司合作建立 3DCaaS 平台,该平台将进一步发挥 CUBE 的能力。通过将 CUBE 与现有技术相结合,华邦能为业界提供尖端解决方案,使企业在 AI 驱动转型的关键时代蓬勃发展。

(首图来源:AI资源网摄)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。