辉达 GH200 登场,黄仁勋:AI 模型执行成本将大降

辉达 GH200 登场,黄仁勋:AI 模型执行成本将大降

为抵御超微(AMD)、Google 及亚马逊(Amazon.com)在人工智慧(AI)硬件领域的竞争,辉达(Nvidia Corp.)新推了专门用来执行 AI 模型的全新晶片,并表示执行大型语言模型(LLMs)的成本将“显着降低”。

CNBC、MarketWatch等外电报道,辉达执行长黄仁勋(Jensen Huang)8日在2023年绘图盛会“SIGGRAPH”(Special Interest Group on Computer Graphics and Interactive Techniques)发表次世代超级晶片“DGX GH200 Grace Hopper Superchip”,主要应用于大型记忆体生成式AI模型,例如OpenAIAI聊天机器人“ChatGPT”。

GH200的Hopper绘图处理器(GPU)与辉达目前最高阶AI晶片“H100”相同,但结合72核心的ARM架构Grace官方处理器(CPU),并搭配141 GB HBM3记忆体及每秒5 TB频宽。另外,NVLink-dual GH200系统内建两颗GH200,可将容量扩充3.5倍、频宽增加三倍。

黄仁勋8日表示,这款升级过后的处理器专门应用于全世界最大资料中心的水平式扩充(scale-out)作业。

GH200预定2024年第二季上市,但辉达并未说明定价。黄仁勋仅指出,GH200可让大型语言模型的推论成本显着下降。

AI模型的工作过程可分为两部分:训练与推论(inference)。

首先,AI模型会以大量资料训练,过程可能花上数月,有时需要上千颗GPU,例如辉达的H100及A100晶片。之后,AI模型将被软件用来预测或产生内容,这个过程称做推论。如同训练,推论过程相当昂贵,软件每次产生文字或内容都需要许多算力。然而,AI模型只有在更新时才需要训练,推论却会持续不断发生。

辉达副总裁Ian Buck 8日在电话会议表示,最新的GH200专为推论设计,因为这个程序需要更多记忆体容量,可让更大型的AI模型置入单一系统。

Buck指出,记忆体容量加大,可让AI模型常驻单一GPU,执行时不再需要多个系统或多颗GPU来配合。

辉达8日股价终场下跌1.66%、收446.64美元;盘中一度在新产品发表后下挫最多3%。

(本文由 MoneyDJ新闻 授权转载;首图来源:辉达)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。