可在 AI PC 运行,Google 发表轻量级开源模型“Gemma”

可在 AI PC 运行,Google 发表轻量级开源模型“Gemma”

Google 采用与建立 Gemini 模型相同的技术和技术和基础架构元件,开发出轻巧、开源的新模型 Gemma,可在笔电、工作站等电脑,或者 Google Cloud 上执行。

Google 目前为 Gemma 推出两种规模:20 亿参数的 Gemma 2B 和 70 亿参数的 Gemma 7B,每种规模皆发表预先训练和指令调整的版本,以利开发者和企业客户进行研究和开发。

Gemma 由 Google DeepMind 和 Google 旗下其他团队联手开发,新模型开发灵感来自 Gemini,名称则参考拉丁文 gemma,意即“宝石”。

值得关注的是,为了发挥模型性能,Google 与 NVIDIA 携手合作,从资料中心到云端再到搭载 RTX 系列显卡的 AI PC,针对 Gemma 在 NVIDIA GPU 上的效能表现进行最佳化。

开发者可以针对文字生成、内容摘要、问答等轻量级任务,运用 Gemma 建构生成式 AI 应用程式;或者使用自订的轻量级 Gemma 进行探索和实验,以支援研发作业;还能将 Gemma 支援需要低延迟的即时生成式 AI 应用场景,比方说串流文字。

▲ iKala 执行长程世嘉针对 Gemma 提出个人见解,认为 Google 藉 Gemini、Gemma 企图复制 Android 的成功战略。

Gemma 支援 Google Cloud 开发者爱用的工具,包括 Colab 和 Kaggle Notebooks,以及 JAX、PyTorch、 Keras 3.0 和 Hugging Face Transformers 等框架。现在 Google Cloud 的客户可在 Vertex AI 开始运用 Gemma,并于 Google Kubernetes Engine(GKE)当中执行。

继上周发表 Gemini 1.5 后,紧接着释出两种规模的 Gemma,这也是自 OpenAI 推出 ChatGPT、掀起全球 AI 热潮以来,Google 首次发表开源大型语言模型。然而这并非 Google 对开源 AI 研究的首次贡献,事实上 Google 将 Transformer 架构的开发以及 TensorFlow、BERT、T5、JAX 等版本视为关键贡献,这些技术毫无疑虑对 AI 发展相当重要。

  • Google goes “open AI” with Gemma, a free, open-weights chatbot family

(首图来源:Google Blog)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。