Gogole 下一代 Gemini 1.5 模型发表,上下文长度可达 1,000K token

Gogole 下一代 Gemini 1.5 模型发表,上下文长度可达 1,000K token

Google 农历年前为 BardGemini 产品带来重大更新,包括功能最强大的 Gemini Ultra 1.0 模型,并从 Gemini Advanced 开始导入,两周后公开下一代产品──Gemini 1.5

Gemini 1.5 在上下文理解方面有所突破,上下文长度可达 1,000K token,能够处理资料量更大的查询并能检视更多资讯,这对企业客户而言非常有用。Google 成为第一家将这种上下文长度投入商用服务的公司,领先 Anthropic 所推出的 Claude 2.1。

Google 新推出 Gemini 1.5 早期测试的 Gemini 1.5 Pro,是一种中型规模的多模态模型。Gemini 1.5 Pro 在用于开发大型语言模型的基准测试有 87% 表现优于 Gemini 1.0 Pro,Google 更称其性能水准与 Gemini Ultra 1.0 相似。此外,借由全新 Mixture-of-Experts(MoE)架构使 Gemini 1.5 训练和服务性能更高,这意味着当人们送出提示文字时,只运行 Gemini 1.5 Pro 一部分,而非整个模型加以处理。

Gemini 1.5 Pro 先配备标准的 128K token,未来最高可达 1,000K token,处理大量资讯相当于是 1 小时影片、11 小时音讯、超过 3 万行程式码或 70 万个单字的程式码资料库,比其他模型如 Gemini Pro 是 32K token、OpenAI GPT-4 是 128K token、Claude 2.1 是 200K token。皮蔡更透露,Google 研究人员甚至成功测试高达 10,000K token 的版本。

Gogole 下一代 Gemini 1.5 模型发表,上下文长度可达 1,000K token AI与大数据 图2张

▲ Gemini 1.5 上下文长度可达 1,000K token 领先业界。

Google 正在积极进行 Gemini 产品最佳化,以改善延迟、减少运算要求并强化用户体验,Gemini 1.0 Pro 和 Gemini 1.0 Ultra 现已透过 Vertex AI 平台正式推出,而Gemini 1.5 Pro 目前只能透过 Vertex AI 和 AI Studio 提供开发者和企业客户预览,Gemini 1.5 版本最终将取代 Gemini 1.0。

▲ Google 示范将阿波罗 11 号登月任务 402 页纪录给 Gemini 1.5 Pro,它能分析和整理整个事件、对话以及任务细节。

  • Gemini 1.5 is Google’s next-gen AI model — and it’s already almost ready
  • Google’s new Gemini model can analyze an hour-long video — but few people can use it
  • Google upstages itself with Gemini 1.5 AI launch, one week after Ultra 1.0

(图片来源:Google Blog)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。