Google Bard灵魂推手来自中国台湾!纪怀新解密Bard:AI有哪些限制?怎么训练?

Google今年推出实验性对话式AI服务“Bard”,7月更进一步升级支援包括繁体中文在内的40种以上语言,吸引多数中国台湾用户体验Google最新的AI技术应用。在Google Bard团队中,最关键的灵魂人物就是来自中国台湾的纪怀新(Ed H. Chi)博士。

任职Google超过12年、身为Google DeepMind的杰出科学家,纪怀新亲自从美国总部回来中国台湾解密,分享Google如何持续在多元产品与服务中,透过AI技术应用,帮助使用者带来更智慧的体验。

“Google的使命,就是透过大型语言模型(LLM)汇整全球资讯,并以自然的对话方式,供大众使用,也使人人受惠。”在Google分享聚会中,纪怀新也亲自回答3大核心问题,包括Google为何今年加入AI战局、Bard如何学习并理解、大型语言模型还有哪些挑战?

Google DeepMind杰出科学家纪怀新(Ed H. Chi)博士

Google今年7月更进一步升级Bard支援包括繁体中文在内的40种以上语言。

图/ 杨络悬摄影

重点一:为什么Google在今年才决定加入AI战局?

由于市场上的生成式AI话题是由ChatGPT而来,使得不少民众以为,Google是为了迎战ChatGPT的热潮,才加紧推出Bard产品。

纪怀新解释,“事实上,Google将AI技术带入产品和服务中,已超过10年。”意思是,Bard是Google布局10年之久的AI战略中,其中之一的成果。

Google在发展Bard之前,2011年就已经有Google Brain计划团队,尝试导入AI上的研究及运用。

像是在“Google智慧镜头”透过图片来搜寻其中的文字资讯、结合AR技术显示路线环境的“Google地图”、透过AI机器学习技术强化Gmail或Meet工具的“Workspace”,以及Pixel手机的即时翻译、魔术橡皮擦等,都是AI应用的例证。

延伸阅读:Google内部文件揭密:Google助理跟Bard有什么不同?

自2013年至今,纪怀新带领的机器学习研究团队,也包含大型语言模型、对话程式语言模型(LaMDA/Bard)、神经网络推荐系统(neural recommendations)、可靠性机器学习(reliable machine learning)等相关研究。

他的团队也帮助过YouTube推荐演算法、Google新闻、广告、Google Play商店等一系列Google产品,“这10年来,仅仅我们团队,就在Google带来720项改进。”

重点二:Bard如何学习并理解不同语言?

“资料跟资料效率,是发展对话式AI的关键。”纪怀新解释,Bard整套训练中,必须经过3个不同阶段,分别是“预训练”(Pre-Traing)、“微调”(Fine-Tuning)、“提示/提问”(Prompting)等。

他进一步解说,“预训练”就是学习语言的基础能力,也是最昂贵的阶段;“微调”是专精于特定任务,尤其数据资料效率比较好的预训练模型,能用更少的资料量学习;“提示/提问”则是提示及小样本数据资料,能够在正确的时间唤醒正确的能力。

Google DeepMind杰出科学家纪怀新(Ed H. Chi)博士

纪怀新博士解释,具备“多语言理解能力”的Bard如何解释德文谚语。

图/ 杨络悬摄影

有趣的是,纪怀新也用德文谚语“Ich verstehe nur Bahnhof”作为案例,若单纯用Google翻译工具,这句话就只会字面上翻译成英文“I only understand train station”(我只知道火车站)。

由于Bard具备更好的“多语言理解能力”(multilingual understanding),因此,就会进一步解释这句翻译是错误的,并明确指出这句德文谚语的真正意思“I don’t understand anything”(我什么都不知道),向用户解说“这句谚语是一种夸饰性的说词”。

由此可知,语言模型能够互为集中、学习,进一步理解而提升原有的模型基础,这样的结果也吸引多数用户将Bard成为自己的语言学习家教。

延伸阅读:一个关键优势,Google领先10年!分析师:AI大战比微软更有赢面

Bard拥有很好的对话基础,但在此之前的互动也不具备连贯性,话题内容更不够广泛,这都是学习的过程。纪怀新坦言,AI聊天机器人的体验,应该要表现出交换式(Transaction)与互动式(Interaction)两大特色并存,要有人性化的互动,而不单只是帮忙人类工作而已。

此外,有别于ChatGPT的回答基础限制在仅能参考2021年前的资料,Google Bard则可利用搜寻引擎的工具,提高更正确、具有时效性的答案。“这就好像我们教大型语言模型LLM,如何继续搜索、去阅读这些网络结果,进而产生相应的动作,最后是经过Google内部的搜索引擎产生出的回应。”纪怀新如此解释。

值得一提的是,被问到Google训练AI时,是用TPU,还是辉达(NVIDIA)的GPU呢?纪怀新透露,Google一直100%使用自家的TPU,尤其Google很早就在AI领域投入大量资源,里头的数学运算及训练方法,都是早就发展的成果。

重点三:Bard存在“5大已知的限制”

“大型语言模型目前仍处于早期发展阶段。”纪怀新说,尽管Google的对话程式语言模型(LaMDA)可以做到1,370亿个参数,让Bard理解合理性、具体性、趣味性、安全性、真实性,并归纳出数百万任务,但事实上AI模型仍需不断微调“更自然方式”的具体内容,才能跳脱早期的Google Assistant单一及不自然。

纪怀新指出,就目前来说,大型语言模型(包含Bard在内)仍存在“5大已知的限制”,像是回答时出现与事实不符合的“幻觉”及偏差:

  1. 准确性:Bard的回应可能未必准确,尤其当询问复杂或讲求事实的主题时。

  2. 偏差性:Bard的回应可能反映偏见或呈现出训练资料中的特定观点。

  3. 人格化:Bard的回应可能会让人以为它有个人意见或感受。

  4. 伪阳性/伪阴性:Bard可能对某些适合的提示不予回应,并提供不适合的回应。

  5. 恶意提示的刻意攻击:使用者会不断寻找对Bard进行压力测试的方法。

面对这5大问题,纪怀新解释,这是Google和整个业界正在研究的领域,Google也将随着时间推移演进,致力改善这些面向。Google也会持续与官方机关、企业、大专院校等多方合作交流,共同研拟相关做法和标准,设法降低风险。

延伸阅读:日立把AI变老师傅,是培训帮手也是产品!百年老店AI大计

纪怀新也透露,一年多没回来中国台湾,此次希望参与学术交流,并与Google中国台湾同仁交流,希望中国台湾针对AI领域作出一些贡献。“大型语言模型会改变我们与AI互动的方式,并为生活带来明显改变,我们将持续参与其中。”

纪怀新博士小档案

现职: Google DeepMind 杰出科学家,带领机器学习研究团队,进行大型语言模型(LaMDA/Bard)、神经网络推荐系统(neural recommendations)、可靠性机器学习(reliable machine learning)等相关研究。

贡献: 他所带领的研究团队协助推出Bard,并从2013年起为YouTube、Google 新闻、等产品带来超过720项改进。纪怀新着名的研究领域为网络和线上社群系统对使用者行为的影响,并拥有39项专利和200多篇研究论文的发表。

经历: 帕罗奥多研究中心(Palo Alto Research Center)增强社群认知小组的区域经理及首席科学家,带领团队了解社群系统如何帮助人们的记忆、思考和推理。

学历: 在六年半内取得明尼苏达大学(University of Minnesota)学士、硕士和博士等3个学位。他获选为电脑协会院士(ACM Fellow)和人机互动学会院士(CHI Academy),也因在资讯视觉化研究贡献获颁20年的Test of Time Award。他的相关研究与言论曾被《经济学人》、《时代杂志》、《洛杉矶时报》和《美联社》等媒体报道和引用。

兴趣: 高尔夫、游泳、摄影和滑雪,且拥有跆拳道黑带。

责任编辑:林美欣

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。