AI 模型学会思考,研究人员提出 Quiet-STaR 演算法

AI 模型学会思考,研究人员提出 Quiet-STaR 演算法

人类天生具有推理能力,能够读懂字里行间之意,推断未陈述的资讯,这对解决问题而言相当重要。来自史丹佛大学和 Notbad AI, Inc. 研究人员以“Quiet-STaR”教导 AI 模型,在回应提示之前进行思考,就像人类说话前大多会考虑要说些什么一样。

本月发表的《Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking》论文,所提出的 Quiet-STaR 为 STaR(Self-Taught Reasoner)延伸版本,以大量网络资料进行训练,学习在每个语意片段(token)产生解释未来文字的依据,进而提升预测的准确性。

目前大众使用的聊天机器人及其背后模型会给出人类最想听到的答案,然而模型并不会停下来思考一个问题可能存在多种答案,若以人类来比喻,会形容成一个人直接脱口而出答案。

研究人员以 Quiet-STaR 为模型提供一种在回答之前进行思考的方法,声称模型能以更近似人类的方式回答问题。史丹佛大学和 Notbad AI, Inc. 研究人员将其技术称做 Quiet-STaR,是希望能“安静”运用 STaR。

简单来说,Quiet-STaR 的演算法运作原理是先要求模型针对问题产生多个答案,将答案与原始问题进行比较,以确认哪一个是最好的答案。

为了测试 Quiet-STaR 的演算法,研究人员将其应用在开源 Mistral 7B 模型上,显现推理能力的改进,尤其在 CommonsenseQA 问答挑战(从原本 36.3% 进步至 47.2%)和 GSM8K 小学数学应用题资料集(从原本 5.9% 进步至 10.9%),而且随着模型思考使用的 token 数增加还会不断改进。

AI 如果真要达到人的推理能力,还有很长一段路要走。“Quiet-STaR 透过对不同网络文字隐含的丰富推理任务进行训练,而不是狭隘地专门针对特定资料集,为更强大、更具适应性的语言模型指明方向。”研究人员表示,未来开发工作建立在 Quiet-STaR 基础上,期望进一步缩小语言模型和人类推理能力之间差距。

  • With Quiet-STaR, language models learn to think before speaking

(首图来源:shutterstock)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。