大摩:现阶段 ChatGPT 可放大工作效率,难取代人

大摩:现阶段 ChatGPT 可放大工作效率,难取代人

聊天机器人“ChatGPT”这些基于人工智慧AI)的文字生成系统,目前仍有产生“幻觉”(hallucination)的疑虑,也就是创造非事实的内容。摩根士丹利(Morgan Stanley、通称大摩)预测,未来几年 ChatGPT 仍会偶尔幻想出错误答案。

Business Insider 23日报道,大摩由Shawn Kim带领的分析师团队22日发表研究报告指出,在需要高度精确的任务方面,ChatGPT仍偶尔会出现幻觉,生成看似具说服力、实际却是错误的答案。

报告称,“现在这个阶段,最好让受过高等教育的用户先行揪错,把生成式AI (Generative AI)应用程式当作放大劳动效率的方式,而非直接取而代之。”

OpenAI开发的ChatGPT近来开放给全球民众使用后爆火,在促使AI类股飙涨的同时,也迎来批判的声浪。学者警告,ChatGPT等AI平台可能散布错误资讯。Kim认为,“未来几年,正确性会是需要持续面对的挑战”。

不过,报告称,AI平台偶有错误的问题或许有解,可将ChatGPT等大型语言模型(large language model, LLM)连结至特殊网域来确认特定资讯。

与此同时,ChatGPT等工具有望透过边缘运算大幅改善。Kim指出,若要让更多程式运用AI,则须在边缘装置运作,但这些装置内建的绘图处理器(GPU)通常效能能力不高。

所谓边缘运算是指靠近现实世界资料创造源的运算力。Kim表示,透过边缘运算执行AI,不但能降低延迟度(相较于云端运算),也较不昂贵,还能保有隐私,并对消费者更加友善。

微软(Microsoft Corp.)2月展示支援AI的Bing搜寻引擎beta测试版后,测试者很快就发现问题,Bing AI有时语带威胁、有时提供怪异且毫无帮助的建议,且打死不认错,甚至宣称爱上使用者。测试者也发现,这款聊天机器人有一个名字为“Sydney”的隐藏人格(alternative personality)。

CNBC、Forbes 2月16日报道,部分AI专家早已警告,LLM会有幻觉等问题,也就是LLM可能会捏造事实。有些人担忧,高级的LLM可能让人类误以为他们有知觉,甚至鼓励人类伤害自己或他人。

(本文由 MoneyDJ新闻 授权转载;首图来源:pixabay)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。