生成式 AI 软硬件协同发展,IC 设计厂抢商机

生成式 AI 软硬件协同发展,IC 设计厂抢商机

ChatGPT 带动的生成式 AI 产业夯,除了现有的诸多讨论之外,更多的焦点应放在下一步 AI 会长得怎么样?未来的生成式 AI 有什么可能性?

人类对于AI的想像早已在一些电影当中显见,像是1984年《神通情人梦》(Electric Dreams),或是2013年的《云端情人》(Her)。但,什么时候能够更加优化机器,从现在一问一答的模式,变成像是电影当中的超级助理,拥有自我人格意识,而且能成长的AI系统,这样更像人类的可能性持续发展并演进当中。

从技术角度来看,大型语言模型(LLM)是透过生成式网络所建立,事实上,从过去语音、影像辨识,延伸到给机器一个指令并提供答案的方式,整体运算量高出许多,也意味着需要有更大的运算能力支持,即便仍需要运算时间,即时性仍有进步空间,但对现阶段的AI发展与需求来说是较其次的目标。

业内人士分析,从晶片端来说,目前仍是透过NVIDIA所提供的晶片与平台进行,要让机器变得更像是人,模型的优化变得更加重要,当资料量增加、训练量增加之后,模型也会逐变得更加完整,随后才能开发其他的晶片来跑更客制化的模型。

至于AI技术怎么往下进行,业内普遍认为,由于目前模型的效能、准确度、使用方便性等等都还在演化、发展的过程中,因此当模型更优化的时候,才会再回到硬件端,晶片设计公司才会以有效率的方式完成相应的硬件开发。

不过,软硬件之间的相互配合也是重要的,硬件能否提供具有强大运算力的平台,也是关键之一。像是由于需要大量的资料量运行、资料存取等需求,使得高速运算、高速传输、记忆体架构、晶片架构等都有再优化的空间。

以晶片架构来说,由于对晶片尺寸、良率等要求使得传统系统单晶片(SoC)转向使用异质整合的架构小晶片(Chiplet)设计,以实现低延迟性、低功耗、高运算等性能,兼顾软硬件协同最佳化的需求。

不过,如果用软件来定义,AI分成训练(Training)、推论(Inference)两种类型,例如自驾车来说,透过道路学习,服务器处理大量资料后,进而改变后续的行为。而边缘运算当中可以分成近、中、远,依照与资料中心的距离相对概念定义,从IoT装置、小型区域到远端的资料中心,各具功能,也有不同的运算能力,也让服务器变得更加重要。

除了要让AI好好运算的关键重要CPU之外,非x86架构的晶片做为辅助加速器也更为重要,像是FPGA、ASIC、GPU等。概括性来说,FPGA为现场可程式化逻辑闸阵列,可随时编程、弹性设计、功耗低,用于推论(Inference)可达到优于其他晶片类型;ASIC则是效能最高的方案,能最符合客制化需求,但一次性的成本高,特别是用于消费性产品;GPU则适合于图像训练,但功耗也同样较高,用于训练(Training)相对适合。

不过,目前开放原始码释出的大型语言模型,多数仍以英文为主要优化的对象,繁体中文的语言模型相对不足,因此,联发科辖下的前瞻技术研究单位联发创新基地、官方研究院词库小组和地区教育研究院三方所组成的研究团队,开放全球第一款繁体中文语言模型到开源网站提供测试,可应用于问答系统、文字编修、广告文案生成、华语教学、客服系统等。盼能在硬件优势上,强化软件的技术能力。

另外,在AI趋势之下,服务器、高速运算、高速传输的需求连带提升,因此纯IP厂、ASIC厂商可望拥有优势。

以纯IP厂商来说,晶心科总经理暨技术长苏泓萌表示,晶心科已打入资料中心AI加速器,扩充指令集,以及客制化的机制可以更有效率的传输资料,减少延迟性,也让效能发挥,这些也让客户认为RISC-V比Arm、x86架构更有优势。

且在高阶终端产品当中,高速传输规格升级的态势明确,包含服务器、AI、高速运算等领域当中,因此像是纯IP厂商M31也有望随着PCIe Gen5、USB4市场渗透率持续提升之下,新接案的动能不减。

ASIC厂商创意、世芯-KY等也在高速运算需求提升之下,拥有先进制程技术优势,在高速运算当中,ASIC做为加速器的角色,因此许多国际大型业者与ASIC厂商共同合作,更具有快速开发、成功性高、客制化、弹性化的特色,因此ASIC市场规模也是逐年放大。

整体来说,生成式AI技术持续演进,软件之间技术相互配合与优化,提供人类对未来科技生活的想像,也逐步改变人类与电脑运算之间的关系,应持续观察后续产业的变化。

(本文由MoneyDJ新闻授权转载;首图来源:Created by freepik)

延伸阅读:

  • 联发科携手中研院、国教院释出首款繁体中文 AI 语言生成模型开源
  • 小晶片堆叠技术引领先进处理器市场,各科技大厂加入布局

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。