李开复“零一万物”8个月跻身AI独角兽、超越Meta!为何“灵活”躲过美国禁令?
▼
近期,出身中国台湾的科学家李开复的AI新创“零一万物”(01.AI)在仅8个月的时间内超越了Meta,成为AI领域的新巨头。这家公司以建立内地本土化的大型语言模型为目标,成功推出了首款开源模型Yi-34B,支援中英文并拥有340亿参数,在全球开源模型排行榜上获得头衔。零一万物的崛起不仅在技术上取得突破,还在面对美国对AI晶片的出口限制时做出了灵活应对。
图/ 李开复脸书
零一万物旨在建立内地的OpenAI
《TechCrunch》报道,开发出Yi-34B与Yi-6B等语言模型的零一万物(01.AI)是李开复于今年3月成立,旨在为内地市场开发一款本土的大型语言模型,目前估值已超过10亿美元。他在受访时引述谚语“需求乃发明之母”(Necessity is the mother of invention),表示因为内地没有OpenAI与Google的使用权,所以许多AI公司都在努力为市场创造解决方案。
零一万物目前旗下约有100多名员工,团队卧虎藏龙,有来自Google、微软、阿里巴巴、字节跳动(ByteDance)与腾讯等科技巨头的人才。其技术副总裁是Google Bard团队的早期核心成员,而此次登顶的Yi-34B,背后的关键人物则是曾任职微软亚洲研究院的黄文灏与担任过华为云AI部门技术长的戴宗宏。
零一万物(01.AI)的语言模型Yi-34B也成为迄今为止唯一登顶AI开源社群平台Hugging Face全球开源模型排行榜,并且是由华人主导研发的大型语言模型。
图/ 李开复脸书
Yi-34B是什么来头?零一万物的未来将怎么走?
大型语言模型(LLM)能够阅读、理解和生成类似人类的文字、影像和程式码。而Yi-34B的名称取自于训练中使用了340亿个参数,是零一万物所发布的首款开源模型,同时支援英文与中文两种语言。
虽然规模比Meta的Llama 2(700亿个参数)要小,但在Hugging Face的预训练(Pre-trained)模型排行榜却拔得头筹,赢过Meta的LLaMA 2,零一万物的团队表示该模型最多可以处理多达40万汉字的文本输入,能更好地满足中文用户的需求。(GPT-4仅约2.5万字)
参数是影响人工智慧系统处理输入数据的设置。神经网络中有越多这样的设置,系统就能执行越多任务。但这种复杂性的提高是以硬件效能为代价的:最大的语言模型必须在造价昂贵的数据中心靠晶片来运行。
《Bloomberg》指出,尽管才刚推出不久,但零一万物已经在规划未来的商业蓝图,将走向客制化的模式,为特定行业或情况量身定制产品。而未来也将支援中英以外的语言。
零一万物在未来将走向客制化的模式,为特定行业或情况量身定制产品
图/ shutterstock
零一万物如何面对美国禁止出口AI晶片的限制?
建造大型语言模型(LLM)是一项所费不赀的事业,零一万物能够用8个月的时间迎头赶上其它AI巨头,除了优秀的人才外,有充沛的资金能确保GPU的数量稳定同样重要。李开复也表示大部分的资金都用在购买GPU,而为了应对美国的制裁,这间公司甚至在获得资金之前就先借钱购买了GPU。
过去一年里,拜登官方祭出了更严格的出口禁令,Nvidia旗下的A100本来就无法出口,现在甚至连阉割版本的A800与H800也受到影响。但由于零一万物的提前布局,目前的存货仍够使用12至18个月。晶片的稀缺也让李开复表示,“我们将1000颗GPU榨出2000颗的效能”。
Nvidia的A100本来就无法出口,新版晶片禁令连阉割版本的A800与H800也受到影响
图/ NVIDIA提供
零一万物的最终目标是建立一个生态系统,让开发者可以轻松的构建应用程式。这也是之所以选择构建开源模型的原因,因为因为绝大多数AI开发者负担不起或不需要最大、最贵的模型。而开源的AI系统就像开源软件一样,可以修改和增强原始的程式码。
资料来源:Bloomberg、PYMNTS、TechCrunch、The Decoder
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。