中美GPU差距超10年,ChatGPT与中国无关?

互联网乱侃秀
关注

自从今年ChatGPT爆火之后,就有很多的网友有疑问,为何ChatGPT这样的AI应用,没有首先诞生在中国,不是说中国AI全球领先了么?

后来有人表示,还是GPU芯片的问题,因为ChatGPT背后,其实是GPU算力堆出来的,而中国的GPU芯片,与美国GPU芯片,至少有10年的差距,所以ChatGPT无法诞生在中国。

拿ChatGPT来说,其背后至少应用了3万块以上的Nvidia的A100这样的GPU芯片,而这种芯片是对中国禁销的,所以中国版ChatGPT难诞生。

但是,没有顶级的GPU芯片,中国版的ChatGPT就没法诞生了?当然不是的,这不百度就站出来打脸了。

前几天百度发布了文心一言,这是类似于ChatGPT的新一代大语言模型的生成式 AI,它具备在文学创作、商业文案创作、数理推算、中文理解、多模态生成五个使用场景中的综合能力。

发布会的现场,李彦宏进行了演示,从现场展示来看,文心一言某种程度上具有了对人类意图的理解能力,并基于百度庞大的训练数据,直接进行总结、解答。

当然,最重要是,百度的文心一言背后,使用的是不是NVIDIA的GPU,也不是AMD的GPU,而是百度自研的芯片,它就是昆仑一号。

昆仑一号芯片是2020年量产的一颗通用AI芯片,是百度自研的,采用14nm工艺,实测有200多TOPS的实际的性能,对比业界最先进的T4的GPU(70TOPS左右),有T4芯片3倍的性能提升。

这种昆仑一号芯片,特别适合大模型做推理,也适合做训练,所以被百度用在了文心一言的大模型的推理上。

而使用昆仑一号,一方面不用担心被卡脖子了,毕竟使用NVIDIA、AMD的GPU,就相当于脖子被人卡住了,对方随时可以断供。

此外,还能够节省成本,比如买一块NVIDIA的A100芯片,需要1万多美元,近10万人民币,但按照百度的说法,使用昆仑一号芯片的话,可能只要2万元人民币就搞定了。

近日,百度也表示昆仑二号芯片,也即将来了,采用7nm工艺,与第一代芯片相比,性能提高了3倍,还带有高速片间互联,且有多款细分型号,覆盖云训练、云推理以及边缘计算等优势。

可见,也不是非得使用NVIDIA、AMD的GPU芯片,国产自研的AI芯片,也一样能够胜任的,要自信一点,国外的月亮并不比中国的圆。

       原文标题 : 中美GPU差距超10年,ChatGPT与中国无关?百度自研AI芯片来打脸

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存