最新预测!林咏华:混合异构的AI芯片将成算力资源稀缺的重要解决方案【附AI芯片行业市场竞争分析】

图源:摄图网

11月29日,2023人工智能计算大会在北京举办。北京智源人工智能研究院副院长、总工程师林咏华出席活动并发表观点。

“国内AI芯片的大模型训练性能与国外约有三年差距”,林咏华表示,当前中国 AI 芯片的大模型集群训练性能,只有个别接近英伟达 A100/A800,大多数不到 50%。此外是生态差距巨大,我国 AI 芯片公司有 40 余家,但中国 AI 芯片整体的市场占有率加起来不超过 10%,各家 AI 芯片软件各异、生态十分零碎割裂。

另外,对于国产AI芯片未来的发展方向,“混合异构的芯片技术架构成为解决算力资源稀缺的重要解决方案。“利用混合异构技术,可以将不同芯片放在一起训练同一个大模型。” 林咏华说道,提升混合异构能力,可以在同一个数据中心把各种算力资源进行灵活组合训练大模型。“希望国内的数据中心能够从以进口芯片为主,过渡到以国产芯片为主。”

国内外企业之间存在着巨大差距,而英伟达则在全行业中处于领先地位

从应用领域分类来看,英伟达一家独大全球云端训练芯片市场,TPU很难撼动英伟达GPU的垄断地位,目前英伟达的GPU CUDA计算平台是最成熟的AI训练方案,除此之外还有第三方异构计算平台OpenCL AMD GPU以及云计算服务商自研加速芯片这两种方案,全球各芯片厂商基于不同方案,都推出了针对于云端训练的人工智能芯片。

在全球云端推断芯片竞争格局中,各家云端推断芯片各有千秋。相较于训练芯片,推断芯片需要综合考虑单位功耗算力、时延和成本等因素。初期推断使用GPU进行加速,但由于应用场景的特殊性,根据具体的神经网络算法进行优化可能会带来更高的效率,FPGA/ASIC的表现可能更为突出

除了Nvidia、Google、Xilinx、Altera(Intel)等传统芯片大厂涉足云端推断芯片以外,Wave computing、Groq等初创公司也加入竞争。中国公司里,寒武纪、比特大陆同样积极布局云端芯片业务。

AI芯片在不同的架构下的应用

目前,AI计算的主流模式是基于AI芯片的加速计算。为了满足AI计算对算力的超高需求,AI芯片和AI算法进行协同设计。目前,主流的AI加速计算采用CPU系统搭载GPU、FPGA、ASIC等异构加速芯片

近年来,国产AI加速芯片厂商持续发力,在该领域取得了快速进展,相关产品陆续发布,覆盖了AI推理和AI训练需求,其中既有基于通用GPU架构的芯片,也有基于ASIC架构的芯片,另外也出现了类脑架构芯片,总体上呈现出多元化的发展趋势。

平安证券研报指出当前,我国通用人工智能产业政策逐步完善,国产大模型能力持续升级。随着国产大模型厂商和AI芯片厂商的持续发力,我国AIGC产业未来发展前景广阔。

前瞻经济学人APP资讯组

更多本行业研究分析详见前瞻产业研究院《》

前瞻产业研究院还提供咨询等解决方案。在引用本文内容于招股说明书、公司年度报告等任何公开信息披露时,需获得前瞻产业研究院的合法授权

欢迎下载使用【前瞻经济学人APP】,在这里您可以获取更多行业深度分析,与500多位经济学家和高级行业研究员进行交流互动

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。

相关文章