AI芯战:端侧大模型引爆智能手机革命

当“生成式人工智能”成为科技圈的热门话题,大家在关注各种新奇应用的同时,也开始注意到,作为这些应用背后支撑的“算力”变得至关重要。

对于那些算力要求高的设备来说,加块更强的显卡就能解决问题。但手机就不一样了,它空间小、耗电量也要控制,想要在不联网的情况下,直接在手机上实现生成式人工智能,难度就高多了。

旗舰芯片AI大比拼,中端市场策略各不同

最近,联发科和高通都发布了新一代的旗舰芯片,都不约而同地强调了手机本地AI能力的提升。

比如联发科,新出的天玑9300芯片里,集成了第七代AI处理器APU 790,专门为生成式AI设计。它的整数和浮点运算能力是上一代的两倍,但功耗却降低了45%。APU 790还内置了硬件级的生成式AI引擎,能更快、更安全地进行AI计算,特别适合Transformer模型。

官方数据显示,它的处理速度是上一代的8倍,一秒钟就能生成一张图片。而且,联发科还开发了一种叫做混合精度INT4量化的技术,结合内存硬件压缩技术NeuroPilot Compression,能更有效地利用内存带宽,减少AI大模型对手机内存的占用,支持手机运行最高可达330亿参数的AI大语言模型。

新芯片的发布,让手机在硬件上有了支持生成式AI的基础。不过,搭载这些旗舰芯片的手机,价格通常也比较高。根据IDC的数据,2023年第三季度,国内3500元以上的手机,出货量只占33%。

也就是说,就算所有的高端手机都支持端侧生成式AI,也只有大约三分之一的用户能体验到这个功能。而价格更亲民的中端机市场,暂时还享受不到这种升级。要知道,2500~3499元价位的手机,销量占比也达到了19%,而且还在不断增长。

如何让更多人体验到生成式人工智能,而不是只有高端手机才能“独享”,是摆在手机厂商和芯片供应商面前的一个重要问题。高通面向下一代中高端产品推出的第三代骁龙7,并没有特别强调AI功能的进步,主要的提升还是在CPU、GPU性能和能耗方面。

而联发科,从天玑8000系列开始,就一直把中高端机型作为其扩大市场份额的关键。他们芯片的更新速度更快,也更注重与手机品牌的合作。最新发布的天玑8300,也在同级别产品中率先支持生成式AI,最高支持100亿参数的AI大语言模型。

这款芯片集成了联发科AI处理器APU 780,搭载生成式AI引擎,整数和浮点运算的性能是上一代的2倍,支持Transformer算子加速和混合精度INT4量化技术,AI综合性能是上一代的3.3倍,可以流畅运行手机端的生成式AI应用。

据联发科无线通信事业部副总经理李彦辑透露,小米成为了首个借助其芯片能力实现端侧生成式AI应用的手机厂商。

小米集团总裁、Redmi品牌总经理卢伟冰也表示:“Redmi手机将会全球首发搭载天玑8300-Ultra芯片,该机在性能调度、系统应用和硬件底层能力开发方面,均会应用到新一代人工智能技术。” 刚刚发布的Redmi K70E就是卢伟冰所说的首款支持端侧生成式人工智能的手机产品。

从云端到手机端,我们能期待什么?

虽然产品和应用都有了,但提到大模型这项技术,很多人还是觉得它离自己很远。原因就在于,具体的应用场景还不够丰富,大家感受不到大模型带来的实际好处。

值得高兴的是,手机端的大模型应用正在加速普及。目前,包括华为、小米、vivo等手机厂商,都已经将大模型在手机端的应用提上了日程。比如,语音助手与大模型的结合,很多都已经到了内部测试甚至公开测试阶段。

一位业内人士告诉我:“大模型的加入,可以让智能语音助手跳出原有的‘机械问答’模式,对用户指令的理解能力和解决问题的能力都会增强。但这只是第一步,下一步在端侧生成式人工智能落地后,像‘图生文’‘文生图’‘图生图’等更高级的应用,都有望在手机端实现,从而让语音助手开始展现出创造力。”

从长远来看,大模型和端侧生成式人工智能,确实有可能为智能手机等设备带来更多有趣、实用的功能。但我在体验了现阶段手机端的大模型应用后,觉得现在只能说是“未来可期”,还不能说是“立即革新”。

说实话,当前手机里的大模型应用,更多只是个噱头。能够感受到的“智能升级”非常有限。虽然语音助手能听懂、回答的问题更多了,甚至可以进行一些简单的逻辑思考,但与领先的Chat GPT相比,还有很大的差距。

如果从AI绘图应用来说,手机端面临的挑战也不少。比如算力方面,目前主流的Stable Diffusion经过测试,至少需要RTX 3070以上级别的显卡,才能获得比较流畅的体验。而且,它的上手门槛也不低,因为AI绘画往往需要选择合适的学习模型,并在绘画中不断提出新要求、调整画面,才能最终获得一张质量还不错的图片。

Stable Diffusion这样经过不断改良的工具尚且如此,手机端的部署就会是更大的问题。如果只是通过文字描述生成图片,那对于普通用户来说,最多是尝鲜一下。新鲜劲儿一过,立马就变成了冷门技能,大模型应用就会重蹈当年智能语音助手的覆辙,爆火之后市场慢慢冷却下来。

因此,端侧大模型应用,也需要找到高频场景进行适配。李彦辑认为,“性能调度”将是一个很好的切入点。“大模型不光可以学习传统的文字、图片资料,它也可以学习用户习惯,进而具备应用场景的自适应切换能力,”他提到。

具体来说,就是摆脱传统的固定算法调度逻辑,让AI更多地参与其中。比如,用户在使用手机处理社交信息、玩游戏、刷短视频时,对手机性能的需求是不同的。过去,手机系统往往是依靠应用来做反向适配,打游戏调用高频率大核心提高性能、文字聊天和待机使用小核心保持续航,这种调度能力是非常固定的。

智能手机具备端侧AI能力后,就能将性能调度这件事变得更加主动,可以根据当前的场景需求进行实时优化,而非照本宣科地进行软件和策略层面的适配。

我认为,与聊天、AI绘图等看似创新的应用体验相比,能够对既有的高频场景进行精准赋能,才是端侧大模型短期内能够创造体验价值的关键所在。无论是影像、性能表现上的优化,还是对屏幕、扬声器等硬件的实时智能调节,都能带给用户更明显的体验升级。

假设有一天,通过端侧大模型结合用户习惯、应用感知得到的数据进行学习,利用对软硬件层面的综合调度,让智能手机的续航可以再提升20%甚至50%,谁还会说它只是个“噱头”呢?

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。

相关文章