ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

小鹏G7搭2200+TOPS算力,大模型本地部署引领智驾新潮流?

时间:2025-06-12 08:31:14来源:ITBEAR编辑:快讯团队

小鹏汽车近期在全球首秀中推出了一款定价20余万元的纯电动车型,其搭载的2200+TOPS算力系统引发了业界的广泛关注与热议。这一前所未有的决策,虽然赢得了众多赞叹与崇拜,但也不乏质疑之声。

质疑者认为,小鹏通过3颗自研芯片堆砌出如此高的算力,或许只是一种“堆料”行为。他们提出疑问:单纯追求算力提升,究竟能带来多大的实际意义?

对于这一疑问,小鹏在发布会上已通过大师兄之口给出了明确回应:核心在于大模型的本地部署。这一策略包含两个关键点:一是大模型,二是本地部署。

在AI时代,提升能力往往需要依赖更大规模的模型。根据Scaling Law定律,模型参数量越大,效果往往越好。然而,现阶段受限于车规级芯片的算力,车端部署的模型通常经过轻量化处理,实际部署的模型参数量常在50亿以下。例如,理想汽车的VLA司机大模型规模仅为40亿,尚不能算作真正意义上的“大模型”。而小鹏的自动驾驶云端基座模型规模高达720亿,这才是真正的大模型,但受限于算力,无法直接在车端部署。

小鹏汽车深知,有能力却施展不开是极为痛苦的。因此,他们致力于解决的主要矛盾,就是将真正的大模型部署到车端。为此,他们采用了3颗图灵AI芯片,提供2200TOPS的算力,最高可支持300亿参数量的模型。

300亿参数是什么概念?以小鹏的基座模型为例,从720亿缩减到300亿,或许只需进行结构化剪枝和MoE转换即可实现;但从720亿缩减到70亿,则可能需要加入量化、蒸馏、深度剪枝等技术,几乎相当于重构模型,性能差距也会十分显著。

有人可能会问,既然现在是5G时代,为什么不采用云端大模型来降低车端算力需求?这实际上涉及到了本地部署的必要性。

对于LLM等应用来说,云端部署确实具有显著优势,更大的模型能带来更好的性能,可以并行处理多个用户需求,降低单次任务成本。然而,对于行车模型来说,对时延和帧数的要求极高。小鹏汽车CEO何小鹏在会后群访中提到,VLA模型至少要达到每秒20帧,才能保证足够的行车能力。这意味着,从感知到数据传输、云端处理、结果回传,整个路径的总耗时必须在50毫秒内完成,显然云端部署难以实现这一点。

即便通过技术解决了延迟通信问题,也难以完全避免网络波动甚至通讯失效的情况。一旦发生这种情况,车端系统可能会出现降级甚至瘫痪,不仅无法保证用户体验的一致性,还会带来极大的安全风险。同时,全球化部署也是本地部署的一个重要考量因素。全本地部署、无联网运行意味着没有数据传输的合规问题,这使得模型具备在全球范围内快速部署的能力。

大模型的本地部署被认为是车端智能驾驶的最优路线。当然,小鹏汽车并没有激进地直接将基座模型搬上车,而是选择先将VLA+VLM搬上车。在G7车型上,小鹏采用2颗图灵芯片(共1400+TOPS)运行VLA模型(具备自主强化学习能力的VLA-OL),另1颗图灵芯片(700+TOPS)运行VLM。图灵芯片之间通过PCI-E通信。

这种分工设计源于小鹏对车乃至机器人智能架构的理解。他们认为,人脑有左右脑、脑干、小脑等区分,对于车和机器人来说,以能力对算力进行区分也是合理的。在这种架构下,VLA负责运动和决策,相当于大脑和小脑;而VLM负责整车对世界的感知,如接受驾驶员指令、识别路牌等,对算力需求相对较低。

即便如此,本地部署的VLA OL+VLM也展现了巨大的想象空间。例如,何小鹏在发布会上提到的“智能驾驶能力比Max车型高10倍以上”,“VLA-OL让车辆主动思考、理解世界”,“VLM让车像一个真实的人一样”等等。这一切的基础,都离不开大算力的支持。

更多热门内容