ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

小鹏G7:20万纯电搭载2200TOPS算力,大模型本地部署能否引领智驾新潮流?

时间:2025-06-13 13:04:39来源:ITBEAR编辑:快讯团队

小鹏汽车近日在纯电产品领域迈出了一大步,其最新款车型搭载了高达2200+TOPS的算力,这一数字在小鹏之前的市场中几乎前所未见。然而,这一决策并非毫无争议。部分观察家对小鹏使用三颗自研芯片累积算力的做法提出了质疑,认为这可能是一种简单的“堆料”行为,并质疑如此高的算力是否真的有必要。

面对这些质疑,小鹏在发布会上已经给出了明确的回应。其核心观点聚焦于“大模型的本地部署”。这一策略包含两个关键点:一是大模型,二是本地部署。

在AI时代,更强大的能力往往依赖于更大的模型。根据Scaling Law定律,模型的参数量越大,其效果往往越好。然而,现阶段由于车规级芯片算力的限制,车端部署的模型通常都经过轻量化处理,实际部署的模型参数往往在50亿以下。例如,理想的VLA司机大模型规模为40亿参数,尚不能算作真正意义上的“大模型”。而小鹏的自动驾驶云端基座模型则达到了720亿参数的规模,这才是真正的大模型,但由于算力限制,无法直接在车端部署。

为了解决这一矛盾,小鹏选择了将大模型部署到车端,为此他们采用了三颗图灵AI芯片,提供了2200TOPS的算力,最高可以支持300亿参数的模型。从720亿到300亿参数,或许只需要进行部分结构化剪枝和MoE转换,但从720亿到更小的模型,则可能需要更复杂的重构过程,性能差距也会相当明显。

有人可能会问,既然现在是5G时代,为什么不考虑云端大模型呢?这样可以降低车端的算力需求。然而,对于自动驾驶模型来说,云端部署虽然有其优势,但行车模型对时延和帧数的要求极高。小鹏的CEO何小鹏提到,VLA模型至少需要达到每秒20帧才能保证足够的行车能力。这意味着,从感知到数据传输、云端处理再到结果回传,整个过程的总耗时必须在50毫秒以内完成,这是云端部署难以实现的。

即使技术解决了延迟通信问题,也难以完全避免网络波动甚至通讯失效的情况。在这种情况下,车端系统可能会出现降级甚至瘫痪,这不仅会影响用户体验的一致性,还会带来很大的安全风险。另一个需要考虑的因素是全球化。全本地部署、无联网运行可以避免数据传输的合规问题,使模型具备在全球范围内快速部署的能力。

因此,从多方面来看,大模型的本地部署被认为是车端智能驾驶的最优路线。当然,小鹏并没有激进地直接将基座模型搬上车,而是选择了先将VLA+VLM搬上车。在G7车型上,小鹏使用了两颗图灵芯片(共1400+TOPS)运行VLA模型,另一颗图灵芯片(700+TOPS)则用于运行VLM模型。这种分工基于小鹏对车辆智能系统的理解,认为不同功能应对应不同的算力需求。

VLA模型负责车辆的运动控制,需要更高的算力来保证每秒20帧的性能;而VLM则负责车辆对世界的感知,如接受驾驶员指令、识别路牌等,对算力的需求相对较低。即便如此,本地部署的VLA+VLM组合已经给小鹏G7带来了极大的想象空间。例如,何小鹏在发布会上提到的“智能驾驶能力比Max车型高10倍以上”,“VLA让车辆主动思考、理解世界”,“VLM让车像一个真实的人”等。

这一切的基础,正是小鹏G7所搭载的大算力系统。随着小鹏G7的全球首秀,业界和消费者都在期待这款车型能带来怎样的智能驾驶体验。

更多热门内容