赛轮思(Cerence)近日宣布,其与英伟达的合作将进一步深化,旨在提升其CaLLM系列语言模型的能力,这一系列包括云端部署的赛轮思汽车大语言模型(CaLLM)以及嵌入式小语言模型CaLLM Edge。
此次携手合作,CaLLM系列语言模型将借助NVIDIA AI Enterprise这一端到端的云原生软件平台获得技术支持,而CaLLM Edge的某些功能则将通过NVIDIA DRIVE AGX Orin来强化。
具体而言,赛轮思的人工智能部门——Cerence AI,将通过NVIDIA AI Enterprise软件平台,包括NVIDIA TensorRT-LLM和NVIDIA NeMo框架,来加速CaLLM系列模型的开发与部署。NVIDIA NeMo是一个全面的框架,专为构建、定制和将生成式AI应用推向生产环境而设计。
借助这些先进技术,Cerence AI已经对其CaLLM系列模型进行了优化和定制,旨在:
在NVIDIA的加速计算和SoC平台上,提供更为迅速的车载助手性能。
开发汽车专用的NVIDIA NeMo Guardrails实现方案,确保Cerence驱动的系统能够精准捕捉并应对车载交互的微妙变化。
通过NVIDIA DRIVE AGX Orin,在CaLLM Edge上实施和优化代理架构,推动下一代车载用户体验的实现。