DeepSeek官方近日在微信群内宣布,其线上模型版本已成功升级至V3.1,此次升级最引人注目的变化是上下文长度的拓展,现已达到128k的新高度。
V3.1版本实际上是DeepSeek V3在2025年3月25日推出的0324更新版。与前代相比,新版本在推理能力、上下文处理以及多语言支持方面均实现了显著提升。经过一系列测试验证,V3.1在处理复杂任务时的推理能力尤为突出,其多步推理性能较前一版本提高了43%。这一改进使得模型在数学计算、代码生成和科学分析等领域能够提供更精确、可靠的解决方案。
在上下文长度方面,128k的容量换算成汉字,大约可以容纳10万至13万字,这一长度足以涵盖一部完整的中长篇小说,例如老舍的经典作品《骆驼祥子》或余华的《活着》。这无疑为用户提供了更加宽广的文本处理空间。
V3.1版本在多语言支持上的表现同样令人瞩目。它能够处理超过100种语言,特别是在亚洲语言和资源稀缺语种的处理能力上实现了显著优化。这一改进不仅有助于技术的全球化应用,还为跨文化内容生成提供了有力支持。
值得注意的是,V3.1版本在减少不实信息产生方面也取得了显著成效。通过改进训练技术和模型架构,模型产生“幻觉”的情况减少了38%,从而大大提高了输出信息的准确性和可靠性。
DeepSeek V3.1拥有高达5600亿的参数,并在多样化的数据集上进行了精心微调。它不仅具备处理文本和代码的能力,还扩展到了图像处理领域,实现了多模态功能。同时,模型对推理过程进行了优化,进一步缩短了响应时间。
然而,尽管V3.1版本的发布令人振奋,但用户们对于DeepSeek R2的期待却似乎遥遥无期。早在2025年4月27日,DeepSeek官方就曾宣布R2版本原定于同年5月发布,并暗示甚至可能提前。然而,时至今日,官方仍未释出任何关于R2版本的信息。据外媒报道,DeepSeek R2在训练过程中遭遇了芯片问题导致的严重错误,因此其发布时间可能会进一步推迟。
尽管面临诸多挑战,DeepSeek团队仍在不断努力,致力于为用户提供更加先进、高效的AI模型。用户们对于未来DeepSeek产品的期待依旧不减,希望R2版本的发布能够早日到来。