12月2日消息,日前DeepSeek低调发布了DeepSeek V3.2正式版以及长思考加强版eepSeek-V3.2-Speciale,命名上继续小步快跑。
但DeepSeek V3.2整体表现不错,按照官方的说法,推理类Benchmark测试中达到GPT-5水平,仅略低于Gemini-3.0-Pro,并拿到了IMO国际数学奥赛、中国数学奥赛CMO等多个数学比赛的金牌水平。
这两天从各路大V及网友的评测体验来看,DeepSeek V3.2比之前的版本是有很大进步的,考虑到价格的关系,其综合表现还是让人惊喜的。
但也要承认一点,DeepSeek V3.2这次没有达到当前顶级AI的水平,编程领域比肩Claude、Gemini-3.0-Pro不太行。
对于当前的情况,DeepSeek官方也是很清楚的,在这次的论文中他们承认了与Gemini-3.0-Pro等闭源大模型有一些局限性,首先是总训练FLOPS较少,导致世界知识广度不如领先的专有模型,预计在未来的迭代中通过扩展训练来解决这一差距。
其他因素还有标记效率要比Gemini-3.0-Pro差,以及解决复杂任务能力不如前沿模型,这些都需要改进基础模型及训练后处理方案。
从DeepSeek的表态靠近,V 3.2存在的问题说到底还是3.X版的基座大模型已经有点落后了,要想达到当前的顶级AI水平,需要投入更高的算力和数据。
对于这一点,相信DeepSeek是有准备的,V4及不一定存在的R2今年一直没发布,但DeepSeek绝对会在准备更强大的算力和数据资源了。
按照之前的惯例,估计今年春节前后DeepSeek V4/R2就要陆续发布了。