DeepSeek V4震撼亮相, 它的意义绝不只是便宜
今天早上,我打开手机,看到一条消息:DeepSeek V4发布了,同步开源。 我没有多想,直接发给技术团队:EasyClaw立即接入。 不是单纯为了追热点,我仔细看了这次发布的数字之后,意识到一个真实存在的门槛,今天消失了。 1M上下文,终于不再是特权 100万 token的长上下文,Claude、GPT-4.1、Gemini早已标配,但DeepSeek上一版V3还停在128k。这次V4直接跳到100万,一家公司几年的合同文档、一个项目所有的会议记录、整个季度的运营数据,可以整包丢进去,让它整体理解再回答,不再需要切片拼凑。 更关键的是怎么跳到的:它重新设计了底层注意力机制,处理100万token的场景,推理计算量只有前代的27%,显存降到10%。 以前靠堆算力才能做到的事,现在用更少的资源实现了。 编程能力站上同一擂台 DeepSeek V4-Pro,全球开源模型代码能力,这周正面对上了顶尖闭源模型。衡量Agent编程能力的黄金标准是SWE-bench——让模型自己去修真实代码bug,被认为最接近程序员的实际工作,很难刷分。 这周Claude Opus 4.7拿了87.6%,GPT-