界面新聞記者 | 伍洋宇
界面新聞編輯 | 文姝琪
deepseek-v4的出場氛圍從春節起就開始烘托。起初不少人的期盼是再續神話,但直到這一刻行業意識到,它應該進入了一個新的周期。
4月24日,deepseek-v4的預覽版本正式上線並同步開源,官方給出的節點定義是“邁入百萬上下文普惠時代”,沒有脫離deepseek自出圈以來最強勢的價格敘事。
deepseek-v4按參數大小分為1.6t(pro)和284b(flash)兩個版本,擁有百萬字超長上下文,在agent能力、世界知識和推理性能上實現國內與開源領域的領先。
deepseek將v4與海外“御三家”opus 4.6 max、gpt-5.4 xhigh和gemini-3.1-pro high進行對比,從圖表上看不出明顯落後與領先,算是並駕齊驅的水平。這並非anthropic和openai的最新成果,不過團隊顯然很難預料到opus 4.7和gpt-5.5的發布節點。
團隊的測評文檔寫得十分克制。在代理編碼評測中,v4-pro達到開源模型最佳水平,“據評測反饋使用體驗優於sonnet 4.5,交付質量接近opus 4.6非思考模式,但仍與opus 4.6 思考模式存在一定差距。”
結構創新仍是深度搜尋的強項,其一百萬長上下文的能力標籤正得益於此。
v4此次再創了新的注意力機制,團隊在token維度進行壓縮,結合dsa稀疏注意力(deepseek sparse attention),在實現更強長上下文能力的同時,相比於傳統方法大幅降低了對計算和顯存的需求。
此外,外界罕見從deepseek的官方表述中看到模型對產品趨勢的配合。v4針對claude code 、openclaw、opencode、程式碼夥伴等主流agent產品均進行了適配和優化。另外,其最新上線的api服務中,同步支持了openai chatcompletions接口與anthropic接口。
與上一代模型相比,deepseek-v4一個重要區別在於釋放了更多國產化信號。
根據其技術報告,v4在訓練和推理體系中採用了mxfp4精度,而英偉達訓練體系主要以fp8為主。一名行業人士指出,這可以更大程度適配華為昇騰、壁仞科技等國產算力。
v4也在技術報告中專門提及了,“在英偉達gpu和華為昇騰npu兩個平台上驗證了細粒度ep(專家並行)方案,與強力的非融合(non-fused)基線相比,該方案在通用推理任務中實現了1.50-1.73倍加速;在對延遲敏感的場景(例如強化學習(rl)rollout 和高速 agent 服務)中,最高可達1.96倍加速。 」這是團隊首次在類似文件中對國產算力驗證情況進行披露。
並且,在deepseek-v4官方發布信息中,團隊在價格圖表下方用小字明確標註,“受限於高端算力,目前pro的服務吞吐十分有限,預計下半年昇騰950超節點批量上市後,pro的價格會大幅下調。”
deepseek v4發布節點多次延後,“最初計劃的確是在春節附近,大概經歷了3-4次延期。”一名知情人士表示。
v4和目前行業公認的頂尖模型存在差距,團隊對此也有清晰認知。一名接近deepseek人士告訴界面新聞記者,v4訓練完成時,內部很清楚大約是opus 4.5或gpt-5.3 code x水平,發布延期的部分原因也在於團隊還想再追一追。
不過,一名研究人員表示,儘管性能還不是最強,但deepseek v4對開源社區仍具有重要意義,“好的模型不再開源了,這應該是當前開源社區最好的模型。”
deepseek v4發布之外,這家歷史上從不融資的公司,其融資事宜成為近期市場關注重點。前述知情人士表示,deepseek方面曾在融資方面明確對標minimax。
界面新聞記者獲悉,今年春節前後,有投資人曾以300億美元估值接觸deepseek,但隨後minimax股價進入了一段時間飛漲,大幅超過300億美元,交易最終沒能落地。“所以最近100億美元估值的傳聞不準確,從第一天起他們的報價就不低於minimax。”
英偉達ceo黃仁勛在近期一場視頻播客採訪中,曾對中國大模型所經受的算力限制作過回應。採訪人提出疑問,中國算力芯片在製程等技術和性能方面仍然受限,是否就意味着模型廠商難以訓練出能夠超過claude或gpt的模型。
黃仁勛的看法是,中國只是在芯片性能上受限,但在芯片規模和能源基礎上完全沒有,模型廠商可以用更多芯片和足夠電力來彌補這一短板,並且當前ai大模型的瓶頸並不僅僅體現在硬件上,算法創新仍然參與主導ai性能的提升,而中國具備大量相關的ai頂尖人才。
“deepseek首次在華為(芯片)上線的那一天,對我們國家來說會是一個可怕的結果。”黃仁勛說。