DeepSeek R1 橫空出世第 128 天,已經把整個大模型市場攪得天翻地覆!
首先,它以一己之力把推理模型的價格打下來,OpenAI 六月更新的 o3 價格相比 o1 直接打了2 折。
DeepSeek 剛發布時確實火得一塌糊涂,但四個多月過去了,情況卻有點微妙。
從數據來看,DeepSeek 自家網站和 API 的流量不升反降,市場份額也在持續下滑。
到了 5 月,全網 DeepSeek 模型產生的 token 中,來自 DeepSeek 本家的份額已經只占16%了。
這種 " 墻內開花墻外香 " 的現象,背后其實大有文章。
SemiAnalysis 指出,DeepSeek 為了把成本壓到極致,在服務質量上還是做了大量妥協。
用戶在 DeepSeek 官方平臺上使用模型,經常要等上好幾秒才能看到第一個字蹦出來,可以用首 token 延遲(First token latency)這個指標來衡量。
相比之下,其他平臺雖然普遍價格更貴,但響應速度快得多,有些甚至能做到幾乎零延遲。
在 Parasail 或 Friendli 等平臺,只需支付 3-4 美元就可以獲得幾乎沒有延遲的 100 萬 token 額度。
如果想選擇更大更穩定的服務商,微軟 Azure 平臺價格是 DeepSeek 官方的 2.5 倍,但延遲減少了整整 25 秒。
從另一個角度看,DeepSeek 官方甚至不是同等延遲下價格最低的一家 DeepSeek 模型服務商。
在有限的推理計算資源下,只提供 64k 上下文窗口的服務,在主流模型提供商中算是最小的之一。
在需要讀取整個代碼庫的編程場景里,64K 根本不夠用,用戶只能選擇第三方平臺。
而同樣價格下,Lambda 和 Nebius 等平臺能提供 2.5 倍以上的上下文窗口。
大模型下半場:提升每個 token 的智能
需要明確的是,這些降本策略都是 DeepSeek 主動做出的決定。
他們目前看上去對用戶體驗不怎么感興趣,既無意從用戶身上賺錢,也無意通過聊天應用或 API 服務向用戶提供大量 token,更多地是專注于實現 AGI。
從這些優化策略就可以看出,DeepSeek 把盡可能少的算力用作推理服務給外部使用,大量的算力資源留在內部研發用途。
同時配合開源策略,讓其他云服務托管他們的模型,贏得影響力和培養生態,兩不耽誤。
說到底,AI 競賽拼的還是算力資源。
在 DeepSeek 影響下,Claude 也開始降低速度緩解算力緊張的問題,但為了營收還是在努力平衡用戶體驗。
Claude 4 Sonnet 發布以來,輸出速度已經下降了 40%,但仍然比 DeepSeek 快不少。
另外 Claude 模型被設計成生成更簡潔的回復,回答同樣的問題,DeepSeek 和 Gemini 可能要多花 3 倍的 token。
不僅僅是提高模型的智能上限,而是提升每個 token 能提供的智能。
參考鏈接: [ 1 ] https://semianalysis.com/2025/07/03/deepseek-debrief-128-days-later/#speed-can-be-compensated-for
本文來自微信公眾號" 量子位 ",作者:關注前沿科技,36 氪經授權發布。