最近,DeepSeek-V3 在國外火了。
它為什么火呢?主要有三個原因:
一,性能非常出色。
在許多測試中,它都超過了其他頂尖模型,比如 GPT-4o 和 Claude 3.5 Sonnet。特別在數(shù)學和代碼生成方面,表現(xiàn)尤為突出。
二,它的訓練成本相對較低。只要 600 萬美元就能完成訓練,與其他頂級模型相比,性價比極高。
三,它是開源的。全球的開發(fā)者都可以免費使用和測試它。
因此,它火了。不過,隨著它的火爆,很多人開始好奇:這個模型來自哪里?它與其他模型有何不同?
帶著同樣的疑問,我查看了它 12 月 26 日在 GitHub 上發(fā)布的報告—— DeepSeek-V3 Technical Report??偨Y(jié)出五點內(nèi)容,關(guān)于模型架構(gòu)設(shè)計、基礎(chǔ)設(shè)施、預訓練、后訓練模型,以及評估結(jié)果。現(xiàn)在向你匯報一下。
一
先來說說這家公司:
DeepSeek-V3 由中國幻方量化公司開發(fā),它是基于自研 MoE 模型的新一代大語言模型。
MoE,全稱 Mixture of Experts,也叫混合專家技術(shù),是一種機器學習架構(gòu),是通過組合多個專家模型,在處理復雜任務(wù)時,讓效率和準確度都大大提升。
以前,人們總愛把 "DeepSeek" 比作 AI 界的拼多多。
因為它開啟了中國大模型的價格戰(zhàn)。2024 年 5 月,它們推出了一個名為 DeepSeek V2 的開源模型。這個模型的性價比超級高,每百萬個 token 的推理計算成本只要 1 塊錢。
這個價格,大概是 Llama3 70B 的 1/7,也是 GPT-4 Turbo 的 1/70。
這個消息一出,字節(jié)、騰訊、百度、阿里,還有 kimi 這些 AI 公司都跟著降價。所以,DeepSeek 憑借它的高性價比,在中國大模型市場掀起了第一場價格戰(zhàn)。
但是,V2.5 版本的更新速度不快,直到 9 月份才有動靜;現(xiàn)在又過了 3 個月,V3 版本終于來了。這次,大家最想知道的就是,它的架構(gòu)有什么新變化。
這家公司的老板梁文鋒說過,以前中國公司習慣于做應(yīng)用變現(xiàn),但現(xiàn)在 DeepSeek 的目標是走在技術(shù)前沿。他希望用技術(shù)推動整個生態(tài)的發(fā)展。他認為,中國公司應(yīng)該從 " 搭便車 " 的角色,轉(zhuǎn)變?yōu)?" 貢獻者 ",主動參與到全球創(chuàng)新的大潮中。
那么,DeepSeek-V3 到底有哪些技術(shù)架構(gòu)上新亮點呢?
圖釋:DeepSeek-V3MoE 架構(gòu)工作流程
報告中說:DeepSeek-V3 的架構(gòu)設(shè)計非常精巧,主要有四點:
分別是什么意思呢?首先,DeepSeek-V3 有 671 億個參數(shù),像一個超級大腦。這個大腦采用的技術(shù)叫做 MoE 架構(gòu),就是混合專家技術(shù)。這意味著它里面有很多專家模型,但每次只需要調(diào)用 37 億個參數(shù)來工作就可以了。
為了讓專家模型高效工作,DeepSeek-V3 得有個聰明的調(diào)度員,確保每個專家都有活干,不會有的很忙,有的很閑。
因此,DeepSeek-V3 裝載了信息過濾器,叫做 "MLA",它能讓模型只關(guān)注信息中的重要部分,不會被不重要的細節(jié)分散注意力。
但是,這樣還不夠,DeepSeek-V3 還得確保每個專家都能得到合理的工作量,并且訓練模型去預測接下來的幾個步驟,不只是下一步;這就是無輔助損失的負載平衡策略和多令牌預測訓練目標的用處。
簡單來說,讓每個專家都有合理的工作量,同時訓練模型去預測接下來的幾個步驟,這樣模型在實際工作中就能表現(xiàn)得更好,比如在處理長篇文章時能更好地理解上下文。
所以,DeepSeek-V3 的架構(gòu)有四個要點:
一,MLA 技術(shù),通過壓縮注意力機制減少需要處理的信息量,提高效率。二,DeepSeekMoE 技術(shù),用更細粒度的專家和共享專家提高訓練效率,并且動態(tài)調(diào)整專家間的工作量均衡。
三,無輔助損失的負載平衡策略,確保專家間工作量均衡,不依賴額外的損失項;四,多令牌預測訓練目標,提高模型的預測能力和數(shù)據(jù)效率。
總之,DeepSeek-V3 的架構(gòu),像一個高效的團隊,每個成員都有特定的任務(wù),而且團隊能夠預測并準備接下來的工作,這樣的設(shè)計才能讓模型在處理信息時既快速又準確。
二
報告第 11 頁到第 12 頁詳細講解了 DeepSeek-V3 的訓練技術(shù)。首先,DeepSeek-V3 是在擁有 2048 個 NVIDIA H800 GPU 的超級計算機上進行訓練的。
這些 GPU 通過 NVLink 和 NVSwitch 在單個節(jié)點內(nèi)連接,節(jié)點之間則通過 InfiniBand 連接,形成了一個強大的分布式計算網(wǎng)絡(luò)。
接下來說說訓練框架。DeepSeek-V3 用了一個叫做 DualPipe 的算法,這個算法能讓模型更智能地分配任務(wù),減少等待時間,確保每個部分都能在正確的時間做正確的事。
這個算法具體包括兩點:
一,DualPipe 和計算通信重疊。就像兩組工人,一組加工零件,一組準備材料。如果他們不同步,加工好的零件就會堆積。
DeepSeek-V3 的 DualPipe 算法讓這兩組工人的工作節(jié)奏同步,一邊加工零件,一邊準備材料,這樣就沒有等待時間,生產(chǎn)過程更流暢。
二,高效實現(xiàn)跨節(jié)點全對全通信。你可以想象一個大工廠的不同車間需要共享信息。DeepSeek-V3 通過高效的通信技術(shù),確保不同 " 車間 " 之間的信息能快速共享,就像建立了一個快速的信息傳遞網(wǎng)絡(luò)。
兩者組合,就能在有限的硬件資源下訓練更大的模型。
有了算法還不夠,還要精練。怎么精練?DeepSeek-V3 推出了一種叫 FP8 的新技術(shù)。簡單來說,通過五個步驟用更小的數(shù)字代替原來的大數(shù)字,讓計算機更快地做計算,同時節(jié)省電力。
舉個例子:
在超市買東西,大多數(shù)情況下不用精確到小數(shù)點后,大概齊就行了。但是,用小數(shù)字代替大數(shù)字可能會影響精細工作。
怎么辦?DeepSeek-V3 在關(guān)鍵的地方會用更精確的大數(shù)字來確保質(zhì)量,比如:矩陣乘法,這就像在做精細活兒時,在關(guān)鍵步驟用上好工具,其他時候用差點的也沒事。
在訓練過程中,DeepSeek-V3 還會用 FP8 存儲中間結(jié)果,節(jié)省更多的內(nèi)存空間。這就像整理東西時,不用把所有東西都放在顯眼的地方,而是合理地收納起來,需要時再拿出來。
最后,DeepSeek-V3 在實際使用時也會根據(jù)情況來決定用不用 FP8,這樣就能在保證效果的同時,讓模型跑得更快,更省資源。
如同我們在日常生活中會根據(jù)不同的情況來選擇不同的工具,既高效又節(jié)約,這就是它的底層基礎(chǔ)技術(shù)。
三
DeepSeek-V3 是怎么做預訓練的呢?
報告里說,DeepSeek-V3 的預訓練涉及六個方面:數(shù)據(jù)建設(shè)、超參數(shù)調(diào)整、長上下文擴展、評估基準、消融研究,還有輔助無損耗平衡策略。
首先是 " 數(shù)據(jù)建設(shè) "。
DeepSeek-V3 用了 14.8 萬億個高質(zhì)量的數(shù)據(jù)點來訓練,這些數(shù)據(jù)覆蓋了很多不同的領(lǐng)域和語言,這樣模型就能學到很多不同的知識。
然后,在訓練開始之前,得設(shè)置一些重要的參數(shù),比如學習率。DeepSeek-V3 會仔細挑選這些參數(shù),讓模型能以最好的方式學習,這叫超參數(shù)調(diào)整。
緊接著,對長上下文擴展。
這就像教模型讀長故事。DeepSeek-V3 用了一些特別的技術(shù),比如 YaRN,來增加模型能處理的文本長度,從 4K 字節(jié)增加到 128K 字節(jié)。這樣,模型就能理解更長的文章和故事了。
在學習的過程中,還得檢查模型學得怎么樣。這就是 " 評估基準 " 的作用。DeepSeek-V3 會在各種測試上進行評估,比如 MMLMU-Pro、GPQA-Diamond 等,確保模型在不同的任務(wù)上都能表現(xiàn)得很好。
圖釋:DeepSeek-V3 訓練數(shù)據(jù)的方法
消融研究是什么?
DeepSeek-V3 會做很多實驗,看看哪些方法最管用。比如研究無輔助損失的負載平衡策略,找出哪些技術(shù)最能提高模型的性能等。
最后,模型通過動態(tài)調(diào)整,使得每個專家的工作量更加均衡,而不是通過輔助損失來強制平衡。如此一來,預訓練階段就能吸收和處理很多信息,學會理解和生成文本,為后面的訓練打下堅實的基礎(chǔ)。
看完這段報告后我覺得,訓練模型就像給一個 5 歲孩子提供學習資源和環(huán)境一樣,讓它在成長過程中能夠全面發(fā)展。
四
問題是:只有預訓練還不夠,后訓練才能讓模型更成熟。那么,DeepSeek-V3 是怎么做的后訓練呢?
首先是監(jiān)督微調(diào)。
DeepSeek 團隊為模型準備了 150 萬個實例的特別訓練集,就像是一本包含各種生活場景的百科全書。每個訓練集都是精心設(shè)計,確保模型能學會在不同情況下應(yīng)該怎么處理。
對于那些需要邏輯和計算的數(shù)據(jù),比如數(shù)學問題或者編程挑戰(zhàn),團隊用了一個已經(jīng)訓練好的模型來生成例子。
雖然這些例子通常很準確,但有時可能太復雜或者格式不規(guī)范。所以,團隊的目標是讓數(shù)據(jù)既準確又容易理解。
為了做到這一點,他們結(jié)合了監(jiān)督微調(diào)和強化學習的方法,訓練了一些 " 專家模型 "。這些專家模型就像專業(yè)的老師,負責教模型如何在特定領(lǐng)域做得更好。
在訓練過程中,他們會創(chuàng)造兩種類型的例子:一種是直接的問題和答案,另一種加上了 " 系統(tǒng)提示 " 的問題、答案和 R1 模型的響應(yīng)。這些系統(tǒng)提示就像教學大綱,指導模型如何給出有深度和經(jīng)過驗證的答案。
對了,在 " 強化學習 " 階段,模型會嘗試不同的回答,根據(jù)效果得到獎勵或懲罰。
通過這個過程,模型就學會了給出更好的答案;最后,團隊會用 " 拒絕采樣 " 的方法挑選最好的示例,用于最終模型的訓練,這確保了用于模型學習的數(shù)據(jù)既準確又容易理解。
對于非推理數(shù)據(jù),比如:寫故事或者角色扮演,團隊用了另一個模型來生成回答,然后讓人工檢查這些回答是否準確和合適。這兩個步驟,報告中稱之為 " 評價標準 "。
最后,DeepSeek 團隊對 DeepSeek-V3-Base 進行了兩個時期的微調(diào),采用了從 5×10-6 到 1×10-6 的 " 余弦衰減學習率調(diào)度 "。
在訓練期間,每個序列都由多個樣本組成,但他們采用了 " 樣本屏蔽策略 ",確保示例相互獨立,這是一種 " 開放評估 " 的模型。
通過這些后訓練步驟,DeepSeek-V3 能夠在實際應(yīng)用中做到更加精準,就像完成基礎(chǔ)訓練后,再給它進行一些專業(yè)技能的培訓。
他們給它起的名字叫 " 生成獎勵模型 ",這讓它不僅是一個學習者,還成為了一個評委;如此周而復始,建立一套正向反饋機制。
五
那么,通過這套模型訓練出來的成果如何呢?
DeepSeek-V3 做了一系列的全面基準測試,這些測試相當于給超級大腦出了一套標準化的試卷,看看它在各個科目上能得多少分。這些科目包括教育知識、語言理解、編程技能、數(shù)學問題解決等。
在數(shù)學推理上:
在 MATH-500 測試中,DeepSeek-V3 得了 90.2 分,這個分數(shù)不僅比所有開源競爭對手高,比如 Qwen 2.5 的 80 分和 Llama 3.1 的 73.8 分,也超過了閉源模型 GPT-4o 的 74.6 分。
在 MGSM 測試中,DeepSeek-V3 得了 79.8 分,超過了 Llama 3.1 的 69.9 分和 Qwen 2.5 的 76.2 分。在 CMath 測試中,DeepSeek-V3 得了 90.7 分,比 Llama 3.1 的 77.3 分和 GPT-4o 的 84.5 分都要好。
圖解:DeepSeek-V3 基準測試數(shù)據(jù)
在編程和編碼能力方面:
在 LiveCodeBench 測試中,DeepSeek-V3 的通過率達到了 37.6%,領(lǐng)先于 Llama 3.1 的 30.1% 和 Claude 3.5 Sonnet 的 32.8%。
在 HumanEval-Mul 測試中,DeepSeek-V3 得了 82.6%,比 Qwen 2.5 的 77.3% 高,并且和 GPT-4o 的 80.5% 差不多。在 CRUXEval-I 測試中,DeepSeek-V3 得了 67.3%,明顯優(yōu)于 Qwen 2.5 的 59.1% 和 Llama 3.1 的 58.5%。
在多語言和非英語任務(wù)上:
在 CMMLU 測試中,DeepSeek-V3 得了 88.8 分,超過了 Qwen 2.5 的 89.5 分,并且領(lǐng)先于 Llama 3.1 的 73.7 分。
在 C-Eval,中國評估基準測試中,DeepSeek-V3 得了 90.1 分,遠遠領(lǐng)先于 Llama 3.1 的 72.5 分。
其他數(shù)據(jù)還有很多,總的來說,DeepSeek-V3 成績遙遙領(lǐng)先;對了,還有一句要提的是:DeepSeek-V3 的訓練成本只有 557.6 萬美元,這只是訓練 Meta 的 Llama 3.1 所需估計的 5 億美元的一小部分。
所以,DeepSeek-V3 新的模型結(jié)構(gòu),無疑是如今人工智能領(lǐng)域中一次新的變革。高效、省力、省成本;難怪連 OpenAI 的前首席科學家 Andrej Karpathy 也表示,這是一次 " 令人印象深刻的展示 "。
如果 DeepSeek-V3 在資源有限的情況下,都能表現(xiàn)出如此卓越的工程能力,以后是不是不需要大型 GPU 集群了?這個問題值得我們思考。
還沒有評論,來說兩句吧...