看板 Military
作者 FXW11314 (soukai)
標題 Re: [情報] 情報數則
時間 Tue May  9 22:05:28 2023


給太長直接End的:
沒人會用4090 train正經的模型
請愛用A100

-------------以下正文---------------
註:DL是Deep Learning
為了防止有人跟我吵說AI不只有深度學習blablabla
才特別寫明
不懂的話直接理解成AI就好


原文恕刪
先跟原PO道歉
我沒有要針對你
但我想原PO大概沒有認真搞過DL
有些觀念實在讓我不吐不快
雖然我也只是剛剛混了張紙的程度
但還是來丟個磚頭
有大神看到請小力鞭

BTW我也覺得米帝的制裁力道可以更大
但米帝絕不是像原PO說的傻跟笨

首先,正經做DL的肯定不是用4090
那種東西愛怎麼賣就怎麼賣
即使出了5090、6090
計算性能翻了兩倍三倍也沒關係

原因是絕大部分DL的瓶頸都在記憶體
主流的DL技術都包含了大量的矩陣運算
而矩陣運算的特色就是可以被高度的平行化
這也是為什麼沒人用CPU做DL
因為GPU或者ASIC隨便都是幾千個thread在做運算

記憶體的限制主要在兩個方面:容量跟頻寬
容量的話很簡單
爆掉就直接爆掉沒有第二句話
有摸過CUDA的話應該知道
叫GPU做任何事之前都要先把會用到的東西丟進GPU的記憶體
也就是說如果你會用到的東西超過VRAM大小
那恭喜你可以討預算升級設備了

當年我們菸酒生要開工的時候因為老闆太摳
又不想排隊等公用的伺服器
所以都自己買一張卡
那時都在討論要買3060還是3070
同學的結論是3060因為有12G VRAM

而肥宅我因為貪圖3070提升遊戲FPS的副作用所以還是買了3070
結果就是train彩色圖片的時候就被OOM鐵拳狠狠教訓
土豪同學的3080倒是沒問題
總之核心不夠力只是慢了點不過還是能算完
但VRAM爆了就是爆了

所以正經的DL是不會有人拿4090的
至少也是V100 32G
好一點的拿A100 40G
更好的拿A100 80G
現在最強的應該是H100吧
80G起跳最大188G

你說能有多少資料
實際情況會依設定跟訓練資料不同
單純討論模型本身就好
給個大概的概念:
一個16bit float是2byte
VGG16的參數有138 Million(不包含bias或其他optimizer的參數)
那模型本身就要至少276MB
用32bit float就是552MB
而GPT3的參數是175 Billion
16bit存模型本身就超過300GB
32bit就是600GB
至於GPU怎麼塞300GB等等再討論

這還只是模型本身喔
實際訓練時要的資料
運算時需要的記憶體等等都還沒討論
有哪些可以看圖
https://imgur.com/g63dyUe
[圖]
(Source: https://reurl.cc/Q4rQQp )

另一個瓶頸是頻寬
話不多說先上圖
https://imgur.com/XmrL54v
[圖]
(Source: https://reurl.cc/7RGxaN )

前面說過
叫GPU做任何事之前都要先把會用到的東西丟進GPU的記憶體
而灰色部分是程式在等待資料搬進記憶體佔總執行時間的百分比
可以看到mm那根棒棒超過90%
mm就是DL一直在做的矩陣乘法
這個搬進搬出的速度取決於頻寬
給個參考標準:
PCIE 5.0 SSD:約12GB/s
DDR4:約70GB/s
DDR5:約100GB/s
RTX3090:936.2GB/s
RTX4090:1008GB/s
V100S:1134GB/s
A100 40GB:約1500GB/s
A100 80GB:約2000GB/s
H100 188GB:7800GB/s

可以想像頻寬的影響有多大

再來談剛剛說了現在一個模型動輒幾百GB
整個train起來可能要幾TB
啊地表最強GPU也才188GB是要怎麼塞
答案是把GPU串起來

老黃的叫做NVLink
消費級最後支援NVLink的是3090
40系列全部不支援

蘇媽的...反正有跟沒有差不多

NVLink可以讓串在一起的GPU共用他們的記憶體
串8張A100 80GB就有640GB
可以說做DL生意的沒有不用NVLink的
當然這種共用的存取絕對比存取自己的記憶體慢很多
基本上現代DL發展的瓶頸就在這裡
給個參考數字:
V100:300GB/s
A100:600GB/s
H100 80GB:900GB/s

最後說說米帝幹了啥:
限制Nvidia把NVLink的速度降到400GB/s
就這樣

所以老黃把A100的NVLink閹了一刀改名A800

然後加價賣

為什麼我說米帝不蠢
你看他只砍一刀就砍在瓶頸
把瓶頸縮得更小
在幾乎沒損及美商利益的前提下造成最大的傷害
用過CUDA就知道那個生態系有多重要
基本上就是GPGPU的windows
你要是全禁了說不定他們自己煉蠱還真的煉出了個什麼來

但在有CUDA用的前提下
相信我
沒有人會想幹自己的
幹出來也沒人用

大概是這樣
下面談談我對原PO論點的看法

極權政府確實可以不論效率去幹一件事
但請別忘記資源是有限的
就AI這塊

不精確地說
DL本質上就是在一片無垠的解空間中隨便找個點開始往好的方向走
直到你走到你滿意的位置
或是走不下去從頭再來

當然高手可能每次都走得比你遠
而且可能幾次就找到他滿意的位置了
啊我們這種廢物就只能多走幾百次這樣

但基本上都有丟骰子的成分在
硬體效能的意義在於每丟一次要多久
而骰子在滾的期間無論你是高手還是廢物都是在等
只是廢物如我就直接去玩Switch
高手可能去學校教書或啃paper
於此同時你的對手可能已經滾完了在丟下一次

確實多買幾顆骰子可以解決問題
但請記得
中國在這方面的對手不只是任何一個政府
還有IBM、Google、微軟、Meta、Amazon等等科技巨頭
更不用說洛馬雷神波音這些牛鬼蛇神 <--- 軍武點(X
這些企業投入的資源可不會比中國政府少

更重要的是效率絕對比政府帶頭投入高出幾個數量級

還有
骰子是那個米帝的特級廚師一家獨大
他隨時可以把你的骰子再削一刀
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 125.229.223.90 (臺灣)
※ 作者: FXW11314 2023-05-09 22:05:28
※ 文章代碼(AID): #1aMbCgQZ (Military)
※ 文章網址: https://www.ptt.cc/bbs/Military/M.1683641130.A.6A3.html
※ 同主題文章:
03-10 19:28 andyken
… ×78
05-08 14:09 jimmy5680
05-09 12:50 jimmy5680
05-09 15:40 wahaha99
Re: [情報] 情報數則
05-09 22:05 FXW11314
05-10 01:43 jimmy5680
05-10 01:50 LucidWorld
05-10 04:28 takahashikag
… ×60
awhat: 推 解釋得很清楚1F 05/09 22:12
※ 編輯: FXW11314 (125.229.223.90 臺灣), 05/09/2023 22:26:57
TUTOTO: 推2F 05/09 22:20
smallreader: 看不懂但推3F 05/09 22:21
ggeneration: 所以可以說 在法條裡寫上這條規則肯定是業內狠角色4F 05/09 22:22
Sirctal: 沒看前後文我還以為我在電蝦板
[菜單] 習包子大撒B AI深度學習機
saygogo: 謝謝6F 05/09 22:23
ggeneration: 就跟之前工控機禁運令特意加上數據傳輸限幾十mb一樣7F 05/09 22:23
又不是不能用,但用起來很痛苦
sas1942: 看不懂但推+18F 05/09 22:25
roseritter: 歐歐 歐 清楚的科普9F 05/09 22:26
※ 編輯: FXW11314 (125.229.223.90 臺灣), 05/09/2023 22:33:20
user048288ef: 簡單明了,推10F 05/09 22:29
darkangel119: 我還以為是電蝦版 XD11F 05/09 22:29
mudmud: 推業內解說
窩不是業內QQ
weimr: 推13F 05/09 22:30
alanjiang: 看到4090還以為走錯版XD14F 05/09 22:31
s891510: 我自己沒做DL 但身邊有做相關的 講難聽點就是沒錢才去買消費級顯卡 不然都會買專用卡 不是財大氣粗 而是真的速度有差15F 05/09 22:32
不只是速度問題,超過VRAM限制連跑都跑不起來
不說了我碩班那種一覺起來發現OOM根本沒跑完的PTSD快發作了
patrickleeee: 專業推18F 05/09 22:35
Schottky: 我以為我走錯板19F 05/09 22:36
s8626460: 感謝分享,卡頻寬就好,別人一天可以訓練完的量,阿共20F 05/09 22:37
steelgate: 推 真的時間就是金錢 而且真的差很多21F 05/09 22:37
ckbling: 有些公司就直接找AMA或是TWCC之類的服務商租算力了 省事又不用折舊22F 05/09 22:37
LanJiao: 後面那一段同樣道理適用於任何產業 沒辦法去市場競爭 只服務於黨跟國家是很難有進步的 砸再多錢都一樣24F 05/09 22:37
s8626460: 要好幾天時間才能訓練完,時間就是金錢,科技就是為了省時間26F 05/09 22:37
scratch01: 我也以為我在電蝦版28F 05/09 22:39
Two2Seven: 電蝦也不會用到CUDA 吧,適用這些設備的也要配套29F 05/09 22:41
glad850: 看不懂還是要推30F 05/09 22:43
gwofeng: 來這就是買新的 (x31F 05/09 22:43
hababahawawa: 看不懂  但還是推32F 05/09 22:43
roy2142: 我重複出去又進來幾次確認我在軍事版xd33F 05/09 22:47
geordie: 玩線上遊戲沒顯卡,就算記憶體再多一樣也是卡卡卡(?
不過有顯卡是否比較吃電啊?34F 05/09 22:47
Pegasus170: 這篇才真正解釋到目前機器學習及巨量資料會卡的瓶頸。不要以為運算快就好,最麻煩的是資料遞送速度跟指令集排程最佳化能力。一個考驗運算單位的設計,一個考驗資料輸送時的過程。還有更機車的:把上述兩個要件串在一起最佳化。37F 05/09 22:49
其實資料遞送是很多應用的瓶頸,比如遊戲
看蘇媽的遊戲U暴力塞cache就知道
otis1713: 他不會來,只會裝死吧42F 05/09 22:50
asskid: 推43F 05/09 22:50
hprince: 我以為到電蝦44F 05/09 22:52
andyao1562: 推專業45F 05/09 22:52
php4: 人家可以在高速公路上飆車,中國只能在省道開快一點的概念46F 05/09 22:53
huckerbying: 多一個硬體鐵定會更吃電啊,只是吃多吃少而已48F 05/09 22:53
Pegasus170: 人家美國的高速公路就算限速100,但還有設計高流量專用道優最佳化,你中國的省道只有三條線,就算限速拉到100也沒用。49F 05/09 22:55
wahaha99: 嗯,你是對的。你說的對。52F 05/09 22:55
huckerbying: 現在的遊戲用顯示卡都有切換高低負載的模式,避免你53F 05/09 22:55
wahaha99: 我以為瓶頸會在FP64那邊,然後是有限元素分析的障礙54F 05/09 22:56
Pegasus170: 然後美國高速公路是5(ordinary)+1(HOV)線55F 05/09 22:57
huckerbying: 只看個PTT就耗能爆炸56F 05/09 22:57
gn01642884: 讓我想到以前寫個ML作業 用CPU跑就要一天。那時候最好的lib是openCV因為可以用顯卡加速...
前輩好
先人們生活真的不容易啊
據說當年Dean大神是手操32顆CPU自己幹神經網路
execration: なるほどわからん59F 05/09 22:57
gn01642884: 只能說時代差了幾年 就差了很多60F 05/09 22:58
geordie: 科技始終來自於人性61F 05/09 22:58
banamelon: 講直白點,如果砸錢能大力出奇蹟,阿共不知道出幾個台積電了62F 05/09 23:01
huckerbying: 我記得以前學生物科技時有教授教用Medline資料庫去64F 05/09 23:01
henrytsai: 推專業65F 05/09 23:01
aegis43210: 軍事上現在都用AI加雲端運算啦,有了星鏈,你可以即時用超級電腦計算所有戰術方案及敵我辨識
這篇主要是談訓練,應用面的話不適用
heinse: 看不懂 但是推專業68F 05/09 23:02
huckerbying: 跑序列比對,那個時候才幾Kb的序列就要花一兩天69F 05/09 23:03
Pegasus170: 但是星鍊資料搬運速度有限呀…70F 05/09 23:03
aegis43210: 而HPC的好壞就要看拓撲學,整個主機設計的好,你時效性就贏人好幾步71F 05/09 23:04
Pegasus170: 雲端運算最大問題還是資料搬運速度及運算元被軟體切割。73F 05/09 23:04
Gjerry: 實際上應用的時候耗費的資源比訓練的時候少,網路帶寬影響搞不好比延遲小75F 05/09 23:07
geordie: 現在雲端技術最成功的是資料備份吧?77F 05/09 23:07
aegis43210: AI推理不需要非常大頻寬,星鏈夠用了78F 05/09 23:09
huckerbying: 雲端技術最成功的是叫Container"容器"79F 05/09 23:09
utn875: 我走錯板了…80F 05/09 23:10
Gjerry: 雲端備份只是一小部分,微軟,亞馬遜,谷歌提供的雲端計算業務都還在快速成長。81F 05/09 23:11
ErnstvonBohr: 確認好幾次自己是不是在電蝦XD83F 05/09 23:11
cross980115: 推科普84F 05/09 23:12
Gjerry: 容器化讓很多服務可以在同一台主機輕量又快速的部署 (跟虛擬機比起來)85F 05/09 23:13
iKelly: 我也差點以為我在電蝦板87F 05/09 23:15
aegis43210: 美國現在領先在矽光子交換器,未來會用在10Exascale等級的超級電腦,中國是完全追不上,而IBM的量子混合運算HPC也在實作中88F 05/09 23:18
所以那位米帝的特級廚師把mellanox給買下來了
hdjj: 推專業91F 05/09 23:26
hahabis: 感謝。我終於看懂了DL的意思92F 05/09 23:29
daniel1309: 這篇可以存起來。93F 05/09 23:29
junellie: 抱歉紅明顯。每個領域都是這樣啊,一直說美帝蠢又壞的,一直蠢的是你自己,覺得壞是因為你不是站在美帝同一個陣營94F 05/09 23:31
b10036088: 我看了什麼東西但還是推了97F 05/09 23:31
zseineo: 想說在回誰,99不意外98F 05/09 23:32
ayau: 推99F 05/09 23:37
※ 編輯: FXW11314 (125.229.223.90 臺灣), 05/10/2023 00:02:32
izplus: 以為去錯版100F 05/09 23:45
eupa1973: 專業101F 05/09 23:50
deepelves: 可是以前是有實驗室用T-Rex做DL訓練還發了paper
如果是成本考量應該也不是不能用4090,畢竟A800很貴102F 05/09 23:55
學術研究的話當然可以
也有很多研究是專注在如何不耗用太多訓練資源的前提下去訓練模型
但畢竟LLM的爆發告訴我們大力是真的可以出奇蹟的
所以不論商場還是戰場都還是在打算力的軍備競賽
這是我所謂的正經
OldDaiDai: 推104F 05/09 23:57
※ 編輯: FXW11314 (125.229.223.90 臺灣), 05/10/2023 00:06:54
topper: DL是啥?105F 05/10 00:08
理解成AI就好
※ 編輯: FXW11314 (125.229.223.90 臺灣), 05/10/2023 00:12:32
hahabis: 應該是Deep Learning吧106F 05/10 00:12
verdandy: 現在序列比對到NCBI就可以免費使用,還可以比對整個幾乎收錄全物種序列的資料庫,科技的進步很驚人的107F 05/10 00:12
dos01: 最近很多人被媒體洗一洗就已為自己很懂AI
但說真的 那些大多數都只是炒股用語 看多了就知道109F 05/10 00:13
attitudium: 看軍武長知識111F 05/10 00:13
dos01: 只是某些人炒股炒一炒 又想要用股價割一波韭菜
騙一些自以為懂的進去當韭菜而已...112F 05/10 00:13
verdandy: 就很多人以為AI很簡單114F 05/10 00:14
dos01: AI的實際應用根本沒有這麼實際 大多數都還只是跑了半天 跑出一個根本不知道幹嘛的結果115F 05/10 00:14
跟我的論文一樣欸啊哈哈哈哈嗚嗚嗚嗚...
※ 編輯: FXW11314 (125.229.223.90 臺灣), 05/10/2023 00:19:34
AnderinSky: 推 認真科普文117F 05/10 00:19
sexyboy5566: 美國永遠吸引世界最頂尖的人才和企業,中國???118F 05/10 00:20
aquarius360: 推專業120F 05/10 00:20
diabolica: 未看先推121F 05/10 00:27
b325019: 學術研究經費就那樣,院級研究單位也是有拿遊戲卡來跑的122F 05/10 00:28
will7582: 我可能有點離題..但這就像中國宣稱突破EDA軟體一樣要寫軟體本身都可以寫 但沒有工廠數據配合設計模型那東西根本不能用 美國研發幾十年的東西中國三年
就突破?124F 05/10 00:33
b325019: 對岸戰狼思維只能賺快錢這種東西他們玩不來128F 05/10 00:36
jasonspacex: VRAM不夠 Batch也不能開大 真的會OOM鐵拳吃好吃滿129F 05/10 00:40
massrelay: 推說明130F 05/10 00:42
jess730612: 雖然我都忘記什麼時候把你列入黑單 但是你是懂行的131F 05/10 00:57
nfsong: 看了兩遍  確認我在軍武版
看到情報數則有大事  開心地點近來被騙132F 05/10 00:58
jess730612: 稍微再認真看這篇就算Tech_Job板當科普文都不會打槍134F 05/10 01:06
wbreeze: 感謝分享135F 05/10 01:08
difvoice: 其實說正經完全精確,我自己做輕量化object detection的也發了兩篇ieee前段會議的一作,我用兩張1080ti跟一張3090而已
*不完全精確136F 05/10 01:24
viper0423: 非資訊類的工科社會人,內容簡單明瞭容易理解給推140F 05/10 01:48
jetalpha: 推說明141F 05/10 02:01
aicassia: 只能給推了 舉例說明很清楚易懂 讓我擔心了一下會不會出現胡歌老公之類的142F 05/10 03:39
PopeVic: 推,離題最近實驗室想搞vGPU但消費級驅動沒支援,非得要去買 A 系列,專業級真的是被 NV 吃死死QQ144F 05/10 03:41
KenshinCS: 很好的科普146F 05/10 03:53
mekiael: 粉紅的教育程度只覺得錢=科技,自己不行那就用偷的,用山寨的,連整個國家都是這個樣子在山寨軍武,更遑論底下的人民,所謂上行下效正是如此147F 05/10 05:30
aiyouwei: 巷子內的150F 05/10 06:05
allan0926: 看起來中國的量子電腦也是吹的?151F 05/10 06:19
gogoegg: 他有來推文啦 只是酸言酸語 難怪常常有人戰他152F 05/10 06:42
crohns: 近十年前aws出世的時候亞洲沒什麼人在談,沒想到這兩年瞬間爆紅,人人在講雲,大數據,ai153F 05/10 07:43
cloudwolf: 推!!長知識了,謝謝!155F 05/10 07:45
mmarty: 看軍武漲姿勢....156F 05/10 08:09
mazyota: 推
有料的文157F 05/10 08:10
MicChung: 解釋得超清晰的159F 05/10 08:15
LI40: 推160F 05/10 08:15
b389b1c: 這讓我想到以前在產線的AOI爛得要死
最後把ram加到500G才不會死當機161F 05/10 08:23
barry70490: 馬的當初就是被實驗室腦殘助力騙 說兩張1080疊在一起跑效能好:)163F 05/10 08:28
joe2: 我進來,嗯?   退出看板名,嗯???  再進來,嗯!!!大型語言模型是不是用大量的歷史資料來預測未來?165F 05/10 09:44
nipage16: 那也不能說是預測,而是透過大量資料學習如何做出正確或適當的回應吧167F 05/10 09:50
QuentinHu: 推專業分享169F 05/10 09:58
anarch: 推分享、收藏。170F 05/10 10:25
cleverjung: 推 想到前幾天yt推給我這影片
https://youtu.be/zBAxiQi2nPc171F 05/10 10:51
Pegasus170: 說真的,我實在不想承認現在的AI是AI,我認為只有到DL等級。甚至很多應用只是ML+big data。173F 05/10 11:44
st89702: 推 簡單明瞭175F 05/10 11:46
bunjie: 推一個 簡單明瞭176F 05/10 12:02
ja23072008: 推177F 05/10 13:08
uohZemllac: 推178F 05/10 16:35

--
作者 FXW11314 的最新發文:
點此顯示更多發文記錄