作者 sxy67230 (charlesgg)
標題 Re: [問卦] 中研院自己做的大型語言模型怎麼了?
時間 Mon Oct  9 14:34:24 2023


※ 引述《messi5566 (虹粉)》之銘言:
: 中研院最近發布了他們自己開發的LLM
: 說是在處理繁體中文的任務上表現優異
: 可是小妹看了一下跑出來的成果
: https://i.imgur.com/I1zNnIa.png
: https://i.imgur.com/BJIxJY6.png
: 請問繁體中文的任務內容是把簡體翻譯過來嗎
: 詳細資料在這裡
: https://huggingface.co/spaces/ckiplab/CKIP-Llama-2-7b-chat


阿肥外商碼農阿肥啦!

昨天昨天晚上都在跟獵人直播來不及趕上大型翻車現場,這邊中午看hugging face hub還
可以進去,但現在已經進不去了。

這邊阿肥就直接說,基本上現在所有中文開源語言模型除了少數像chatGLM這種中國比較
早期做的自己完全從零訓練的語言模型外,大家都是從meta 的llama魔改的,差別在於預
訓練或微調的數據源跟一些微調小細節而已。


然後大家想知道這個模型是不是本土完全從零開始可以從hugging face上的模型config跟
作者說的訓練數據源來看細節藏在魔鬼裡。

首先,依據新聞阿肥看了一下數據是用dolly-15k跟COIG-PC然後用opencc 轉繁體訓練,
理論上原生的meta llama 2的vocabulary size是32000,然後當前對岸開源的簡中llama
2 vocabulary size 是 55296,CKIP開源的那個看起來是65000。

理論上如果是完全從英文的llama 2 預訓練依照這兩個數據集詞彙詞典大小不會那麼大的
,所以這邊推測有可能這個模型原始就不是從原生llama 2開始的。

此外,這兩個數據集都是簡中數據集,中研院不知道哪個阿天以為只要opencc 簡轉繁就
可以訓練,完全無視繁中的用詞跟簡中用詞的差異。更天的是拿C-Eval這個簡中評測集做
評測,根本是拿明朝的劍斬清朝的官。


當前政府一堆研究單位早就落後中國不止一輪了,人家中國四五年前就砸哈工大幾億人民
幣再做簡中數據集了。

那個時候阿肥就一直再說台灣想做自己的AI一定要先從數據中心、數據工程開始,建立屬
於台灣自己的數據集,結果過了幾年中研院依然是畫大餅的單位,年初阿肥參加過幾個會
議聽到中研院再那邊高喊要要做自己的LLM,阿肥還以為中研院自己秘密建立了一套數據
中心,想必一定砸大錢,結果竟然是拿對岸的數據訓練,也不知道哪個天才研究員覺得只
要簡轉繁AI就會自己講台灣用語。


唉~

這邊註一下:
Vocabulary size是指當前LLM再預訓練會先把文字依據數據集切分成對應大小AI自己學會
的Token,詞會儲存起來對應成ID,AI模型其實真正預測的是這個詞表的ID最後再轉換回
人類有辦法閱讀的中文或英文字。


C-Eval是中國清華北大釋出來的評測集,簡單理解就是AI輸出的文字跟人類的回答有多接
近,他會做一些規範劃分成20-30個領域看看AI究竟有沒有學會到文字裡面的文化或是專
業領域知識。


以上

阿肥自己目前也在幫公司做繁中的語言模型,目前阿肥是盡可能把因為繁中數據有限所以
阿肥都是把模型縮限在小範圍超過分佈就拒絕回答,敢這樣做到那麼通用還不是拿自己的
大量數據集來訓練,我感覺CKIP可能要有大地震了。


呵呵….

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.46.126 (臺灣)
※ 作者: sxy67230 2023-10-09 14:34:24
※ 文章代碼(AID): #1b8vxox8 (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1696833266.A.EC8.html
※ 同主題文章:
Re: [問卦] 中研院自己做的大型語言模型怎麼了?
10-09 14:34 sxy67230
derekhsu: 中研院有說是從Atom-7b微調喔1F 175.182.19.98 台灣 10/09 14:35
Atom-7b就是對岸業餘人士拿Chinese llama調出來的,你怎麼會覺得沒有簡中的數據分佈

andy00andy: Opencc不是有簡中轉繁中用法的功能嗎?還是那個不夠準確2F 180.217.231.37 台灣 10/09 14:36
OpenCC很多用語還真的就不會轉,像公交車就直接簡轉繁變繁體的公交車,你要額外增加
詞彙他才會轉,但他的做法就是遇到同樣的詞就取代,像港語的的士你直接把他加進去就
全部把你文字裡面的「的士」轉成計程車。。
dhccc: 基本上現在要訓練公司內部用的
Llm也有點苦惱 中文資源都是對岸 用語也是4F 114.38.85.63 台灣 10/09 14:37
renna038766: 講的你比杜奕瑾還厲害 好了啦6F 1.161.153.103 台灣 10/09 14:37
呵呵
※ 編輯: sxy67230 (101.10.46.126 臺灣), 10/09/2023 14:44:21
derekhsu: 台灣就沒模型沒算力沒資料,三無怎麼打7F 175.182.19.98 台灣 10/09 14:38
firose: 台灣又浪費了幾年時間了8F 118.168.81.169 台灣 10/09 14:38
salamender: 這個id被創世神勾勾再中共同路人那邊9F 218.172.137.200 台灣 10/09 14:39
f12sd2e2aa: 所以說三無就放推 那養中研院幹嘛 關10F 61.231.0.237 台灣 10/09 14:40
salamender: ,你準備好被肉搜了沒?11F 218.172.137.200 台灣 10/09 14:40
f12sd2e2aa: 一關好了 浪費稅金12F 61.231.0.237 台灣 10/09 14:40
iopzu3lv0: 不是有姓杜的AI大神? 快出來拯救世界13F 122.121.227.138 台灣 10/09 14:41
stlinman: 好奇自己餵資料養數據庫,成本很高嗎?14F 101.136.159.171 台灣 10/09 14:41
yesonline: 可以拿近8年中央政府新聞稿訓練啊..
怎麼會沒資料.繁體資料可多著呢..15F 220.133.253.85 台灣 10/09 14:42
s900527: 綠共塔綠班政府~只會大內宣而已~
專門騙台灣智障人民就夠了17F 61.227.225.131 台灣 10/09 14:43
yesonline: 各部會公開資訊也能用. 只是要不要做啦19F 220.133.253.85 台灣 10/09 14:44
enthpzd: 講中文好嗎20F 101.136.167.139 台灣 10/09 14:47
afking: 這麼閹割的東西就會被靠北上新聞了,怎麼覺得上面會給資源燒錢做數據集笑死21F 1.171.61.199 台灣 10/09 14:48
zweihander99: 竟敢說台灣落後對岸,你完惹23F 223.140.139.36 台灣 10/09 14:49
Caroney: 國科會那邊也是一堆畫餅廢物「創造具台灣特色的chatGPT」24F 1.169.85.178 台灣 10/09 14:52
lonelyQQ: 翻譯台灣應該全面使用支語26F 61.224.55.6 台灣 10/09 14:54

--
作者 sxy67230 的最新發文:
點此顯示更多發文記錄