顯示廣告
隱藏 ✕
※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2019-09-30 10:13:53
看板 Gossiping
作者 ruokcnn (Dean)
標題 Re: [問卦] Google翻譯是不是進步的有點太快了
時間 Sun Sep 29 23:40:41 2019


※ 引述《IMCENTER (Grom)》之銘言:
: 如題阿
: 我記得幾年前用Google翻譯段落式文章
: 通常都翻的有點顛三倒四
: 但這一兩年翻段落式的(大概三到四句)都可以說的上還算通順可理解
: Google翻譯是不是進步的有點太快了?
:

AI做NLP有兩種

一個是BERT之前的作法

一個是BERT誕生後的作法


基本上現在你看到NLP做比較成熟的應用

他的pretrained model

都是拿BERT或後續衍生模型再接幾層layer的


所以說現在做AI真的很幸福

一個頂級商業化應用的模型都可以直接開源給你用

根本不用一層層搭seq2seq 或attention model了


--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.83.155.239 (臺灣)
※ 文章代碼(AID): #1TaD1xJ8 (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1569771643.A.4C8.html
Yamapi5566: 嗯嗯 說的沒錯1F 114.24.21.227 台灣 09/29 23:41
VincentCid: 嗯嗯 我也這樣覺得2F 220.135.61.84 台灣 09/29 23:42
justlovedada: 跟我想的差不多3F 180.217.153.171 台灣 09/29 23:42
Philethan: 呃 我剛正要發文解釋4F 123.192.0.245 台灣 09/29 23:43
WTFCN: 嗯嗯不錯5F 118.150.173.231 台灣 09/29 23:44
Chian3675: 同意你的說法6F 124.155.187.37 台灣 09/29 23:46
qazedc: 我agree你的says7F 223.137.135.44 台灣 09/29 23:47
henryhao: 的確8F 180.218.219.230 台灣 09/29 23:47
xvited945: 我們英雄所見略同9F 101.14.166.216 台灣 09/29 23:47
ciswww: AI這個領域非常開源,不過美國專利局也正10F 140.112.53.213 台灣 09/29 23:48
ciswww: 提出12個有關AI發明專利的問題
wellwest: 我也這麼think的12F 122.117.149.117 台灣 09/29 23:50
fuhu66: 蛤?13F 180.177.142.62 台灣 09/29 23:51
JustInRain: 我白天student 晚上在American gay cl14F 39.12.102.186 台灣 09/29 23:52
JustInRain: ub上班
Tchachavsky: 跟我疊出來的87%TRUE16F 140.117.196.55 台灣 09/29 23:52
gaduoray: 嗯嗯 我也是這樣想17F 123.195.56.92 台灣 09/29 23:53
a3831038: 原本想回文,被你說走了18F 111.254.90.69 台灣 09/29 23:54
bunbunblue: 這些都是很基本的觀念19F 110.28.193.134 台灣 09/29 23:57
真的
看來板上做DL的真的沒想像中多
JamesChen: 差得遠了好嗎20F 219.68.109.52 台灣 09/29 23:58
loking: 還不是靠芝麻街21F 114.44.219.124 台灣 09/29 23:59
bigtien6292: 原本想自己回的 但你回得也還行22F 42.75.163.124 台灣 09/30 00:01
joe581892: 你這篇算基本,我還有12種說法。23F 101.137.89.139 台灣 09/30 00:02
bernon: 不要說那麼深奧的東西好嗎24F 124.82.49.216 馬來西亞 09/30 00:04
louner: 照你說法 所有公司都用AutoML就好啦 聘那25F 115.82.3.20 台灣 09/30 00:05
louner: 些data scientist幹麻
autoML不會幫你依據產品需求搭FC層呀

微調到精準這種事就是要靠人

firxd: 我跟你的想法有點different 但大致agree27F 118.167.155.143 台灣 09/30 00:11
L9C4iO: 嗯嗯 說的沒錯28F 39.13.131.70 台灣 09/30 00:12
jexus: 用GPT2爆train一波29F 140.112.250.168 台灣 09/30 00:13
真的,BERT發明後一整個進入城堡時代的節奏

jjrdk: 你太偏差了30F 49.216.10.26 台灣 09/30 00:13
cymtrex: 公鯊31F 85.133.27.17 英國 09/30 00:21
cphafa: 基本上說得都對。32F 111.251.164.125 台灣 09/30 00:23
NTUisgood: 跟我想的差不多 但你講的比較容易理解33F 49.216.6.132 台灣 09/30 00:26
cityfear: 對,我也是這麼想的34F 42.73.89.24 台灣 09/30 00:28
qaz214536: 開源也是能進步那麼快的原因35F 220.134.203.210 台灣 09/30 00:34
keith780902: 嗯嗯 就照你想法進行36F 223.137.189.118 台灣 09/30 00:37
TomChu: 我原本也想講這些37F 111.249.37.42 台灣 09/30 00:37
siensien: 一群低能兒在嗆英文38F 1.174.53.201 台灣 09/30 00:41
siensien: 專業領域本來就講英文居多
siensien: 還一堆可悲仔在那邊中英夾雜沾沾自喜
哈哈哈我是也沒很在意啦

但我還是整理了一個全中文版如下


————————————————
人工智能做自然語意處理有兩種

一個是博特之前的作法

一個是博特誕生後的作法


基本上現在你看到自然語意處理做比較成熟的應用

他的預先訓練好的原模型

都是拿博特或後續衍生模型再接幾層神經網路層的


所以說現在做人工智慧真的很幸福

一個頂級商業化應用的模型都可以直接開源給你用

根本不用一層層搭「序列到序列模型」或「注意力機制模型」(例如變形金剛)了

————————————————

Arens5566: 沒錯41F 42.73.176.82 台灣 09/30 01:07
a1qazbgt5: 原來如此,長知識給推42F 106.105.92.183 台灣 09/30 01:08
※ 編輯: ruokcnn (111.83.155.239 臺灣), 09/30/2019 01:19:19
maxiehume: 跟我想得差不多43F 123.193.208.48 台灣 09/30 01:16
grass930: 一堆假會的是XDDD44F 123.194.12.28 台灣 09/30 01:20
dongkee: 一堆假會的是XDDD45F 36.225.139.148 台灣 09/30 01:47
PeterSu1983: 根本不懂再說什麼 哈哈46F 49.216.40.65 台灣 09/30 01:57
gamaqqq: 笑死 還翻譯XDDDD47F 27.242.192.224 台灣 09/30 01:59
joygo: 竟然有人在嗆英文....,翻譯中文反而一堆人48F 111.241.8.33 台灣 09/30 02:00
joygo: 看不懂吧
flutter5555: 嗯我也覺得根本不用一層層搭seq2seq50F 114.136.233.98 台灣 09/30 02:00
flutter5555: 或attention model了
cerberi: 推52F 118.167.53.210 台灣 09/30 02:01
SunFox58: 翻成中文有比較好懂嗎xD53F 111.71.111.54 台灣 09/30 02:01
qui0914: 上面誰在嗆英文了 = =??54F 61.227.15.10 台灣 09/30 02:03
oxlittle: 資工好像真的很長中英夾雜55F 140.113.229.138 台灣 09/30 02:45
Cybermark: 中國用語掰56F 223.136.76.75 台灣 09/30 05:58
drajan: 說中文的話保證沒人聽得懂你在做什麼研究57F 82.21.162.27 英國 09/30 06:22
TClover: 感謝精彩解說58F 114.25.129.3 台灣 09/30 07:54
diiky: 推,就是這樣59F 111.250.164.143 台灣 09/30 08:05
ShinSioku: 翻成中文反而看不懂,哈哈哈60F 111.250.192.107 台灣 09/30 09:33

--
※ 看板: Gossiping 文章推薦值: 0 目前人氣: 0 累積人氣: 376 
分享網址: 複製 已複製
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇