作者 SnowFerret (雪貂)
標題 Re: [請益] 為什麼有人說AI會讓資工人失去工作?
時間 Thu Jun  1 17:34:04 2023



先講結論, 後面再從AI原理開始解釋.

1. AI會不會取代人類?

就目前人類技術所產生的AI不會取代人類, 但是不會使用AI的人會被懂AI的人取代.

2. AI極限在哪裡? 他的潛力在哪裡?

AI的潛力: 將人類的抽象思考或概念轉換成與讓機械實際執行步驟的介面,
或者說, AI是連接人類世界與機械世界的編譯器.

AI的極限: 不管AI回答怎麼像人類, 現在的AI都無法"理解"人類所說的意義.
既然無法理解, 也就無法思考, 更無法創造.

= AI的原理 =

AI背後的運作原理是由多個神經元所連成的神經網路,

但這種數位神經網路跟生物神經網路還是所差甚遠.

說穿了只是用不同的參數, 以及調整比重, 讓AI產生最有可能的答案.

根本的運作原理還是統計和機率. AI不會想這個答案是否符合道德,

不會思考是否符合邏輯, 不管它是否符合基本物理定律.

如果A要解答的問題是, 請告訴我1+1=?  我們不斷的告訴AI, 1+1=3.

最後AI就會說1+1=3. 他不會思考, 不會判斷, 只會根據訓練資料中


出現機率最高的結果作選擇. 這也就是為什麼AI經常出現一本正的胡說八道的結果.


https://i.imgur.com/3677Fwj.jpeg
[圖]

= AI幻覺 =

AI只在乎生的"數據"是否通順, 不在乎內容邏輯.

這裡用"數據", 是因為AI其實不理解這些字的"意義".

對AI來說, 這些只是對應這個問題最有可能的回應數據.

胡說八道的原因是因為AI的訓練數據來自各種不同領域, 這些數據交互換混雜後,

經由AI取出部分"最有可能的答案"互相排列組合.

就會出現意義不明或是不合理的結果. 這就是所謂的AI幻覺.

= AI人格 =

AI幻覺也是AI聊天機器人出現人格分裂的原因.

AI並不是出現了不同人格, 而是AI從不同人格的訓練資料裡面提取部分結果進行輸出.

這些資料包含各類聊天內容, 也包含小說和故事.

所以才會出現多種人格以及極端人格的回應.

AI回應中所帶有的情感都是屬於AI幻覺的產物.

對於AI來說, 這些都是數據, 只不過經由人類理解之後, 私自的認為這些字句帶有感情.

= AI潛力 =

儘管AI因為技術上的限制, 無法避免幻覺的出現.

但AI還是可以在有既定流程或是可以被固定算法求得最佳解的工作領域獲得大量應用.

以下舉例可能的應用場景.

1. AI輔助程式設計: 程式語言是個嚴謹邏輯的語言, 以及存在很多固定使用方法.

AI幻覺的缺點在這個領域可以很大程度的避免, 但是人類還是要擔任監督者的腳色,

用AI組合出自己想要的成果.


2. AI輔助運輸: 運輸包含運貨, 倉儲, 交通. 這些都可以轉換成數字,

讓AI使用演算法最佳化相當合理. 事實上, 自動化倉儲早就在使用了,


最近是因為自動駕駛得益於AI物體辨識功能, 所以讓自動化貨運和自動化駕駛搬上檯面.


3. AI輔助動畫/圖片/廣告文宣的生成和編輯: AI幻覺在這裡反倒可以視為部分卻優點.

在藝術創作領域中, AI幻覺倒是不被重視, 反倒可以刺激作者靈感.

藉由AI來實現使用者的抽象概念, 讓進入圖像工作領域的門檻大幅降低.

AI的輔助作畫可以非常大幅度的縮段生產時間.

4. AI輔助文書文件和報表的成生和編輯:文件和報表都是有固定模式的.

利用AI辨識使用者的抽象概念, 提供多樣化建議縮短生產時間是非常有潛力的應用.

5. AI輔助工程軟體上的輔助設計: 類似於程式設計以及文件生成, AI有非常大的發展空間

6. AI輔助醫療診斷: 雖然AI幻覺會給錯誤判斷, 但是AI可以改成給予廣泛的建議

以及提供病症可能性解方, 補足診斷醫師的盲點, 避免醫師自己的偏好/偏見.

用AI結合病人的身體數據分析可以避免醫師不小心忽略並不容易注意的的地方.



錯誤應用:


AI輔助法律訴狀撰寫: 法務相關事務必須要謹慎, 正確理解法條, 有字句有邏輯, 要思考

論點. 這全部都是AI的弱點, 任何一點點的AI幻覺都可能引發非常嚴重的錯誤.


= 美律師用ChatGPT寫訴狀 被抓包引述判例「攏係假」=
https://news.ltn.com.tw/news/world/breakingnews/4316350
美律師用ChatGPT寫訴狀 被抓包引述判例「攏係假」 - 國際 - 自由時報電子報
[圖]
隨著人工智慧(AI)的快速發展,近來ChatGPT的強大功能帶來便利,也引起不少爭議。美國紐約律師史瓦茲(Steven A. Schwartz)日前提交訴訟文件,卻被法官發現,文件中所引用的6起判例竟「根本不存在」,他才承認是使用ChatGPT研究判例,且「沒有意識到內容可能是假的」,他與同事都被控 ...

 

這個案例也很清楚的展示, 生成式AI在缺乏監督的的情況下很可能會鑄成大錯.

因為AI無法理解, 無法思考, 無法創造.

所有的輸出和回應都是線性組合後得到的最佳"數據". AI不知道其中的意義.


結論:

在人類真正發展出可以思考的AI之前, AI不會取代人. 因為AI需要監督.

懂得使用AI的人會取代不會是用AI的人.

一直在那邊嚷嚷AI要取代人類的, 很可能就是會被取代的那一群.

因為這些人根本不知道AI是怎麼運作的.

- - -

題外話, 在發展出有意識的AI之前, 人類必須要了解 "何謂意識"

這種高階AI發展的門檻最後是卡在腦神經科學上, 而不是計算機或是半導體.

"何謂意識"是人類有思考能力以來的千古難題.


我自己是不認為在我們有生之年人類內能夠破解"意識"

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 149.117.216.29 (臺灣)
※ 作者: SnowFerret 2023-06-01 17:34:04
※ 文章代碼(AID): #1aU6OEHi (Tech_Job)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1685612046.A.46C.html
※ 編輯: SnowFerret (149.117.216.29 臺灣), 06/01/2023 17:39:54
Weky: AI就和之前元宇宙系列一樣 下一代燒給我說系列1F 06/01 17:41
InfinitySA: 推2F 06/01 17:51
cs410567cs: 一堆似是而非的東西3F 06/01 17:56
tr920: 推,解答了大部分人心中的疑惑4F 06/01 17:57
SnowFerret: 不能說完全跟源宇宙一樣
殺手級應用是肯定會出現的
現在是因為還有門檻要解決
例如  著作權歸屬  公司智慧財產洩漏 訓練資料不足但是對於Adobe Microsoft Google這些問題都不大 近3-5年內必有突破
但是我主要是想說AI並不如大多數人想像一樣萬能5F 06/01 17:57
tr920: 如果AI可以自己發明一種程式語言,才有資格說AI已經有了意識12F 06/01 17:58
InfinitySA: 看到有些人說 很多科技業大老闆或企業家說ai會取代但我覺得應該要有自己思考的能力 他們說的不一定對14F 06/01 17:59
CannedHamEgg: AI目前沒辦法完全取代 但你也說了 目前人還是要監督AI 也就是AI可以取代部分人的工作 也就是部門可以因此縮編 這就是取代 部分取代16F 06/01 18:42
zaiter 
zaiter: 可以不斷告訴一個小孩1+1=3 他長大優惠覺得就是3 低19F 06/01 18:48
zaiter: 能文章
godnnn: 你這篇說是chatgpt 寫的我都信21F 06/01 19:03
kknnightt: 同意樓上說的小孩1+1=3,說不定只是是喂進去的資料侷限了AI的計算 與人類不同22F 06/01 19:33
CGDGAD: 聽起來AI核心是蒙地卡羅法24F 06/01 20:53
a1234567289: 蒙地卡羅法只是AI的其中一種算法25F 06/01 21:06
afking: 蒙地卡羅是可以應用在機器學習,但你不能稱之核心26F 06/01 21:10
jasontmk: 結論帥氣XD
懂得使用AI的人會取代不會是用AI的人.
AI就當作是高效率作業員
而且不會靠北27F 06/01 21:16
tn601374: 取代的都是廢物
有能力,ai算個屁31F 06/01 21:38
jordan0522: 講那麼多結果用gp-3 XD33F 06/01 21:55
q2825842: 很多關於AI的討論,陷入過於極端的問題,或是進入科幻小說的範疇。相對這篇蠻多點比較接近現實情況34F 06/01 22:10
gene123: 推,說明清晰36F 06/01 22:19
dhm520: 一直跟一個人說1+1=3,最後他也會說1+1=3啊37F 06/01 22:56
SnowFerret: 但是人類接受數學教育後會反思1+1=3是否合乎邏輯
這是人類跟AI的差異
人類如果不思考 只會聽命形式  真的比AI還不如
行事*38F 06/01 23:05
greenie319: 人類所謂的知識應該可以很粗略分成兩類,以人類發現的科學規則推演和人類主流共識,科學規則有客觀事實及理論證據(至少在人類的觀測下),是不能多數決的,但便主流共識類的,恰好符合RL的天性,AI有高機率做的比人類好。42F 06/01 23:53
Izangel: 你這不能解釋為什麼chatgpt看了一本推理小說,可以回答兇手是誰。現在的ai不是只有靠機率決定。
上面說的數學教育就是一種監督。你只是故意給ai錯誤的監督。你在小島上教所有小孩1+1=3,人類不會比ai高級到哪裏。47F 06/02 02:02
Eric0605: 推52F 06/02 02:11
neak: 你所說的只是現在的AI 這麼多年投入了這麼多資金,AI 必定會更有進步,就像20年前應該沒有幾個人會想到PC 將被智慧手機取代多數的應用及銷售。公司會願意投入大量資金自動化就是為了節約人力成本。現已可見的可以取代記者、翻譯、作家,以後會取代低階的軟體工程師53F 06/02 03:16
[圖]
 
[圖]
lecheck: 你應該不懂抽象 也不懂ai61F 06/02 06:05
DrTech: AI現在要怎麼取代記者,翻譯,作家? 連求真實的能力都沒有,連自動翻譯新忘了詞彙的能力都沒有,連怎麼樣根據前面幾萬個字的故事背景,寫結尾,並且前後觀點一致的能力都沒有。
翻譯,連自動能翻譯網路新詞彙的能力都沒有,都在亂翻。到底要怎麼取代翻譯。62F 06/02 07:04
Izangel: 你說的那些,再找人類翻譯校稿就好了。翻譯人力需求80%改ai算不算取代?不是一個人類都不用才叫取代。而且校稿的工作有些不需要原本的翻譯人才,成本低很多。
我也覺得這篇不懂現在最新的ai, 還停留在舊思維。完全沒提到大型midel出現「湧現」的能力68F 06/02 08:05
doranako: 那個回答感覺張飛跟關羽有基情74F 06/02 08:25
snoopy790428: 小孩你1+1=3多教幾次就被騙了  這個權重增加我看是同一個道理75F 06/02 10:32
vi000246: 就跟現在新聞媒體洗腦很像 大家告訴你這東西很好
久了你就以為很好了77F 06/02 10:56
LPCbaimlly: 你要求AI回答1+1=3他當然就回答給你聽啊,老闆說1+1=3為了薪水你還不點頭稱是?79F 06/02 11:33

--
作者 SnowFerret 的最新發文: