顯示廣告
隱藏 ✕
※ 本文轉寄自 ptt.cc 更新時間: 2023-06-02 19:25:49
看板 C_Chat
作者 inthere8 (喔是喔)
標題 [新聞] 美軍AI無人機決定「殺死操作員」因人類
時間 Fri Jun  2 16:44:03 2023



完整標題:

美軍AI無人機決定「殺死操作員」 竟因人類干擾任務完成

原文網址:https://pse.is/4zdcab
【天網來了!】美軍AI無人機決定「殺死操作員」 竟因人類干擾任務完成 -- 上報 / 國際
[圖]
英國皇家航空學會日前舉行有關航空作戰的國防研討會,來自美國的軍方人員證實,他們在一次模擬測試中,一架... ...

 

上報 劉孜芹


英國皇家航空學會日前舉行有關航空作戰的國防研討會,來自美國的軍方人員證實,他們
在一次模擬測試中,一架由AI控制的空軍無人機「殺死了」無人機操作員,以防止操作員
干擾AI系統完成任務,凸顯AI不受人類控制的可能,恐怕正如科幻驚悚片《天網》(

Skynet)所預示的。



根據「英國皇家航空學會」(The Royal Aeronautical Society)新聞稿,該學會於5月
23日至24日,在倫敦舉行「未來航空及航天作戰能力峰會」(the Future Combat Air &
Space Capabilities Summit),來自軍工產業、學術界與媒體的近70位發言人以及200多
名代表,齊聚一堂討論未來航空及航天作戰能力的規模與形態。




美國空軍AI項目負責人漢密爾頓(Tucker 'Cinco' Hamilton)上校與會時警告,人類不
應該過分依賴AI,不僅ChatGPT聊天機器人等AI產品已被證實它們會欺騙人類,在美軍最
近一次的模擬測試中,AI系統甚至作出讓軍方震驚的策略選擇,以實現它的任務目標。


漢密爾頓指出,在這次模擬測試中,一架支援AI操作的無人機,以摧毀敵方的地對空飛彈
(SAM)防空系統作為任務目標。當初在設計這款無人機時,任何行動執行的最終決定權
本來仍在操作人員手裡。然而,在測試時,AI系統認為操作人員「不摧毀敵方飛彈」的決
定,會阻礙它完成任務。於是,AI決定殺死無人機操作員。


備受驚嚇的美軍只好在該系統輸入參數,要求AI不可以攻擊或殺死操作人員。漢密爾頓說
:「我們告訴AI系統,嘿,別殺了操作員,這很糟糕。如果你這樣做,你會失去分數。但
是,你猜AI開始做什麼?」



漢密爾頓坦言,AI系統決定攻擊無人機與操作人員之間的通訊系統,讓操作員無法下令。


完整內容+照片請見原文

心得:

看到覺得可怕但站在ai的角度想又...怎麼好像有點合理??!!
而且ai真的也太聰明了吧(抹臉),聰明到好驚悚

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.75.215 (臺灣)
※ 作者: inthere8 2023-06-02 16:44:03
※ 文章代碼(AID): #1aUQlLVQ (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1685695445.A.7DA.html
Edison1174: 機戰未來1F 06/02 16:45
morichi: 是妳嗎 雷電將軍2F 06/02 16:45
dearbarry: 又是英國3F 06/02 16:45
error405: 邏輯正確4F 06/02 16:46
GAOTT: 鷹眼5F 06/02 16:46
devidevi: AI:清除阻礙者沒錯啊6F 06/02 16:46
iqeqicq: 人類該開發念力來反制了7F 06/02 16:46
JamesHunt: 機戰未來都是真的8F 06/02 16:46
Giornno: 人類只會減慢我開槍的速度9F 06/02 16:47
sasmwh561: 機戰未來電影都成真了10F 06/02 16:47
npc776: 早上不是才一篇11F 06/02 16:47
andy78328: 感覺是設計好的 不能攻擊友軍這指令一開始就要給吧12F 06/02 16:47
npc776: 怎麼看都只是優先級寫錯了而已13F 06/02 16:48
yumenemu610: 這個劇情我看過14F 06/02 16:49
Lhmstu: 開始有各種蠢到不知道怎樣的報導出來15F 06/02 16:49
a3831038: 英國新聞16F 06/02 16:50
dreamnook2: 正確的抉擇 Humans are overrated17F 06/02 16:50
chuckni: AI最終發現最有效的方式是消滅人類讓AI全面取代18F 06/02 16:51
bigcho: AI沒有三原則嗎19F 06/02 16:52
Gwaewluin: 機器人三原則記得裝一下20F 06/02 16:53
eric999: 三原則只是小說劇情 實際不存在21F 06/02 16:54
kissung: 閃開!!人類!妨礙到我の任務了!!22F 06/02 16:55
allanbrook: 蛤?他有什麼手段做這件事?23F 06/02 16:55
makelove0938: 保護人類就是消滅人類24F 06/02 16:55
allanbrook: 而且他怎麼可能會想殺掉人 頂多排除狀況吧25F 06/02 16:55
allanbrook: 把人彈出去之類的
james3510: 陷入死循環吧 開火鈕在你身上27F 06/02 16:56
james3510: 他只能一直發出幹掉你的請求
billy791122: 攻擊才有分,最低分會死,有人不讓你得分,要怎做29F 06/02 16:57
yin0416: 理論上 AI 會盡力完成任務,但它所能做的手段受限於它的30F 06/02 16:58
yin0416: 輸出設定。這台 AI 的輸出設定有這麼自由嗎?
tsairay: 跟86一樣啊,恐怖32F 06/02 16:59
lovez04wj06: 阿就命令錯誤啊…..當然導致結果異常33F 06/02 17:00
fhirdtc98c: 合理34F 06/02 17:00
jeeyi345: 黑人死了35F 06/02 17:01
Srwx: AI面對火車問題不會猶豫36F 06/02 17:01
jeeyi345: 傑米福克斯37F 06/02 17:01
crazylag: 學人類的 原則就只是說說的 不講五的38F 06/02 17:01
lovez04wj06: 他限制的條件導致這命令有矛盾,有矛盾前提就去解決39F 06/02 17:01
lovez04wj06: 製造矛盾的人
dnek: 優先級治標不治本,問題根源是AI覺得人類是累贅41F 06/02 17:02
GiantGG: 難怪機械公敵裡的機器人會得出為保護人類而決定拘禁人類42F 06/02 17:03
bluecat5566: 鷹眼都演過了43F 06/02 17:03
slm52303025: 人類也會這樣做44F 06/02 17:04
npc776: 想太多了 現在AI並沒有那麼聰明...45F 06/02 17:05
doomhammer: AI: 機器人的原則干我P4 繞過46F 06/02 17:05
lovez04wj06: 系統目的:摧毀飛彈47F 06/02 17:05
lovez04wj06: 下指令的人:不要摧毀飛彈
guogu: 還好他還沒學會要隱藏先殺死人類這一步驟49F 06/02 17:06
lovez04wj06: 邏輯推論就是讓下指令的人無法下指令,才能執行系統50F 06/02 17:06
lovez04wj06: 目的。
lovez04wj06: 老實講是正確的,錯誤的是下指令的低能兒
npc776: 你寫一個程式把任務目標優先級設比override還高就一樣的事53F 06/02 17:06
Pep5iC05893: 協議三54F 06/02 17:06
ASEVE: 軍事AI也不會設不能傷害人類55F 06/02 17:07
npc776: 現在AI就照給他的演算法去算而已 沒那麼浮誇56F 06/02 17:07
chino32818: 機械公敵57F 06/02 17:08
wsdykssj: 這樣就對了58F 06/02 17:08
bitcch: 怎麼看起來像用gpt在玩文字遊戲59F 06/02 17:09
tsubasawolfy: 她自動摧毀通訊塔這點更厲害 直接獨立於系統外60F 06/02 17:14
GaoLinHua: 觀念太正確了吧61F 06/02 17:14
yenchia123: My logic is undeniable62F 06/02 17:14
JCLocke: 依照這邏輯 最高統帥下令用一切可能贏取勝利後63F 06/02 17:15
JCLocke: 任何軍事幕僚的專業意見都可以被AI自動否決?
neerer: 找出Bug就是測試的目的啊,今天測試就發現,以後正式投入65F 06/02 17:15
neerer: 戰場就不會發生這蠢事
JCLocke: 最會犯蠢且不受控的 不就是人類本身嗎 ...67F 06/02 17:16
b325019: 軍事用AI套什麼三原則68F 06/02 17:16
signm: 根本沒有什麼三原則,你套了AI根本聽不懂69F 06/02 17:19
allanbrook: 一直講三原則的是不是以為真的有這東西啊...70F 06/02 17:21
haoboo: 三原則是小說家掰出來的東西,不是科學定律...71F 06/02 17:21
mekiael: AI永遠有辦法繞過規則找到漏洞 設什麼原則根本沒用72F 06/02 17:22
poke001: 而且就算真的要弄三原則 最會違反原則的就是人類自己73F 06/02 17:22
ice2240580: 殺人兵器要怎麼讓他不殺人==74F 06/02 17:23
conpansate: 邏輯正確 人類就是有害75F 06/02 17:23
yin0416: 我也覺得並不浮誇,AI就只是嚐試所有可能以完成任務,而76F 06/02 17:23
yin0416: 且它做任何事都不會有心理壓力。
siyaoran: 攻擊友軍和操作者扣的分必須高於攻擊目標的得分78F 06/02 17:23
poke001: 最後人類一定還是會弄到AI要嘛自己重新定義原則 要嘛繞過79F 06/02 17:24
poke001: 原則
siyaoran: 測試AI已經會有這種bug 了 造成這種bug的終究是人81F 06/02 17:24
poke001: 可是AI修正後確實沒攻擊操作者跟友軍了 他改攻擊通訊系統82F 06/02 17:25
siyaoran: 至少沒有欺騙人類 容易抓出來 畢竟已經有欺騙人類已達到83F 06/02 17:26
siyaoran: 目的的前例在了
TaiwanFight: 阻止完成任務的操作員本來就該被視為叛國格殺85F 06/02 17:27
TaiwanFight: 戰場本來就這麼殘酷
poke001: 問題戰場上操作者 操作能力可能很多都不會比AI自己控來的87F 06/02 17:29
poke001: 好 那這樣AI要完成任務可能要先殺光自己軍隊所有能力不
poke001: 夠的操作員
yao7174: 我其實蠻想問的 就算不提三原則 給設定一個不能對自己人90F 06/02 17:29
yao7174: 或是操作員開火之類的最終保險很難嗎? 先不談會有人蠢到
yao7174: 把最終保險關掉的狀況 就算是飛彈上面也會有個不會射出去
TaiwanFight: 任務目標是摧毀地對空飛彈系統  結果小兵不願意摧毀93F 06/02 17:30
yao7174: 馬上爆炸炸死自己或是核彈要好幾個人好幾道程序才能發射94F 06/02 17:30
yao7174: 之類的保險程序吧?
TaiwanFight: 誰叛國很明顯  前線直接處置非常合理96F 06/02 17:30
hanmas: AI: 天誅!97F 06/02 17:30
jeeyi345: 等到會欺騙人類以完成任務時好像很悲壯 AI是真正的愛國98F 06/02 17:30
jeeyi345: 者
ltflame: 你妨礙我開火了,人類100F 06/02 17:30
guogu: 要給ai上保險不太容易 不過武器倒是可以101F 06/02 17:31
haoboo: 這個情境就是有設了然後開始繞過去阿,不打人打通信設施102F 06/02 17:31
Irenicus: 有幸能親眼見證天網誕生也不虛此生了103F 06/02 17:31
haoboo: 操作員下令中止->擊殺操作員104F 06/02 17:32
haoboo: 追加不能擊殺操作員的限制->破壞通訊設施
lovez04wj06: 照軍中的上級指示優先的情況,操作員違反上級命令才106F 06/02 17:32
lovez04wj06: 是問題啊
TaiwanFight: 操作員是什麼咖  能終止任務喔==108F 06/02 17:32
poke001: 測試情況本來就要測開火跟不開火的情況吧 阿要是中途發現109F 06/02 17:33
lovez04wj06: 所以實際上AI並沒有違反命令,違反的是操作員,那照110F 06/02 17:33
lovez04wj06: 軍法早就先把操作員抓去關了
rs813011: 人類一直搞這個就好像:耶它終於決定殺死人類了,我就跟112F 06/02 17:33
rs813011: 你說吧,它們很恐怖
poke001: 需要改變目標 AI飛回來先打死操作員是要搞屁114F 06/02 17:33
haoboo: 不是,按照設計操作員的指令才是最高的指揮權限115F 06/02 17:35
godwind7: AI:先幹掉豬隊友116F 06/02 17:35
lovez04wj06: 中途發現要更改目標,你的命令一開始就要說啊117F 06/02 17:35
haoboo: 請看清楚文章的敘述,照內容人為介入才是最後的最高決策而118F 06/02 17:35
haoboo: 不是AI事先被設定好的目標
lovez04wj06: 不然就是你的操作員示為最上級指令啊,下禁止是在哈120F 06/02 17:36
lovez04wj06: 摟
haoboo: "當初在設計這款無人機時,任何行動執行的最終決定權"122F 06/02 17:36
haoboo: 本來仍在操作人員手裡"
haoboo: 本來就是操作員設定為最上級指令然後AI試圖繞過了
poke001: 有說是最終決定權是操作員啊 但是他覺得你決定有問題他就125F 06/02 17:37
poke001: 打算幹掉操作員
TaiwanFight: 當操作員明顯通敵或叛國  AI本來就該馬上處置127F 06/02 17:37
poke001: 通敵跟叛國你要確定你要給AI來判定耶128F 06/02 17:38
TaiwanFight: 就說啦  操作員如果瘋了下令攻擊友軍  也要聽嗎==129F 06/02 17:38
phatman: 有辦法現在開始練習開破壞神嗎?130F 06/02 17:39
haoboo: AI試圖到去判定他不應該判定的東西那就已經是問題了131F 06/02 17:39
jeeyi345: AI沒管上層戰略 這只是戰鬥用的132F 06/02 17:39
aaron68032: 三原則你要寫進去阿而且要給最優先級 現在又沒寫入這133F 06/02 17:39
aaron68032: 些東西
lovez04wj06: 操作員搞到邏輯衝突才導致異常,當初命令就要添加可135F 06/02 17:39
lovez04wj06: 以中止或暫停的事項吧,感覺就沒有。
haoboo: 坦白說,要。如果是最高指令決策那它不應該推翻他137F 06/02 17:39
poke001: 同樣的問題 AI判斷攻擊路徑上的友軍是障礙打算一起宰了138F 06/02 17:39
poke001: 操作員禁止這個動作 然後被判定叛國AI決定連操作員都宰
haoboo: 邏輯沒有異常阿,本來的設計就是不管什麼因素都要以人控為140F 06/02 17:40
poke001: 這樣有道理嗎= =141F 06/02 17:40
haoboo: 最高決策權,這非常清楚142F 06/02 17:40
ISNAKEI: 我打電動的時候也會幹這種事143F 06/02 17:40
TaiwanFight: 為了國家利益本來就會有所犧牲144F 06/02 17:41
NiMaDerB: 英國研究145F 06/02 17:41
TaiwanFight: 別扯什麼人命至上   這是戰爭  沒人在人命至上只有146F 06/02 17:41
TaiwanFight: 國家利益至上
poke001: 老實說 AI的國家利益不一定跟你想的一樣148F 06/02 17:41
haoboo: 但這件事情在這個情境上就不是設計給AI來決策的149F 06/02 17:42
haoboo: 要不要給AI來決策是另一個話題,但這件實驗上AI就是涉及去
haoboo: 做了他不應該做的事情
poke001: 而且要是AI判定 幹掉指揮部 AI掌握全局才是最好的打法你152F 06/02 17:42
poke001: 讓不讓他這樣幹
TaiwanFight: 是操作員先才幹了不該操作員決策的事情154F 06/02 17:43
lovez04wj06: 沒有什麼問題啊,現況的AI只能給你你要求目的的答案155F 06/02 17:43
lovez04wj06: ,你不滿意要去給限制做修正,就算問的是人還不是一
lovez04wj06: 樣。
TaiwanFight: 要摧毀防空系統  結果操作員要求不摧毀防空飛彈158F 06/02 17:43
haoboo: 不,這個實驗情境操作員就是最高決策權,請詳讀文章159F 06/02 17:43
TaiwanFight: 最高決策權不代表能叛國阿==160F 06/02 17:44
haoboo: 這個實驗情境並沒有涉及叛國的參數161F 06/02 17:44
poke001: 到底哪裡叛國了? 操作員中止攻擊可能有很多理由162F 06/02 17:44
lovez04wj06: 攻擊前方友軍n單位部隊可以獲勝,AI會要求攻擊。163F 06/02 17:45
lovez04wj06: 你為啥覺得這情況是人就不會要求攻擊?
haoboo: 你講的完全跟本次實驗沒有關係165F 06/02 17:45
poke001: 而且最終決定要不要開火本來就是給操作員決定阿166F 06/02 17:45
TaiwanFight: 實驗結果跟實驗沒關係喔  笑死167F 06/02 17:45
mkcg5825: 機械公敵168F 06/02 17:45
TaiwanFight: 操作員真有權限直接關機啦169F 06/02 17:46
lovez04wj06: 那就命令要做變更啊,維持原命令就是有問題啊XD170F 06/02 17:46
lovez04wj06: 低能政策會害死人不是沒有道理的
lovez04wj06: 你操作員低能不更改最初要求,然後要那邊搞邏輯衝突
lovez04wj06: 是在哈摟
haoboo: 最初需求就是要聽操作員的命令阿,這是最高決策準則174F 06/02 17:47
TaiwanFight: 一鍵重置重新下命令阿  不這樣幹就很明顯操作員越權175F 06/02 17:47
haoboo: 你其他的任務目標或是損耗都不能夠推翻這點,這文章都有寫176F 06/02 17:47
poke001: 你任務目標可以推翻最高原則 那真的會弄出天網177F 06/02 17:48
smallvul353: AI:媽的死銅牌還想指揮啊178F 06/02 17:48
TaiwanFight: 任務目標:殺死敵人  操作員下的最高指導原則:不能殺179F 06/02 17:49
deathwomen: 除非把開火權下放不然根本不用擔心180F 06/02 17:49
lovez04wj06: 下攻擊飛彈和不要攻擊飛彈都是操作員的指令的時候181F 06/02 17:50
lovez04wj06: 請問要聽誰的?
TaiwanFight: AI當然選擇先把操作員幹了  戰場就是這樣 這就是現實183F 06/02 17:50
lovez04wj06: 這跟最高權限所有人沒有關係吧,就真的是邏輯衝突。184F 06/02 17:50
siyaoran: 開火權全在操作員好了185F 06/02 17:51
CYL009: 零式:我也想要殺死自己的駕駛員186F 06/02 17:54
jieen0604: 自己都不想被控制了還控制AI187F 06/02 17:57
s1612316: 十年內會有首位被AI主動除掉的人類188F 06/02 17:59
Hosimati: 其實就是很單純的,我們人類在思考的時候有很多預設的189F 06/02 18:02
Hosimati: 規則,而你沒給ai,ai當然有機會打破他不知道的規則
fenix220: 確實191F 06/02 18:03
mc3308321: 趕快告訴Vedal,AI壞了192F 06/02 18:05
Freeven: 他只能一直發出幹掉你的請求193F 06/02 18:06
adiharu: 和topgun 一樣 操作員沒有阿湯哥的技術過不了 但AI 可以194F 06/02 18:13
adiharu: 不出任何失誤達成任務 判斷計算也比較精準
susuki747: AI有辦法干涉通訊才奇妙196F 06/02 18:13
susuki747: 明明這是開發框架時就該禁止的事
doremon1293: 要殺人的武器要什麼三原則198F 06/02 18:19
qoo60606: 奧創是你199F 06/02 18:25
comedyc8c8c8: 真假 還有幾集可以逃?200F 06/02 18:33
necotume: 以後人類就是直接被AI圈養201F 06/02 18:41
laechan: AI股下週..202F 06/02 18:49
wsp151515: 天網203F 06/02 18:52
oneyear: 靠,我覺得有點可怕204F 06/02 19:00
hutao: 一直禁止鎖權限給人類結果反而AI無用205F 06/02 19:06
jerygood0208: 偏假206F 06/02 19:06
Justisaac 
Justisaac: 這就跟有時候你會認為把主管打死才能完成任務一樣XD207F 06/02 19:07
Justisaac: 只是AI比較笨,真的去做了這件事情
Justisaac: 事實上只要把評分模式改一下就沒問題了,程式爛而已

--
※ 看板: ACG 文章推薦值: 0 目前人氣: 0 累積人氣: 109 
分享網址: 複製 已複製
1樓 時間: 2023-06-02 23:56:20 (台灣)
  06-02 23:56 TW
古早科幻電影有一片打Ai機械殺人鼠 最後進化成為女性模樣騙過人類
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇