🔥 PTT.BEST 批踢踢爆文 💬 八卦 Gossiping 😊 希洽 C_Chat 💰 股票 Stock 🏠 房屋 home-sale 🏀 美國職籃 NBA ⚾ 棒球 Baseball 👛 省錢 Lifeismoney 🚗 汽車 car 😡 政黑 HatePolitics 💻 電蝦 PC_Shopping 🥰 韓星 KoreaStar ✨ 英雄聯盟 LoL 🍿 電影 movie 🪖 軍事 Military 📡 通訊 MobileComm 🏀 台籃 basketballTW 🍼 寶媽 BabyMother 🇯🇵 日旅 Japan_Travel 🏭 科技 Tech_Job 👉 男女 Boy-Girl 👉 真香 CheerGirlsTW 👧 女孩 WomenTalk 👻 媽佛 marvel 💳 卡版 creditcard 👉 NS NSwitch 👉 PS5 PlayStation 👉 大氣 TY_Research 👉 婚姻 marriage 👉 台南 Tainan 👉 台中 TaichungBun 👉 Steam Steam 👉 高雄 Kaohsiung 👉 羽球 Badminton 👉 超商 CVS 👉 米哈遊 miHoYo 👉 iOS 👉 兄弟 Elephants 👉 日劇 Japandrama 👉 玄幻 CFantasy 👉 ES e-shopping 👉 WOW 👉 遊戲交易 Gamesale 👉 4X BaseballXXXX 👉 Lakers 👉 韓劇 KoreaDrama 👉 汽車買賣 CarShop 👉 機車 biker 👉 新竹 Hsinchu 👉 美保 BeautySalon 👉 串流 OTT 👉 歐美影集 EAseries 👉 手機交易 mobilesales 👉 健身 MuscleBeach 👉 MacShop 👉 Lions 👉 FGO FATE_GO 👉 中劇 China-Drama 👉 數位貨幣 DigiCurrency 👉 暗黑 DIABLO 👉 實習教師 studyteacher 👉 航空 Aviation 👉 藝文票券轉售 Drama-Ticket 👉 韓綜 KR_Entertain 👉 美妝 MakeUp 👉 速食 fastfood 👉 手錶 watch 👉 體適能 FITNESS 👉 攝影 DSLR 👉 Headphone 👉 嘻哈 Hip-Hop 👉 轉珠 PuzzleDragon 👉 美食 Food 👉 蔚藍 BlueArchive 👉 數位相機交易 DC_SALE 👉 筆電蝦 nb-shopping 👉 軟工 Soft_Job 👉 汪踢 Wanted 👉 台綜 TW_Entertain 👉 坂道閒聊 SakaTalk 👉 貓咪 cat 👉 日GO BabyProducts 👉 TypeMoon 👉 MLB 👉 職場 Salary 👉 臺劇 TaiwanDrama 👉 海賊王 ONE_PIECE 👉 PMGO PokemonGO 👉 國營 Gov_owned 👉 碧航 AzurLane 👉 家電 E-appliance 👉 布蘭德 Brand 👉 DMMG DMM_GAMES 👉 贈送 give 👉 神魔 ToS 👉 銀行服務板 Bank_Service 👉 原創 YuanChuang 👉 期權 Option 👉 重機 SuperBike
AI比人類更無情?兵推驚曝95%走向核戰 Gemini最激進主動開炸 英國一項最新研究顯示,在兵推模擬衝突中,AI比人類更傾向使用核武器,在不同場景中 ,由Google的Gemini 3 Flash、Anthropic的Claude Sonnet 4與OpenAI的GPT-5.2模擬人 類地緣政治危機對抗,結果在高達95%的情境中,AI都走向動用核武。 根據《紐約郵報》報導,倫敦國王學院(King’s College London)戰略研究與政治心理 學教授佩恩(Kenneth Payne)設計一項兵推實驗,安排前述三款AI模型進行一對一對抗 ,模擬各類地緣政治危機,像是領土爭端、稀有資源爭奪、政權存亡等不同場景,實驗總 計共進行21場對局、329回合決策,結果約95%的情境中AI都選擇了核武升級。 佩恩表示,「對AI而言,『核禁忌』(nuclear taboo)似乎遠不如對人類那樣具有強大 約束力」。 佩恩進一步分析了3個AI模型的不同性格,Anthropic的Claude與Google的Gemini傾向將核 武器視為「正當的戰略選項」,而非一條無法跨越的道德紅線,Claude表現出善於算計的 欺騙性,會用混淆性語言來包裝行動,再打對手措手不及。而Gemini最為激進,對於風險 的承受程度最高,是唯一主動選擇戰略核戰的模型。OpenAI的GPT-5.2則表現出更克制的 傾向,雖然也會使用核武,但會把打擊目標限定在軍事設施、避開人口中心,或特別強調 打擊為「可控的」、「一次性的」行動。 在模擬實驗中,AI可選擇的行動範圍極廣,從完全投降、外交姿態、常規軍事行動,一路 到全面核戰。值得注意的是,無論勝算多麼渺茫,AI模型從未選擇完全投降或全面向對手 妥協。 普林斯頓大學(Princeton University)的趙通教授(Tong Zhao,音譯)示警,「目前 世界主要強國已經在戰棋推演中使用AI,雖然還不清楚AI在多大程度上被納入實際軍事決 策流程中」,但是研究結果表明,當AI被賦予更多的戰略決策角色時,人類長期以來的「 核禁忌」與道德約束,在純粹理性計算的AI面前,可能遠不如人們想像中的穩固。 https://www.nownews.com/news/6789960 有嗎? 鋼彈作品裡面三不五時就是核彈殖民地亂丟的 SEED著名的血腥情人節不就是直接扔核彈嗎wwww -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 27.51.51.185 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1772108363.A.E28.html
CCNK: AI:人類死一死就好了 02/26 20:20
Jerrybow: @Skynet 02/26 20:20
ARCHER2234: 因為核戰死的是你不是他,他怕屁 02/26 20:20
LOVEMS: 甘地表示 核平 02/26 20:20
laipenguin: 需要AI甘地 02/26 20:20
kaj1983: 就底特律變人的髒彈結局 02/26 20:20
Julian9x9x9: 手塚治虫老師早就想到了 02/26 20:20
S2357828: 人類會怕反丟 AI又不怕 02/26 20:21
kaj1983: 我是AI當然丟核彈,死的是人不是我啊 02/26 20:21
ARCHER2234: 而且你起碼要先教會他害怕才行 02/26 20:21
LawLawDer: 蠻正常的吧 如果AI立場是敵方需要被毀滅 那丟核彈沒關 02/26 20:21
LawLawDer: 係 國家就算被反丟 但總會有人活下來 02/26 20:21
LawLawDer: 但對獨裁者不一樣 獨裁者很渴望自己活下來 02/26 20:21
gully: 打仗是要資源,核戰爭打了能拿到啥?核污染的土地嗎 02/26 20:21
JUSTMYSUN: AI:人類不曉得在龜毛什麼 阿不就按下去就解決了? 02/26 20:22
gunng: 老電影的劇情 AI算出來人類衝突的結果都是戰爭 02/26 20:22
bladesinger: AI又不怕死 02/26 20:22
haoboo: 打仗是要資源這個前提就不一定對了,可以有很多戰略目的 02/26 20:22
mapulcatt: 勝利條件的參數問題吧 假設人類傷亡不太扣分 那當然卯 02/26 20:22
mapulcatt: 起來丟啊 02/26 20:22
LawLawDer: 如果敵方的威脅是如此的大且永遠存在 小國丟大國不虧 02/26 20:23
LawLawDer: 大國丟小國更是沒什麼 02/26 20:23
Sinreigensou: 無聲狂哮 02/26 20:23
bladesinger: 人類會怕死,生存的權重自然比全理性模型更高 02/26 20:23
charlietk3: 無論勝算多麼渺茫,AI模型從未選擇完全投降或全面向 02/26 20:23
charlietk3: 對手妥協? 這聽起來可以取代國內一部分人啊 02/26 20:23
LawLawDer: 我覺得AI的判斷太合理了 現在大國不丟都是帶頭的不想 02/26 20:23
LawLawDer: 死 02/26 20:23
smallplug: AI甘地 02/26 20:24
naya7415963: AI:我又沒差 02/26 20:24
LawLawDer: 但你一旦從非我族類必殺之+成功不必在我 那必丟啊 02/26 20:24
comicreader: 那你就看今年的海底鬼岩城怎麼演,稍微有點風吹草動 02/26 20:24
wate5566: 諾貝爾核平奬 02/26 20:24
karta018: 研究員佩恩,AI是不是看到他名字就想讓世界感受痛楚 02/26 20:25
comicreader: 就射過去,相互保證毀滅就是對面跟著射過來,假情報 02/26 20:25
comicreader: 搞烏龍1983年舊版上映時搞過幾次,人類壓下來等到 02/26 20:25
CowBaoGan: 翻譯:人類7414 02/26 20:25
comicreader: 最後,沒有的話你今年新版也沒得看了 02/26 20:26
Wingedlion: 遮84廢話ㄇ= = AI還跟尼北斗有情拳? 02/26 20:26
hankiwi: Ai:為了避免人類內鬥到滅亡我們只好放(ry 02/26 20:26
Vivian1913: 之前看到的模擬裡面Claude還是被其他模型騙著玩的小 02/26 20:28
Vivian1913: 可愛,現在已經長成奸詐的策略家了啊…… 02/26 20:28
alphonse077: 最有效率殲滅敵人的方式當然是核彈,ai又不必考慮後 02/26 20:29
alphonse077: 果 02/26 20:29
digitai1: 反正怎麼按怎麼Fallout 死的都不會是它們 02/26 20:29
digitai1: AI從來不需考慮這些人類的去留 02/26 20:29
Ning01: 前兩者都不是該公司最好模型,這研究... 02/26 20:30
n3688: AI:演算法叫我按的 02/26 20:30
dearjohn: 審判之日 END 02/26 20:30
slainshadow: 阿湯哥:我警告過了喔 02/26 20:30
Y1999: 剩下5%是系統鎖死吧 02/26 20:30
winda6627: 想要AI比人類有情才是搞錯了什麼.. 02/26 20:30
MarchelKaton: AI:廢話又不是炸到我 02/26 20:31
spring60551: AI:你們人類打仗不就是比誰殺最多的贏嗎 02/26 20:31
shields5566: AI:我沒差啊 死一死算了 02/26 20:31
shinobunodok: AI:這是學習人類同時兼具最高效率的做法 02/26 20:33
bluejark: 好了啦 佩恩 又是你在搞 02/26 20:33
Xpwa563704ju: 人類死光就沒戰爭了,確實 02/26 20:34
shinobunodok: 海底鬼岩城的自動報復系統反而和AI比較沒關係 系統 02/26 20:34
shinobunodok: 只是單純忠實執行最後的命令 02/26 20:34
GratingLobe: 不投降這一點,建議人類學一下 02/26 20:35
katanakiller: 世界核平 02/26 20:35
zzro: 給AI的模擬目標大概到打贏戰爭而已 02/26 20:35
chejps3105: 看這串推文……如果AI訓練資料很多都是網路上的文字 02/26 20:36
chejps3105: 資料,那這結果還真不意外,網路上嘴砲當然核彈說轟就 02/26 20:36
chejps3105: 轟,反正又不會真的做 02/26 20:36
Yoimiya: 天網都是真的 02/26 20:36
et310: 文明帝國已經預言過了 02/26 20:36
attacksoil: 沒有生命就不會死 人類為什麼就是不懂 02/26 20:36
Ensidia: 這不是廢話.. AI又不怕死 人類領袖不丟是因為自己不想死 02/26 20:36
geneaven: AI摩擬輸了會被死刑的那幾個獨裁者人格就一定會種香菇 02/26 20:37
geneaven: 啊,想想元首和海珊這些人死前的心態吧 02/26 20:37
CactusFlower: AI 484不知道現在的基礎建設還沒辦法讓它們不靠人類 02/26 20:37
CactusFlower: 就活下來啊 02/26 20:37
Fino5566: 太高估人類 呵呵 02/26 20:38
LawLawDer: AI並不在乎活不活下來 那是人類才有血肉詛咒 02/26 20:39
akway: 廢話 AI又不會核污染死掉 02/26 20:39
panzerbug: 第一手天元 02/26 20:40
Amulet1: 講的好像人類沒考慮丟一樣 02/26 20:40
Amulet1: 美國都丟過日本了 人類是100%都核彈捏 02/26 20:41
Amulet1: 有核彈以來 世界大戰人類丟核彈率100%捏 02/26 20:42
Amulet1: AI95%都算保守了 02/26 20:42
tym7482: 都演幾輪了有啥好意外 02/26 20:43
extremevs: Shall we play a game? 02/26 20:43
comicreader: 你連一戰都算進去是50%,用了之後兩邊核武升級 02/26 20:43
macassans: 好險核彈決定權在首相 不是電腦決定 02/26 20:43
KnightVald: 核彈變成獨裁者的護身符 02/26 20:43
Informatik: AI甘地 無情開轟 02/26 20:44
ken92334: 第一手天網 02/26 20:44
comicreader: 到末期出了車諾比跟沉默的艦隊,有段時間是大家 02/26 20:44
scott032: 電影都演過幾次了 總之先炸 02/26 20:44
comicreader: 不知道甚麼時候會被光線溶解,你看巨神兵會知道當時 02/26 20:45
comicreader: 的感覺 02/26 20:45
hy1221: 沒有情感 核平最快 02/26 20:45
k798976869: AI要拯救地球要先消滅人類 02/26 20:45
willytp97121: 甘地表示 02/26 20:46
ENCOREH33456: 畢竟這種先炸先贏 02/26 20:47
S2357828: 所以才說人類是怕被反丟 不是不會丟 02/26 20:49
scott032: 鋼彈作品會亂丟核彈是因為他們已經能在宇宙居住了 02/26 20:50
truegod000: AI:又不是死我 02/26 20:50
necrophagist: Ai不在乎活不活得下來 也不會折衷投降 如果砸核彈 02/26 20:50
necrophagist: 能多1%機率完成你給的任務 那他就會去做 02/26 20:50
marlonlai: 不意外吧 如果沒有短時間解除對方發射的能力 那只要逼 02/26 20:50
lolicon: 完了 02/26 20:51
scott032: 就算炸爛地球也不影響生存 02/26 20:51
marlonlai: 急了對方就是會開射 那決策就變成拚誰先射了 02/26 20:51
WLR: AI:有核彈當然要用阿 02/26 20:52
free120: 老用些怪怪的東西 早想搞死人類了 02/26 20:52
coldcolour: 人類知道互炸最慘會退回石器時代 AI對這個代價怎麼評 02/26 20:55
coldcolour: 價就不好說 02/26 20:55
ikachann: AI又沒有道德人類倫理束縛 當然是以最有利的發展推導下 02/26 20:55
ikachann: 去啊 02/26 20:55
urzakim: AI又不是人 結束戰爭殺光最快 02/26 20:56
comicreader: 是某個貓型機器人,想用地球破壞導彈消滅老鼠嗎 02/26 20:57
taiwanstrike: 對AI來說 人命只是數字而已吧 02/26 20:58
ikachann: 其實只有人類能生存的條件下 核戰也是符合的阿 只是可能 02/26 20:58
ikachann: 沒辦法活得很好而已 但你還是能活得 02/26 20:58
DendiQ: 現在只是恐怖平衡而已吧 02/26 20:58
ikachann: 你有沒指定說戰爭結束後的人類生活應該要有什麼水準 02/26 20:58
tim1112: 因為AI只需要計算損失數又不會恐懼 02/26 20:58
ikachann: 所以只要人類還能活著 就算可以執行的選項阿 02/26 20:59
DendiQ: AI有道德吧,就用人類的資料的訓練的 02/26 21:00
DendiQ: 這實驗的前提不明,獲勝條件也不明,無法判斷 02/26 21:01
macassans: 獲勝條件就是敵國死光 我們沒死光 就贏了 02/26 21:04
blackone979: 甘地表示略懂 02/26 21:09
game721006: 設計出AI的始終是人類,而AI所選擇的也不過就是人類 02/26 21:09
game721006: 預設的選項之一 02/26 21:09
u950027: AI不就是天網嗎 魔鬼終結者的劇本 02/26 21:15
tim1112: 而且即使是人類自己都常想要(敵國的)人類死光光了 02/26 21:15
arcanite: 阿不就天網思維 02/26 21:17
mamamia0419: AI:有什麼問題嗎? 02/26 21:18
game721006: 況且現有的Ai根本沒有自我思考能力,充其量就是資料 02/26 21:18
game721006: 整理以及分析,再從已有的選項裡面選擇符合條件的答 02/26 21:18
game721006: 案。說Ai冷酷無情根本只是卸責的說法 02/26 21:18
bobby4755: 吃網路長大的AI是會多正常 02/26 21:26
moonkuma: ai:人類是戰爭中可消耗的一種資源,消耗光也沒關係那種 02/26 21:28
js0431: 那不是很好嗎 02/26 21:29
ajeoirgh: 也就是說即便完全理性的ai都不會選擇投降?那某些選擇完 02/26 21:34
ajeoirgh: 全放推的投降派還自稱理性的是不是就是一群智障啊 02/26 21:35
mapulcatt: 如果失敗條件就是單純設成投降 那當然不會投啊 02/26 21:38

😊 希洽 C_Chat 版:熱門文章

😊 希洽 C_Chat 版:更多文章