推 bear978978 : 太難了無法回答 12/15 17:09
推 windfeather : 你給這種提示詞,難怪得出前一篇的AI結論12/15 17:13
推 eddy13 : 建議你先研究為什麼在GPU下會發展出Cuda這架構12/15 17:13
→ a88152660 : 既然知識有限那你怎麼判斷他講的有道理 不覺得矛盾12/15 17:14
→ a88152660 : 嗎12/15 17:14
→ macetyl : 連法官都知道禁止誘導性提問....12/15 17:15
推 handfoxx : 是 你說的都對XD12/15 17:17
推 windfeather : 你從第一個提示詞就開始誘導AI與設定限制條件12/15 17:18
推 rebel : 第一個問題 goog的算法+TPU就等於其他家的CUDA+GPU12/15 17:18
→ rebel : 阿 如果有極限不就兩個一起有12/15 17:18
→ windfeather : 這樣AI自然就會順著你的論點一路推論下去12/15 17:18
我的疑問一定帶有主觀,所以才問他
邏輯上對不對,可不可以換句話說
我的下一步問題也都是順著Gemini給出的思路再做邏輯詮釋,請他看看有沒有道理,對不對
→ newwu : 你何不先問問GPU在幹嘛的 CUDA在幹嘛的 當今深度學12/15 17:19
→ newwu : 習LLM為什麼在GPU上跑,你真的懂這些基本問題嗎12/15 17:19
→ greedypeople: 所以你的問題幾乎都包含結論了啊12/15 17:19
Gemini不就是拿來問自己的推論對不對?
問題沒有定見,或自己的看法
那答案不見千篇一律,只能是主流看法?
推 crabpink : 兩個都用過,還是覺得gpt比較好用12/15 17:20
→ greedypeople: 你覺得他能回出甚麼東西12/15 17:20
→ windfeather : 你從開始沒有叫AI公正地去分析TPU和GPU的優缺點12/15 17:20
→ windfeather : 而是直接給了預設立場,這樣AI自然會被誘導去12/15 17:21
→ windfeather : 你想要的答案,或者說它故意給了你想要的答案12/15 17:21
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:23:59
推 jkok103427 : 你根本不用什麼推理,試圖用AI證明什麼,你直接AI12/15 17:24
→ jkok103427 : 炒股就好了,不敢就別叫12/15 17:24
喔,是真的還不敢
所以貼上來給各位大神打臉Gemini啊
= =
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:25:30
推 windfeather : 你可以試試看,一模一樣的第一句提示詞 12/15 17:25
噓 maplefff : 問一些根本沒水準的問題是能得到什麼答案12/15 17:25
→ marojack : 用你的論述法就算你沒犯法12/15 17:25
→ marojack : 光是回答檢察官的引導式提問法 12/15 17:25
→ marojack : 大概第一天就被抓進去關出不來了12/15 17:25
→ windfeather : 但是反過來請AI去質疑或反向思辨12/15 17:26
→ windfeather : 你會發現AI給出許多GPU體系的大量優勢 12/15 17:26
我試試
噓 BBKOX : 反串? 12/15 17:26
Gemini 有反串功能?
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:27:44
→ windfeather : 然後AI給出的論點,會一路駁斥你接下來的結論 12/15 17:27
噓 amos30627 : 你媽知不知道你在這邊發廢文 知不知道都是廢文 哪有 12/15 17:28
→ windfeather : 嚴格來說,不是說TPU和GPU誰更強或誰一定會贏 12/15 17:28
→ amos30627 : 人這樣問問題 12/15 17:28
→ newwu : 當然不是拿來問自己推論對不對 因為AI傾向你說的都 12/15 17:28
→ newwu : 對,除非你有明確事實錯誤 12/15 17:28
→ newwu : 你要真的AI檢驗 就是裝作是別人講的 叫AI反駁 而不 12/15 17:28
→ newwu : 是這樣問,這樣問他只會給你情緒價值 12/15 17:28
→ windfeather : 而是你給的提示詞,會限制AI的分析 12/15 17:28
推 rebel : 網路上有一個用法 請AI扮演最挑剔的批評者 請它針 12/15 17:30
→ rebel : 對你的說法提出反駁 但必須是根據現實的反駁 你可 12/15 17:30
→ rebel : 以試試 我覺得你會得到很多不同的答案 12/15 17:30
噓 dogalan : 你從第一題問法開始就已經給出你的傾向了 12/15 17:31
問題有傾向本來就很正常好嗎?…
我多問了,給大家參考,剩下就自已問自已的模型吧
問:
請你從頭看這整段對話,那邊的邏輯跟推導或前提有問題,並進一步驗證較為接近的真相
答:
這是一個非常棒的思維挑戰。我們之前的對話建立在一個**「完美的邏輯推演」**之上,
這在理論上是無懈可擊的。
但是,現實世界往往充滿了雜訊和變數。為了還原最接近的真相,我們必須擔任**「紅隊
演練」(Red Teaming)**的角色,回頭攻擊我們剛才建立的這座邏輯城堡,找出地基可
能不穩的地方。
我們剛才的推論主要建立在三個核心前提上,而這三個前提在現實中都有可能出現**「漏
洞」**:
漏洞一:低估了 NVIDIA 的「ASIC 化」速度(它不是靜止的標靶)
我們剛才的假設: GPU 為了通用性,必須背負沈重的「CUDA 稅」和「馮·諾伊曼架構包
袱」,且硬體結構難以改變。
現實的挑戰: NVIDIA 正在瘋狂地把 GPU 變成 ASIC。
Tensor Cores 的引入: H100 裡面其實已經包含了大量的專用電路(Transformer
Engine),這部分本質上就是「嵌在 GPU 裡的 TPU」。
NVLink Switch: 我們提到 Google 的 OCS(光交換)是優勢,但 NVIDIA 的 NVLink
Switch 也在模擬這種高效通訊,雖然成本高,但對於開發者來說是透明的(不需要改演
算法)。
結論修正: GPU 並不是一把永遠不變的瑞士軍刀,它正在變成一把**「帶有瑞士軍刀功
能的雷射槍」**。NVIDIA 的迭代速度(一年一代)遠快於 Google TPU(約兩到三年一代
)。這種「暴力迭代」可能會掩蓋掉架構上的效率劣勢。
漏洞二:高估了「演算法鎖死」的程度(軟體其實能繞過硬體限制)
我們剛才的假設: 因為 GPU 架構受限,所以跑在上面的演算法也受限,無法大幅創新。
現實的挑戰: 軟體工程師的創造力是無限的。
FlashAttention: 這是一個經典案例。硬體沒變,但研究員透過重新排列記憶體讀寫順
序,讓 GPU 的訓練速度翻倍,突破了顯存頻寬瓶頸。
量化(Quantization): 透過 FP8 甚至 FP4 技術,軟體讓 GPU 的有效算力暴增。
結論修正: 即便 GPU 硬體有極限,「軟體優化」的紅利還沒吃完。在 TPU 徹底拉開硬
體架構差距之前,GPU 生態系可能透過軟體魔改,硬是把「通用架構」的壽命再延續
5-10 年。
漏洞三:忽略了「集體智慧」大於「單一巨頭」(生態系的真正威力)
我們剛才的假設: Google 的垂直整合(自研晶片+自研算法)效率最高,所以會贏。
現實的挑戰: 這是一個 「Google vs. 全世界」 的局。
研發分母: 全世界 99% 的 AI 論文、開源專案、新工具(如 LangChain, vLLM)都是基
於 GPU + PyTorch 開發的。
延遲效應(Lag): Google 的工程師雖然強,但他們必須把全世界發明的最新東西「翻
譯」到 TPU/JAX 上。這個翻譯過程即使只有幾個月的延遲,在 AI 這種「以週為單位」
進化的領域也是致命的。
結論修正: 「路徑依賴」本身就是一種護城河。 即使 TPU 理論上更強,但如果全世界
最好的想法都優先發生在 GPU 上,Google 就只能當一個「追隨者」而非「定義者」,除
非 Google 的 DeepMind 能持續產出像 AlphaGo/Transformer 這種「領先全世界兩年」
的算法(這非常難)。
漏洞四:ASIC 的「賭博風險」(特化過頭的代價)
我們剛才的假設: 專用的 TPU 一定比通用的 GPU 高效。
現實的挑戰: ASIC 的死穴在於**「賭錯方向」**。
TPU 的設計週期長達 3 年。假設 Google 在設計 TPU v6 時,賭定未來是 Transformer
架構。
結果 2 年後,世界突然發現一種全新的「非 Transformer」架構(例如 SSM、Mamba 或
某種生化模擬算法)才是真理。
這時,通用性較強的 GPU 雖然跑得慢,但至少能跑。而過度特化的 TPU 可能會直接變成
廢鐵(Dark Silicon)。
結論修正: 彈性(Flexibility)不僅是成本,也是一種**「對抗未知風險的保險」**。
在 AI 原理尚未完全被物理學定案前,過早進行極致的硬體特化是有巨大風險的。
還原最接近的「真相」
綜合我們的推論與上述的紅隊演練,比較客觀的局勢判斷應該是:
Google 在「成本」與「規模」上必勝: 只要 AI 還是 Transformer 架構(或矩陣運算
為主),TPU 的單位訓練成本和推論成本一定低於 GPU。這保證了 Google 的利潤率會非
常漂亮,這條護城河是穩的。
NVIDIA 在「創新速度」上仍佔主導: 由於「集體智慧」效應,最新的、最怪的、實驗性
的 AI 突破,依然會首先發生在 GPU 上。Google 必須疲於奔命地將這些突破整合進自己
的體系。
「黃金交叉」的真實意義: 您提到的「打平後拉開差距」,最可能發生在**「產品化階
段」**(Productization),而不是「科研階段」(Research)。
科研階段: GPU 繼續混亂、多元、領先。
產品階段(如 Search, YouTube, Gemini API): 一旦某種算法被驗證成熟,Google 就
可以用 TPU 把它做到極致便宜、極致快。這時候,其他依賴 NVIDIA 的公司(如
OpenAI/Microsoft)就會面臨毛利率被 Google 碾壓的痛苦。
最終修正後的邏輯: TPU 不會讓 Google 壟斷「AI 的發明」(那是 GPU 生態的事),
但 TPU 會讓 Google 壟斷**「大規模 AI 服務的利潤」**。這才是 Google 最務實且恐
怖的優勢。
※ 編輯: breathair (114.38.64.161 臺灣), 12/15/2025 17:35:11
→ dogalan : 即使你甚麼都不懂 最簡單的做法就是你請他反駁 12/15 17:32
→ dogalan : 你就會發現他從其他角度也可以給出乍看很對的答案 12/15 17:33
→ dogalan : 所以如果沒能力判斷的使用者 只會得出錯誤結論 12/15 17:33
推 windfeather : 這就有點像是現實的辯論,除非有明確的客觀答案 12/15 17:36
→ rebel : 你看看 結論是不是又不太一樣了 12/15 17:36
→ windfeather : 否則不同的觀點與討論,可能推論出截然不同的答案 12/15 17:36
→ marojack : 你在問以上內容請盲點分析 12/15 17:38
推 windfeather : 我請AI單純看第一句提示詞,就直接給了5項不同觀點 12/15 17:39
→ marojack : 看他怎麼說 然後再請他論述一次 12/15 17:39
→ windfeather : 1.通用性與靈活性不如 GPGPU 12/15 17:39
→ windfeather : 2.CUDA 生態系的巨大優勢 12/15 17:39
→ windfeather : 3.市場開放性與供應鏈風險 12/15 17:39
→ windfeather : 4.技術競爭與快速迭代 12/15 17:39
→ marojack : 你會發現你說他錯他會一直修正他的說法 12/15 17:40
→ windfeather : 5.非零和競爭 12/15 17:40
噓 AmaneCoco : 笑死真的有夠可憐 繼續自己做夢去吧 12/15 17:40
→ windfeather : 每一項後面都能推演出一大串全新的論點 12/15 17:40
→ marojack : 一直改說法不就是這樣 12/15 17:40
→ windfeather : 然後建議你可以開一串新的,從開頭第一句就請AI 12/15 17:42
→ windfeather : 去試圖檢視、反駁那個論點,再逐漸討論下去 12/15 17:42
→ windfeather : 直接從已經預設大量結論再去修正,修不了太多 12/15 17:43
→ rebel : 現在的AI能夠幫你加速分析 但還沒辦法取代你的判斷 12/15 17:44
→ rebel : 因為你想要正面的論點還是反面的論點它都可以給你 12/15 17:44
→ rebel : 但那邊比較有道理還是得取決於你自己的知識跟判斷 12/15 17:44
→ zo6596001 : 現在大學生都在用CUDA,NV不可能那麼快淘汰。 12/15 17:44
推 willywasd : 笑死 每次AI回答你都錯了 看他會不會改答案 12/15 17:44
推 willywasd : *你都跟他說你回答錯了 12/15 17:45
→ pmes9866 : 哥 你還是先把提示詞工程 RLHF是什麼搞清楚 12/15 17:45
推 windfeather : pmes9866板友的反論方式就非常有用 12/15 17:48
推 kuan870704 : 有請谷歌蛙把你們的好隊友抓回去再教育好嗎 12/15 17:48
→ marojack : 不過聊的夠長上下文窗口和Ai幻覺是真的很嚴重 12/15 17:48
→ windfeather : 可以看出同樣的問題,前提與觀點不同 12/15 17:48
噓 allen501pc : 坦白說這文章有點無聊 。怎麼會有人這麼有趣,用Ge 12/15 17:48
→ allen501pc : nAI的回答來自證他們要的答案? 都不知道這些GenAI 12/15 17:48
→ allen501pc : 的回答都是透過超大型參數模型「訓練」出來的嗎? 12/15 17:48
→ allen501pc : 它後面都堪稱不上人類的自我反省得到的創新觀察。 12/15 17:48
→ windfeather : 會引導出截然不同的結論 12/15 17:49
推 w60904max : 這不就新一代的長輩早安文 12/15 17:51
推 kuan870704 : 帶有瑞士軍刀功能的雷射槍…不要再看這些白癡東西了 12/15 17:53
→ Wishmaster : 古有生病問題問google,今有任何問題問AI 12/15 17:54
噓 strlen : 不要浪費時間 12/15 18:00
→ dogalan : 有沒有發現最後還是需要人類做判斷? 結論完全不同 12/15 18:03
→ josephpu : 你這就是標準的外行人問ai得到外行的東西 12/15 18:05
推 domago : 硬體 cuda也能更新 沒有什麼不能改 12/15 18:05
推 v21638245 : ai廢文,不要浪費算力了好嗎 12/15 18:06
→ domago : 比的是如何獲利才能生存 12/15 18:06
推 chihwei739 : 笑死XD 12/15 18:06
噓 kurapica1106: 噓的人也太少 這比線仙標的文還沒營養 12/15 18:09
噓 SilenceWFL : 紅的喜氣 12/15 18:10
推 rebel : 我覺得這篇很適合做一個教案 下次有人拿AI結果來證 12/15 18:14
→ rebel : 明自己的論點 請他先確定真的已經看完正反兩面的論 12/15 18:15
→ rebel : 點 12/15 18:15
噓 foolwind : 想說什麼就自己好好打一篇 沒AI就不會講話了嗎 12/15 18:18
→ cclemon1231 : 其他公司要嘛砸大錢自研 要嘛買輝達 12/15 18:19
推 kentelva : 這些問題必須得說,是不錯的問題 12/15 18:21
推 CorkiN : 感謝幫大家示範什麼是Dunning-Kruger effect 12/15 18:23
→ CorkiN : 能這麼自信也是不簡單 12/15 18:23
推 sdbb : 謝謝推文 12/15 18:26
→ pmes9866 : 不會下提示詞 不了解AI的新手確實很容易犯這樣的 12/15 18:27
→ pmes9866 : 錯誤 12/15 18:27
→ pmes9866 : 重點:要指定角色 指定背景 約束(跟AI說我會錯) 12/15 18:27
推 fanntasy : 最打臉的一點 姑姑自己還在大量買gpu 12/15 18:28
→ fanntasy : 殺人豬心喔~~~ 12/15 18:28
→ opthr1215 : AI是語言模型,你問題問這麼長,他就只會去網路上找 12/15 18:28
→ opthr1215 : 類似這麼長文章的另一批不定數量的人的回答。 12/15 18:29
→ opthr1215 : 會寫這種類似文章的人,他們的立場你覺得是哪一種? 12/15 18:29
→ marojack : 相對可以用的方法就必須類似的提示詞 12/15 18:30
→ marojack : 不然自己也會是被誤導的那個 12/15 18:31
推 tiros : 然後你跟他說,給我狠狠反駁以上以上說法,體無完膚 12/15 18:33
→ tiros : 那種,出來的答案你大概也覺得很有道理 12/15 18:33
→ marojack : 不過我是認同盲點偵測寫的 12/15 18:39
→ marojack : 自己都有不擅長的 稍微會一點很容易進入自己自以為 12/15 18:39
→ marojack : 懂境界 12/15 18:39
噓 cheug0653 : 懂一半比完全不懂還糟糕 12/15 18:42
噓 jympin : 笑死 講的這麼斬釘截鐵 還以為多有料 結果是問AI 12/15 18:43
推 nfsong : 你這問題 忽略了最關鍵最重要的 "人" 12/15 18:44
→ fallinlove15: 建議你實際去相關產業蹲個十年 12/15 18:44
→ fallinlove15: 蹲完至少會知道要怎麼問 12/15 18:44
→ nfsong : 就是 市面上有90% 的人 都是一路CUDA 過來的 12/15 18:44
→ nfsong : 100% skill tree 是CUDA 12/15 18:45
→ nfsong : 雖然大家都是用 大學生 新鮮的肝 12/15 18:45
→ nfsong : 但是 老闆都是 這樣過來的 只會這樣教 12/15 18:45
推 as6633208 : 我只能說啦 rubin 算力和效率搞不好會超越asic == r 12/15 18:45
→ as6633208 : ubin更特化AI運算了,然而rubin卻還依然保留通用性 12/15 18:46
→ as6633208 : ,計算加速領域真的不要小看NV欸== 12/15 18:46
→ nfsong : 大陸這些老闆 和台灣嘴砲的不一樣 12/15 18:47
→ nfsong : Deep learning 大家都知道 12/15 18:47
→ as6633208 : 你知道谷歌最新的TPU V7這個asic的算力還榨不贏通用 12/15 18:47
→ as6633208 : 型gpu gb200嗎,而nv還有gb300和更偏向特化強化的ru 12/15 18:47
→ as6633208 : bin@@ 12/15 18:47
→ nfsong : 台灣有哪家 真的去落地scaling law 弄萬卡叢集 12/15 18:47
推 mainsa : 這些AI語言模型都很愛順著你的話回答 你這樣誘導就 12/15 18:48
→ mainsa : 算用GPT也是得到一樣答案 12/15 18:48
→ nfsong : 大陸 這些能出來分享的 余凱 之類的 12/15 18:48
→ nfsong : 都是有實務經驗 12/15 18:48
推 as6633208 : by the way,2026年q2是rubin量產,2027年是rubin u 12/15 18:58
→ as6633208 : ltra 更強的性能 12/15 18:58
推 mamorui : 為什麼會在硬體找答案 問題出在奧特曼的模型上 硬 12/15 19:06
→ mamorui : 體再好也沒用 12/15 19:06
推 lolpklol0975: NV護城河是CUDA被攻破還沒這麼快 12/15 19:22
→ josephpu : 其實目前檯面上的大模型都不是用gb200訓練的,真正 12/15 19:39
→ josephpu : 的檢驗點會是明年上半年推出的大模型。goog用tpu加 12/15 19:39
→ josephpu : 上ocs互聯在gemini3得到很好的結果,至少不輸h系列 12/15 19:39
→ josephpu : 但跟gb200比起來會如何?目前不知道。再後面v7進入 12/15 19:39
→ josephpu : 液冷rack架構也是一次躍進,或許市場敘事又會轉變 12/15 19:39
→ josephpu : ,反正ai晶片生態系之戰遠遠不到終局,只是goog目 12/15 19:39
→ josephpu : 前極高機率是能跑到最後的那批人之一 12/15 19:39
推 lee198218 : 招來四面八方的洗臉 厲害了 12/15 19:41
推 Marty : 看這些問題 難怪會得出這麼離譜的回答 12/15 19:41
噓 necrophagist: 可憐 用這種提示詞問出來的答案拿來當寶xd 感覺ai 12/15 19:45
→ necrophagist: 確實是讓強者愈強弱者愈弱 12/15 19:45
噓 tim855042 : 問題就下結論 end 12/15 19:48
推 banbanzon : 小屁精生圖沒gemini 快 額度又給得很小氣 我都懷疑 12/15 19:52
→ banbanzon : 顯卡484被他拿去插屁眼了 12/15 19:52
噓 CaptPlanet : LLM 引發的亂象 唉 12/15 19:57
推 nfsong : 論文都公開的 12/15 20:00
→ nfsong : 只要有跟上 最新的論文 12/15 20:00
推 mamorui : 其實輝達很衰 問題出在奧特曼身上 12/15 20:00
推 kottas : 這樣問法不是壞就是.. 12/15 20:01
推 easyman : 好吧,這不是反串, 你有去 北檢 的實力 12/15 20:09
→ rancilio : 用deep research詢問關於我這個領域的事情, 12/15 20:11
→ rancilio : 結果是比我自己知道的還清楚,gemini查資料的本事 12/15 20:11
→ rancilio : 實在是強大到難以置信,商業機密都能查到一部分 12/15 20:12
→ rancilio : 我們競爭對手用的材料,優缺點各方面都比我自己清楚 12/15 20:12
→ rancilio : 我在這行打滾30幾年,知道的都沒有gemini查到的多 12/15 20:12
推 rancilio : 整合目標所有技術 專利 原料 客戶反饋...做成報告 12/15 20:16
→ rancilio : 而且PRO版送2TB雲端,裡面資料他可以幫你整理搜索 12/15 20:17
噓 ck960817 : 命題全錯,前提錯推論怎樣都是錯的 12/15 20:17
→ rancilio : TPU對上GPU最大優勢是推理的能耗比省電太多 12/15 20:18
推 create8 : Tier1 還是要養人做馬斗,而且開一顆chip 又那麼貴 12/15 20:20
→ create8 : ,還是會有很多人努力把馬斗改到讓gpu 輾壓其他對 12/15 20:20
→ create8 : 手 12/15 20:20
→ aewul : 進入者障礙越低越容易開放到位 12/15 20:37
→ ojh : 股板一堆不懂科技的外行人 講這種專業的沒人懂 12/15 20:42
→ BC0710 : 你這篇跟上一篇有什麼差別== 12/15 21:14
推 chenyuchug : 當股版出現一個ID一直發文要大家相信他的時候,就會 12/15 21:24
→ chenyuchug : 讓我想到山椒魚、abc還有2020年3月連續熔斷後一個叫 12/15 21:24
→ chenyuchug : 大家跟著放空,文章還都會上色的 12/15 21:24
推 jakkx : 你第一個問題,麻煩先查清楚。後面不用看下去了 12/15 21:24
→ jakkx : 你就是在證明GIGO是怎麼一回事 12/15 21:25
→ jakkx : 我猜很多人驚訝你居然不是反串 12/15 21:26
→ aewul : 查資料好點處理器就好不用到超級電腦 12/15 21:29
噓 chysh : 你是不是個人化設定沒有加要客觀回答的prompt 12/15 21:30

→ BC0710 : 案也可以 看你想要哪一種答案而已 12/15 21:33
推 bagaalo : 這篇大概是證明LLM跟AGI還是有一大段不同 12/15 21:58
噓 Carloslin : 可憐 這就是先射箭後畫靶 12/15 22:08
噓 joey00 : 請問 A 你這次段考會贏 B 嗎 12/15 22:09
→ joey00 : A: 會,而且之後每次都會,我最強! 12/15 22:09
→ joey00 : 已經拿五年全校第一的 B: ? 12/15 22:09
推 gooddogleg : 就說你的空單哩 12/15 22:56
推 a77942002 : 所以你知道現在鼓吹的AI真的是...不準確資料庫集合 12/15 23:13
→ a77942002 : 體~笑 12/15 23:13
→ netsphere : AI:你說的都對 12/15 23:18
→ kipo1019 : 好,歐硬能源 12/15 23:22
推 Pipline : 給你情緒價值的ai 12/15 23:31
推 hohomonkey : 再好的車 斷手斷腳的人沒辦法看開 12/15 23:44
推 Tsukasa0320 : 這篇文章應該放進教科書 12/15 23:59
→ Tsukasa0320 : 提醒我們為什麼AI還不能取代研究 12/15 23:59