🔥 PTT.BEST 批踢踢爆文 💬 八卦 Gossiping 😊 希洽 C_Chat 💰 股票 Stock 🏠 房屋 home-sale 🏀 美國職籃 NBA ⚾ 棒球 Baseball 👛 省錢 Lifeismoney 🚗 汽車 car 😡 政黑 HatePolitics 💻 電蝦 PC_Shopping 🥰 韓星 KoreaStar ✨ 英雄聯盟 LoL 🍿 電影 movie 🪖 軍事 Military 📡 通訊 MobileComm 🏀 台籃 basketballTW 🍼 寶媽 BabyMother 🇯🇵 日旅 Japan_Travel 🏭 科技 Tech_Job 👉 男女 Boy-Girl 👉 真香 CheerGirlsTW 👧 女孩 WomenTalk 👻 媽佛 marvel 💳 卡版 creditcard 👉 NS NSwitch 👉 PS5 PlayStation 👉 大氣 TY_Research 👉 婚姻 marriage 👉 台南 Tainan 👉 台中 TaichungBun 👉 Steam Steam 👉 高雄 Kaohsiung 👉 羽球 Badminton 👉 超商 CVS 👉 米哈遊 miHoYo 👉 iOS 👉 兄弟 Elephants 👉 日劇 Japandrama 👉 玄幻 CFantasy 👉 ES e-shopping 👉 WOW 👉 遊戲交易 Gamesale 👉 4X BaseballXXXX 👉 Lakers 👉 韓劇 KoreaDrama 👉 汽車買賣 CarShop 👉 機車 biker 👉 新竹 Hsinchu 👉 美保 BeautySalon 👉 串流 OTT 👉 歐美影集 EAseries 👉 手機交易 mobilesales 👉 健身 MuscleBeach 👉 MacShop 👉 Lions 👉 FGO FATE_GO 👉 中劇 China-Drama 👉 數位貨幣 DigiCurrency 👉 暗黑 DIABLO 👉 實習教師 studyteacher 👉 航空 Aviation 👉 藝文票券轉售 Drama-Ticket 👉 韓綜 KR_Entertain 👉 美妝 MakeUp 👉 速食 fastfood 👉 手錶 watch 👉 體適能 FITNESS 👉 攝影 DSLR 👉 Headphone 👉 嘻哈 Hip-Hop 👉 轉珠 PuzzleDragon 👉 美食 Food 👉 蔚藍 BlueArchive 👉 數位相機交易 DC_SALE 👉 筆電蝦 nb-shopping 👉 軟工 Soft_Job 👉 汪踢 Wanted 👉 台綜 TW_Entertain 👉 坂道閒聊 SakaTalk 👉 貓咪 cat 👉 日GO BabyProducts 👉 TypeMoon 👉 MLB 👉 職場 Salary 👉 臺劇 TaiwanDrama 👉 海賊王 ONE_PIECE 👉 PMGO PokemonGO 👉 國營 Gov_owned 👉 碧航 AzurLane 👉 家電 E-appliance 👉 布蘭德 Brand 👉 DMMG DMM_GAMES 👉 贈送 give 👉 神魔 ToS 👉 銀行服務板 Bank_Service 👉 原創 YuanChuang 👉 期權 Option 👉 重機 SuperBike
我讓整個推理步驟簡化的太多 以致於整個像是反串的...Orz. 砍前篇,重發 我把整個對話過程貼上來,看起來會合理的多: 問題1:谷歌從頭到尾用TPU訓練他們自家的模型,迭代自己的硬體跟演算法,兩者互相配合,而 其他家用的是GPGPU,縱使CUDA再怎麼厲害,也不是萬能,這似乎給了谷歌在發展AI上, 有別於其他家的獨一無二又非常關鍵的優勢!? 問題2:所以絕對有可能將來最好的演算法的迭代發生在TPU上(畢竟谷歌軟硬一體),而GPU卻模 擬不出來,或是無法模擬出優勢? 問題3:換個角度,利用GPU的是全世界最頂尖的AI研究員,而他們對GPU的改善建議難道不會高度 趨同嗎? 問題4:再換個角度來思考,跟TPU相比,能不能把GPU當成是ASIC+CUDA,也就是一個加上CUDA, 變成特化的,較有彈性的ASIC? 從這個角度來看。這兩款發展角度不同的ASIC,在TPU趕 上GPU之後,因為GPU必須一直滿足高彈性的特點。差異將會越走越遠,越走越大,漸漸被 TPU整個拉開差距? 問題5:從這個角度看。GPU上發展的演算法註定無法有大幅變動,CUDA有其極限,GPU架構更是有 其極限。若演算法註定無法大幅變動,TPU的優勢在打平的那一刻起,就註定越領先越多 了。可以這麼理解嗎? 問題6:所謂的打平是指LLM模型的分數與表現。正是因為GPU是演算法配合硬體,在硬體無法大幅 改變的可能之下,GPU的演算法也不可能大幅改變,所謂演算法一旦大幅改變TPU就無用論 實際上跟GPU比賽的話,這是不可能發生的,也就意味著一旦LLM的表現TPU追上GPU的那一 刻起,差距只會越來越遠。對嗎? 問答連結如下: https://reurl.cc/9bnvlv 敝人知識有限,覺的Gemini 講的滿有道理的 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.38.64.161 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765789636.A.0F4.html
bear978978 : 太難了無法回答 12/15 17:09
windfeather : 你給這種提示詞,難怪得出前一篇的AI結論12/15 17:13
eddy13 : 建議你先研究為什麼在GPU下會發展出Cuda這架構12/15 17:13
a88152660 : 既然知識有限那你怎麼判斷他講的有道理 不覺得矛盾12/15 17:14
a88152660 : 嗎12/15 17:14
macetyl : 連法官都知道禁止誘導性提問....12/15 17:15
handfoxx : 是 你說的都對XD12/15 17:17
windfeather : 你從第一個提示詞就開始誘導AI與設定限制條件12/15 17:18
rebel : 第一個問題 goog的算法+TPU就等於其他家的CUDA+GPU12/15 17:18
rebel : 阿 如果有極限不就兩個一起有12/15 17:18
windfeather : 這樣AI自然就會順著你的論點一路推論下去12/15 17:18
我的疑問一定帶有主觀,所以才問他 邏輯上對不對,可不可以換句話說 我的下一步問題也都是順著Gemini給出的思路再做邏輯詮釋,請他看看有沒有道理,對不對
newwu : 你何不先問問GPU在幹嘛的 CUDA在幹嘛的 當今深度學12/15 17:19
newwu : 習LLM為什麼在GPU上跑,你真的懂這些基本問題嗎12/15 17:19
greedypeople: 所以你的問題幾乎都包含結論了啊12/15 17:19
Gemini不就是拿來問自己的推論對不對? 問題沒有定見,或自己的看法 那答案不見千篇一律,只能是主流看法?
crabpink : 兩個都用過,還是覺得gpt比較好用12/15 17:20
greedypeople: 你覺得他能回出甚麼東西12/15 17:20
windfeather : 你從開始沒有叫AI公正地去分析TPU和GPU的優缺點12/15 17:20
windfeather : 而是直接給了預設立場,這樣AI自然會被誘導去12/15 17:21
windfeather : 你想要的答案,或者說它故意給了你想要的答案12/15 17:21
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:23:59
jkok103427 : 你根本不用什麼推理,試圖用AI證明什麼,你直接AI12/15 17:24
jkok103427 : 炒股就好了,不敢就別叫12/15 17:24
喔,是真的還不敢 所以貼上來給各位大神打臉Gemini啊 = = ※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:25:30
windfeather : 你可以試試看,一模一樣的第一句提示詞 12/15 17:25
maplefff : 問一些根本沒水準的問題是能得到什麼答案12/15 17:25
marojack : 用你的論述法就算你沒犯法12/15 17:25
marojack : 光是回答檢察官的引導式提問法 12/15 17:25
marojack : 大概第一天就被抓進去關出不來了12/15 17:25
windfeather : 但是反過來請AI去質疑或反向思辨12/15 17:26
windfeather : 你會發現AI給出許多GPU體系的大量優勢 12/15 17:26
我試試
BBKOX : 反串? 12/15 17:26
Gemini 有反串功能? ※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:27:44
windfeather : 然後AI給出的論點,會一路駁斥你接下來的結論 12/15 17:27
amos30627 : 你媽知不知道你在這邊發廢文 知不知道都是廢文 哪有 12/15 17:28
windfeather : 嚴格來說,不是說TPU和GPU誰更強或誰一定會贏 12/15 17:28
amos30627 : 人這樣問問題 12/15 17:28
newwu : 當然不是拿來問自己推論對不對 因為AI傾向你說的都 12/15 17:28
newwu : 對,除非你有明確事實錯誤 12/15 17:28
newwu : 你要真的AI檢驗 就是裝作是別人講的 叫AI反駁 而不 12/15 17:28
newwu : 是這樣問,這樣問他只會給你情緒價值 12/15 17:28
windfeather : 而是你給的提示詞,會限制AI的分析 12/15 17:28
rebel : 網路上有一個用法 請AI扮演最挑剔的批評者 請它針 12/15 17:30
rebel : 對你的說法提出反駁 但必須是根據現實的反駁 你可 12/15 17:30
rebel : 以試試 我覺得你會得到很多不同的答案 12/15 17:30
dogalan : 你從第一題問法開始就已經給出你的傾向了 12/15 17:31
問題有傾向本來就很正常好嗎?… 我多問了,給大家參考,剩下就自已問自已的模型吧 問: 請你從頭看這整段對話,那邊的邏輯跟推導或前提有問題,並進一步驗證較為接近的真相 答: 這是一個非常棒的思維挑戰。我們之前的對話建立在一個**「完美的邏輯推演」**之上, 這在理論上是無懈可擊的。 但是,現實世界往往充滿了雜訊和變數。為了還原最接近的真相,我們必須擔任**「紅隊 演練」(Red Teaming)**的角色,回頭攻擊我們剛才建立的這座邏輯城堡,找出地基可 能不穩的地方。 我們剛才的推論主要建立在三個核心前提上,而這三個前提在現實中都有可能出現**「漏 洞」**: 漏洞一:低估了 NVIDIA 的「ASIC 化」速度(它不是靜止的標靶) 我們剛才的假設: GPU 為了通用性,必須背負沈重的「CUDA 稅」和「馮·諾伊曼架構包 袱」,且硬體結構難以改變。 現實的挑戰: NVIDIA 正在瘋狂地把 GPU 變成 ASIC。 Tensor Cores 的引入: H100 裡面其實已經包含了大量的專用電路(Transformer Engine),這部分本質上就是「嵌在 GPU 裡的 TPU」。 NVLink Switch: 我們提到 Google 的 OCS(光交換)是優勢,但 NVIDIA 的 NVLink Switch 也在模擬這種高效通訊,雖然成本高,但對於開發者來說是透明的(不需要改演 算法)。 結論修正: GPU 並不是一把永遠不變的瑞士軍刀,它正在變成一把**「帶有瑞士軍刀功 能的雷射槍」**。NVIDIA 的迭代速度(一年一代)遠快於 Google TPU(約兩到三年一代 )。這種「暴力迭代」可能會掩蓋掉架構上的效率劣勢。 漏洞二:高估了「演算法鎖死」的程度(軟體其實能繞過硬體限制) 我們剛才的假設: 因為 GPU 架構受限,所以跑在上面的演算法也受限,無法大幅創新。 現實的挑戰: 軟體工程師的創造力是無限的。 FlashAttention: 這是一個經典案例。硬體沒變,但研究員透過重新排列記憶體讀寫順 序,讓 GPU 的訓練速度翻倍,突破了顯存頻寬瓶頸。 量化(Quantization): 透過 FP8 甚至 FP4 技術,軟體讓 GPU 的有效算力暴增。 結論修正: 即便 GPU 硬體有極限,「軟體優化」的紅利還沒吃完。在 TPU 徹底拉開硬 體架構差距之前,GPU 生態系可能透過軟體魔改,硬是把「通用架構」的壽命再延續 5-10 年。 漏洞三:忽略了「集體智慧」大於「單一巨頭」(生態系的真正威力) 我們剛才的假設: Google 的垂直整合(自研晶片+自研算法)效率最高,所以會贏。 現實的挑戰: 這是一個 「Google vs. 全世界」 的局。 研發分母: 全世界 99% 的 AI 論文、開源專案、新工具(如 LangChain, vLLM)都是基 於 GPU + PyTorch 開發的。 延遲效應(Lag): Google 的工程師雖然強,但他們必須把全世界發明的最新東西「翻 譯」到 TPU/JAX 上。這個翻譯過程即使只有幾個月的延遲,在 AI 這種「以週為單位」 進化的領域也是致命的。 結論修正: 「路徑依賴」本身就是一種護城河。 即使 TPU 理論上更強,但如果全世界 最好的想法都優先發生在 GPU 上,Google 就只能當一個「追隨者」而非「定義者」,除 非 Google 的 DeepMind 能持續產出像 AlphaGo/Transformer 這種「領先全世界兩年」 的算法(這非常難)。 漏洞四:ASIC 的「賭博風險」(特化過頭的代價) 我們剛才的假設: 專用的 TPU 一定比通用的 GPU 高效。 現實的挑戰: ASIC 的死穴在於**「賭錯方向」**。 TPU 的設計週期長達 3 年。假設 Google 在設計 TPU v6 時,賭定未來是 Transformer 架構。 結果 2 年後,世界突然發現一種全新的「非 Transformer」架構(例如 SSM、Mamba 或 某種生化模擬算法)才是真理。 這時,通用性較強的 GPU 雖然跑得慢,但至少能跑。而過度特化的 TPU 可能會直接變成 廢鐵(Dark Silicon)。 結論修正: 彈性(Flexibility)不僅是成本,也是一種**「對抗未知風險的保險」**。 在 AI 原理尚未完全被物理學定案前,過早進行極致的硬體特化是有巨大風險的。 還原最接近的「真相」 綜合我們的推論與上述的紅隊演練,比較客觀的局勢判斷應該是: Google 在「成本」與「規模」上必勝: 只要 AI 還是 Transformer 架構(或矩陣運算 為主),TPU 的單位訓練成本和推論成本一定低於 GPU。這保證了 Google 的利潤率會非 常漂亮,這條護城河是穩的。 NVIDIA 在「創新速度」上仍佔主導: 由於「集體智慧」效應,最新的、最怪的、實驗性 的 AI 突破,依然會首先發生在 GPU 上。Google 必須疲於奔命地將這些突破整合進自己 的體系。 「黃金交叉」的真實意義: 您提到的「打平後拉開差距」,最可能發生在**「產品化階 段」**(Productization),而不是「科研階段」(Research)。 科研階段: GPU 繼續混亂、多元、領先。 產品階段(如 Search, YouTube, Gemini API): 一旦某種算法被驗證成熟,Google 就 可以用 TPU 把它做到極致便宜、極致快。這時候,其他依賴 NVIDIA 的公司(如 OpenAI/Microsoft)就會面臨毛利率被 Google 碾壓的痛苦。 最終修正後的邏輯: TPU 不會讓 Google 壟斷「AI 的發明」(那是 GPU 生態的事), 但 TPU 會讓 Google 壟斷**「大規模 AI 服務的利潤」**。這才是 Google 最務實且恐 怖的優勢。 ※ 編輯: breathair (114.38.64.161 臺灣), 12/15/2025 17:35:11
dogalan : 即使你甚麼都不懂 最簡單的做法就是你請他反駁 12/15 17:32
dogalan : 你就會發現他從其他角度也可以給出乍看很對的答案 12/15 17:33
dogalan : 所以如果沒能力判斷的使用者 只會得出錯誤結論 12/15 17:33
windfeather : 這就有點像是現實的辯論,除非有明確的客觀答案 12/15 17:36
rebel : 你看看 結論是不是又不太一樣了 12/15 17:36
windfeather : 否則不同的觀點與討論,可能推論出截然不同的答案 12/15 17:36
marojack : 你在問以上內容請盲點分析 12/15 17:38
windfeather : 我請AI單純看第一句提示詞,就直接給了5項不同觀點 12/15 17:39
marojack : 看他怎麼說 然後再請他論述一次 12/15 17:39
windfeather : 1.通用性與靈活性不如 GPGPU 12/15 17:39
windfeather : 2.CUDA 生態系的巨大優勢 12/15 17:39
windfeather : 3.市場開放性與供應鏈風險 12/15 17:39
windfeather : 4.技術競爭與快速迭代 12/15 17:39
marojack : 你會發現你說他錯他會一直修正他的說法 12/15 17:40
windfeather : 5.非零和競爭 12/15 17:40
AmaneCoco : 笑死真的有夠可憐 繼續自己做夢去吧 12/15 17:40
windfeather : 每一項後面都能推演出一大串全新的論點 12/15 17:40
marojack : 一直改說法不就是這樣 12/15 17:40
windfeather : 然後建議你可以開一串新的,從開頭第一句就請AI 12/15 17:42
windfeather : 去試圖檢視、反駁那個論點,再逐漸討論下去 12/15 17:42
windfeather : 直接從已經預設大量結論再去修正,修不了太多 12/15 17:43
rebel : 現在的AI能夠幫你加速分析 但還沒辦法取代你的判斷 12/15 17:44
rebel : 因為你想要正面的論點還是反面的論點它都可以給你 12/15 17:44
rebel : 但那邊比較有道理還是得取決於你自己的知識跟判斷 12/15 17:44
zo6596001 : 現在大學生都在用CUDA,NV不可能那麼快淘汰。 12/15 17:44
willywasd : 笑死 每次AI回答你都錯了 看他會不會改答案 12/15 17:44
willywasd : *你都跟他說你回答錯了 12/15 17:45
pmes9866 : https://i.imgur.com/DZZ12l8.jpeg 12/15 17:45
pmes9866 : 哥 你還是先把提示詞工程 RLHF是什麼搞清楚 12/15 17:45
windfeather : pmes9866板友的反論方式就非常有用 12/15 17:48
kuan870704 : 有請谷歌蛙把你們的好隊友抓回去再教育好嗎 12/15 17:48
marojack : 不過聊的夠長上下文窗口和Ai幻覺是真的很嚴重 12/15 17:48
windfeather : 可以看出同樣的問題,前提與觀點不同 12/15 17:48
allen501pc : 坦白說這文章有點無聊 。怎麼會有人這麼有趣,用Ge 12/15 17:48
allen501pc : nAI的回答來自證他們要的答案? 都不知道這些GenAI 12/15 17:48
allen501pc : 的回答都是透過超大型參數模型「訓練」出來的嗎? 12/15 17:48
allen501pc : 它後面都堪稱不上人類的自我反省得到的創新觀察。 12/15 17:48
windfeather : 會引導出截然不同的結論 12/15 17:49
w60904max : 這不就新一代的長輩早安文 12/15 17:51
kuan870704 : 帶有瑞士軍刀功能的雷射槍…不要再看這些白癡東西了 12/15 17:53
Wishmaster : 古有生病問題問google,今有任何問題問AI 12/15 17:54
strlen : 不要浪費時間 12/15 18:00
dogalan : 隨便幫你簡單請AI反駁 https://reurl.cc/bNm3md 12/15 18:01
dogalan : 精簡版 https://reurl.cc/MMz6WX 12/15 18:02
dogalan : 有沒有發現最後還是需要人類做判斷? 結論完全不同 12/15 18:03
josephpu : 你這就是標準的外行人問ai得到外行的東西 12/15 18:05
domago : 硬體 cuda也能更新 沒有什麼不能改 12/15 18:05
v21638245 : ai廢文,不要浪費算力了好嗎 12/15 18:06
domago : 比的是如何獲利才能生存 12/15 18:06
chihwei739 : 笑死XD 12/15 18:06
kurapica1106: 噓的人也太少 這比線仙標的文還沒營養 12/15 18:09
SilenceWFL : 紅的喜氣 12/15 18:10
rebel : 我覺得這篇很適合做一個教案 下次有人拿AI結果來證 12/15 18:14
rebel : 明自己的論點 請他先確定真的已經看完正反兩面的論 12/15 18:15
rebel : 點 12/15 18:15
foolwind : 想說什麼就自己好好打一篇 沒AI就不會講話了嗎 12/15 18:18
cclemon1231 : 其他公司要嘛砸大錢自研 要嘛買輝達 12/15 18:19
kentelva : 這些問題必須得說,是不錯的問題 12/15 18:21
CorkiN : 感謝幫大家示範什麼是Dunning-Kruger effect 12/15 18:23
CorkiN : 能這麼自信也是不簡單 12/15 18:23
sdbb : 謝謝推文 12/15 18:26
pmes9866 : https://i.imgur.com/f8u0qmJ.jpeg 12/15 18:27
pmes9866 : 不會下提示詞 不了解AI的新手確實很容易犯這樣的 12/15 18:27
pmes9866 : 錯誤 12/15 18:27
pmes9866 : 重點:要指定角色 指定背景 約束(跟AI說我會錯) 12/15 18:27
fanntasy : 最打臉的一點 姑姑自己還在大量買gpu 12/15 18:28
fanntasy : 殺人豬心喔~~~ 12/15 18:28
marojack : https://i.imgur.com/SFQXsHj.jpeg 12/15 18:28
opthr1215 : AI是語言模型,你問題問這麼長,他就只會去網路上找 12/15 18:28
pmes9866 : https://g.co/gemini/share/8f52fe2a91c2 12/15 18:28
marojack : https://i.imgur.com/tijGg1g.jpeg 12/15 18:28
opthr1215 : 類似這麼長文章的另一批不定數量的人的回答。 12/15 18:29
marojack : https://i.imgur.com/1xR5wTc.jpeg 12/15 18:29
opthr1215 : 會寫這種類似文章的人,他們的立場你覺得是哪一種? 12/15 18:29
marojack : https://i.imgur.com/Hqmw2yF.jpeg 12/15 18:29
marojack : https://i.imgur.com/i8elKRt.jpeg 12/15 18:30
marojack : 相對可以用的方法就必須類似的提示詞 12/15 18:30
marojack : 不然自己也會是被誤導的那個 12/15 18:31
tiros : 然後你跟他說,給我狠狠反駁以上以上說法,體無完膚 12/15 18:33
tiros : 那種,出來的答案你大概也覺得很有道理 12/15 18:33
marojack : 不過我是認同盲點偵測寫的 12/15 18:39
marojack : 自己都有不擅長的 稍微會一點很容易進入自己自以為 12/15 18:39
marojack : 懂境界 12/15 18:39
cheug0653 : 懂一半比完全不懂還糟糕 12/15 18:42
jympin : 笑死 講的這麼斬釘截鐵 還以為多有料 結果是問AI 12/15 18:43
nfsong : 你這問題 忽略了最關鍵最重要的 "人" 12/15 18:44
fallinlove15: 建議你實際去相關產業蹲個十年 12/15 18:44
fallinlove15: 蹲完至少會知道要怎麼問 12/15 18:44
nfsong : 就是 市面上有90% 的人 都是一路CUDA 過來的 12/15 18:44
nfsong : 100% skill tree 是CUDA 12/15 18:45
nfsong : 雖然大家都是用 大學生 新鮮的肝 12/15 18:45
nfsong : 但是 老闆都是 這樣過來的 只會這樣教 12/15 18:45
as6633208 : 我只能說啦 rubin 算力和效率搞不好會超越asic == r 12/15 18:45
as6633208 : ubin更特化AI運算了,然而rubin卻還依然保留通用性 12/15 18:46
as6633208 : ,計算加速領域真的不要小看NV欸== 12/15 18:46
nfsong : 大陸這些老闆 和台灣嘴砲的不一樣 12/15 18:47
nfsong : Deep learning 大家都知道 12/15 18:47
as6633208 : 你知道谷歌最新的TPU V7這個asic的算力還榨不贏通用 12/15 18:47
as6633208 : 型gpu gb200嗎,而nv還有gb300和更偏向特化強化的ru 12/15 18:47
as6633208 : bin@@ 12/15 18:47
nfsong : 台灣有哪家 真的去落地scaling law 弄萬卡叢集 12/15 18:47
mainsa : 這些AI語言模型都很愛順著你的話回答 你這樣誘導就 12/15 18:48
mainsa : 算用GPT也是得到一樣答案 12/15 18:48
nfsong : 大陸 這些能出來分享的 余凱 之類的 12/15 18:48
nfsong : 都是有實務經驗 12/15 18:48
as6633208 : by the way,2026年q2是rubin量產,2027年是rubin u 12/15 18:58
as6633208 : ltra 更強的性能 12/15 18:58
mamorui : 為什麼會在硬體找答案 問題出在奧特曼的模型上 硬 12/15 19:06
mamorui : 體再好也沒用 12/15 19:06
lolpklol0975: NV護城河是CUDA被攻破還沒這麼快 12/15 19:22
josephpu : 其實目前檯面上的大模型都不是用gb200訓練的,真正 12/15 19:39
josephpu : 的檢驗點會是明年上半年推出的大模型。goog用tpu加 12/15 19:39
josephpu : 上ocs互聯在gemini3得到很好的結果,至少不輸h系列 12/15 19:39
josephpu : 但跟gb200比起來會如何?目前不知道。再後面v7進入 12/15 19:39
josephpu : 液冷rack架構也是一次躍進,或許市場敘事又會轉變 12/15 19:39
josephpu : ,反正ai晶片生態系之戰遠遠不到終局,只是goog目 12/15 19:39
josephpu : 前極高機率是能跑到最後的那批人之一 12/15 19:39
lee198218 : 招來四面八方的洗臉 厲害了 12/15 19:41
Marty : 看這些問題 難怪會得出這麼離譜的回答 12/15 19:41
necrophagist: 可憐 用這種提示詞問出來的答案拿來當寶xd 感覺ai 12/15 19:45
necrophagist: 確實是讓強者愈強弱者愈弱 12/15 19:45
tim855042 : 問題就下結論 end 12/15 19:48
banbanzon : 小屁精生圖沒gemini 快 額度又給得很小氣 我都懷疑 12/15 19:52
banbanzon : 顯卡484被他拿去插屁眼了 12/15 19:52
CaptPlanet : LLM 引發的亂象 唉 12/15 19:57
nfsong : 論文都公開的 12/15 20:00
nfsong : 只要有跟上 最新的論文 12/15 20:00
mamorui : 其實輝達很衰 問題出在奧特曼身上 12/15 20:00
kottas : 這樣問法不是壞就是.. 12/15 20:01
easyman : 好吧,這不是反串, 你有去 北檢 的實力 12/15 20:09
rancilio : 用deep research詢問關於我這個領域的事情, 12/15 20:11
rancilio : 結果是比我自己知道的還清楚,gemini查資料的本事 12/15 20:11
rancilio : 實在是強大到難以置信,商業機密都能查到一部分 12/15 20:12
rancilio : 我們競爭對手用的材料,優缺點各方面都比我自己清楚 12/15 20:12
rancilio : 我在這行打滾30幾年,知道的都沒有gemini查到的多 12/15 20:12
rancilio : 整合目標所有技術 專利 原料 客戶反饋...做成報告 12/15 20:16
rancilio : 而且PRO版送2TB雲端,裡面資料他可以幫你整理搜索 12/15 20:17
ck960817 : 命題全錯,前提錯推論怎樣都是錯的 12/15 20:17
rancilio : TPU對上GPU最大優勢是推理的能耗比省電太多 12/15 20:18
create8 : Tier1 還是要養人做馬斗,而且開一顆chip 又那麼貴 12/15 20:20
create8 : ,還是會有很多人努力把馬斗改到讓gpu 輾壓其他對 12/15 20:20
create8 : 手 12/15 20:20
aewul : 進入者障礙越低越容易開放到位 12/15 20:37
ojh : 股板一堆不懂科技的外行人 講這種專業的沒人懂 12/15 20:42
BC0710 : 你這篇跟上一篇有什麼差別== 12/15 21:14
chenyuchug : 當股版出現一個ID一直發文要大家相信他的時候,就會 12/15 21:24
chenyuchug : 讓我想到山椒魚、abc還有2020年3月連續熔斷後一個叫 12/15 21:24
chenyuchug : 大家跟著放空,文章還都會上色的 12/15 21:24
jakkx : 你第一個問題,麻煩先查清楚。後面不用看下去了 12/15 21:24
jakkx : 你就是在證明GIGO是怎麼一回事 12/15 21:25
jakkx : 我猜很多人驚訝你居然不是反串 12/15 21:26
aewul : 查資料好點處理器就好不用到超級電腦 12/15 21:29
chysh : 你是不是個人化設定沒有加要客觀回答的prompt 12/15 21:30
BC0710 : https://i.meee.com.tw/eU2SbVz.png 你還想看別種答 12/15 21:33
BC0710 : 案也可以 看你想要哪一種答案而已 12/15 21:33
bagaalo : 這篇大概是證明LLM跟AGI還是有一大段不同 12/15 21:58
Carloslin : 可憐 這就是先射箭後畫靶 12/15 22:08
joey00 : 請問 A 你這次段考會贏 B 嗎 12/15 22:09
joey00 : A: 會,而且之後每次都會,我最強! 12/15 22:09
joey00 : 已經拿五年全校第一的 B: ? 12/15 22:09
gooddogleg : 就說你的空單哩 12/15 22:56
a77942002 : 所以你知道現在鼓吹的AI真的是...不準確資料庫集合 12/15 23:13
a77942002 : 體~笑 12/15 23:13
netsphere : AI:你說的都對 12/15 23:18
kipo1019 : 好,歐硬能源 12/15 23:22
Pipline : 給你情緒價值的ai 12/15 23:31
hohomonkey : 再好的車 斷手斷腳的人沒辦法看開 12/15 23:44
Tsukasa0320 : 這篇文章應該放進教科書 12/15 23:59
Tsukasa0320 : 提醒我們為什麼AI還不能取代研究 12/15 23:59

💰 股票 Stock 版:熱門文章

💰 股票 Stock 版:更多文章