推 stepnight : Windows 跟 Linux 看領域、需求決定而已 11/28 09:37
→ stepnight : GPU TPU 也不太適合這樣看 11/28 09:37
→ stepnight : 其實兩者也不是完全競爭,反而一起用 11/28 09:37
→ stepnight : 還可以降本增效 11/28 09:37
推 HiHiCano : 大公司完全可以自用linux 而且現在gpu買家70%都是大 11/28 09:38
→ HiHiCano : 公司買的… 11/28 09:38
→ HiHiCano : 損失70%業績 輝達不跌才怪 11/28 09:39
噓 stepnight : 這就來了,誰說用TPU就沒GPU需求了== 11/28 09:40
推 visa9527 : 那慘了~商用都是 Linux 嵌入式系統自己調教的 11/28 09:40
→ j0588 : 調校是工程師的事 能省錢儘早虧轉盈才是重點 市場不 11/28 09:40
→ j0588 : 缺便宜的工程師 11/28 09:40
→ stepnight : 誰說你之後預計要用TPU,現在就可以不買GPU了 11/28 09:41
→ stepnight : 還是你當這沒個過渡期?轉用TPU青青鬆鬆? 11/28 09:41
→ visa9527 : GPU自己就是一種專武好嗎?當初CPU繪圖不夠快才有GPU 11/28 09:41
噓 yoshonabee : 你看windows server 多還是 Linux 多 11/28 09:41
→ visa9527 : 你要不要先搞懂世界上為何會出現GPU這種東西 11/28 09:41
→ visa9527 : 現在誰還用通用的CPU繪圖?要高性能繪圖哪個不用GPU? 11/28 09:43
→ super0949 : google都說 GPU TPU一起用了 11/28 09:44
→ visa9527 : GPU也是捨棄掉了繪圖用不到的CPU指令啊 11/28 09:44
推 centaurjr : 你用的東西除了PC底層一堆linux好嗎 11/28 09:44
推 deann : 訓練通常都是用GPU TPU是用來推論 11/28 09:45
→ visa9527 : Android都是Linux的衍生品了~這比喻到底在想啥 11/28 09:45
→ deann : 用TPU很難訓練... 11/28 09:46
→ visa9527 : Linux可以跨的平台裝置比Windows多太多,這更可怕 11/28 09:46
→ visa9527 : 繪圖開發的時候要CPU GPU並用跑軟體~渲染時只要GPU 11/28 09:47
→ visa9527 : TPU 也是主要用在訓練完的模型拿來跑的時候 11/28 09:48
→ visa9527 : TPU當然可以訓練~但訓練不會進步就是用現有演算法跑 11/28 09:49
推 csghuuguh : 發文前為啥不問一下AI 11/28 09:49
推 lancechance : 久不久不重要,NV的GPU在ai領域耕耘也很久了,這兩 11/28 09:49
→ lancechance : 年大眾才知道,股票才飛漲。 11/28 09:49
→ lancechance : TPU影響GPU股價,跟發表時間一點關係都沒有,現在 11/28 09:49
→ lancechance : 的趨勢GPU就是要下去 11/28 09:49
→ visa9527 : 但作為服務端的meta如果沒要自己訓練那買TPU很合理 11/28 09:50
推 FncRookie001: 我覺得核心問題是GPU的用戶都被榨乾了 11/28 09:50
推 james80351 : 樓上還在記那種過時的資訊? Gemini 3官網都說用TP 11/28 09:50
→ james80351 : U訓練的了 11/28 09:50
推 liwae : 買鏟子的都是正版受害者 11/28 09:50
→ visa9527 : 如果meta是拿訓練好的模型來跑大量服務用TPU不奇怪 11/28 09:50
→ FncRookie001: 淘金熱過了 最後買鏟子的人就少了 11/28 09:50
→ lancechance : 大眾開始理解TPU的現在,就跟去年大眾開始理解GPU 11/28 09:51
→ lancechance : 一樣 11/28 09:51
→ FncRookie001: meta不用看 祖克柏就是個笑話 跟風仔還跟風落後 11/28 09:51
→ visa9527 : 模型就一堆數據~你訓練好可以賣給一堆公司直接跑 11/28 09:52
→ FncRookie001: 之前AI新創火就挖亞歷山大 還把楊立坤踢掉 然後現 11/28 09:52
→ FncRookie001: 在Gemini火了就說要TPU 自己ASIC部門可能也要倒大 11/28 09:52
→ FncRookie001: 霉 11/28 09:52
→ visa9527 : 以後都是拿基礎模型配自己訓練額外資料標記來 run 11/28 09:52
推 BBKOX : 結論:GOOG、NV回檔就買 11/28 09:52
→ visa9527 : meta這樣有啥奇怪~當年IBM還不是火掉自己團隊用微軟 11/28 09:53
→ visa9527 : 你根本不用去想那麼多~這在IT產業就是常態 11/28 09:54
推 stepnight : TPU GPU的關係又不是像GPU之於2D、3D加速卡 11/28 09:55
→ stepnight : 那種完全取代==,反而是像最初CPU還要負責圖像 11/28 09:55
→ stepnight : 有了2D、3D加速卡出現幫忙算圖,這樣互助的 11/28 09:55
→ visa9527 : IBM打不過 Motorola 就找 Intel 做 x86 還不是成功 11/28 09:55
推 visa9527 : GPU自己都不能獨立運作了~CPU才有中樞系統指令集 11/28 09:58
→ b9513227 : 井蛙的腦袋裡tpu=gpu 轉換只要復制貼上就好 11/28 09:58
→ visa9527 : GPU自己算平行資料很快~但是牽扯到 I/O 根本廢物 11/28 09:58
→ visa9527 : ASIC最後一定贏~跟BTC挖礦一樣演算法最佳化 11/28 10:00
→ visa9527 : 蛋雕GPU挖礦就是GPU也贏不過ASIC效能了 11/28 10:00
→ fatb : 你的比喻完全錯誤 對使用者而言 享用的是成本 只看 11/28 10:01
→ fatb : 的是價格 你以為linux市佔輸windows 但其實市面上各 11/28 10:01
→ fatb : 式智慧型電器都有嵌入式 11/28 10:02
→ fatb : 你用這個比喻反而表示GOOGLE即將起飛 11/28 10:02
推 kakayao : 開始了各式TPU/GPU大師 11/28 10:03
→ fatb : 別的不說 你在生活中使用的電器大概除了電腦之外都 11/28 10:03
→ fatb : 是用linux哦 科科 11/28 10:04
推 ejnfu : 這個議題我比較信股癌說法,只要硬體需求還是增量市 11/28 10:04
→ ejnfu : 場,餅就夠大到TPU不影響輝達,並不是零和競爭 11/28 10:04
推 xephon : 穩了 11/28 10:04
→ ejnfu : 其他的都當作短期雜音 11/28 10:04
推 b03b01048 : To b to c差這麼多 11/28 10:07
→ mdkn35 : 但我不想用windows開發machine learning的相關服務 11/28 10:09
推 bitcch : g家的訓練當然使用tpu 有省錢的方法怎麼可能用貴的 11/28 10:10
→ bitcch : 但換其他公司成本絕對變高而且被綁死 不太可能複製 11/28 10:10
推 ejnfu : 而且除非AI領域已經成熟了,不然只要還在發展中,GP 11/28 10:11
→ ejnfu : U通用性還是無法取代,AI也不是只有LLM 11/28 10:11
噓 sing60905 : TPU才是自排車 11/28 10:13
噓 stanleyplus : TPU就是炒作 GPU才是王道 11/28 10:15
噓 strlen : TPU訓練是Google專武 其它人只能拿來推理 11/28 10:17
→ strlen : 除非狗家公開自己訓練模型的秘方和訣竅 哪有可能 11/28 10:18
推 etset : google要投錢開產能嗎 11/28 10:19
→ strlen : 一堆人找TPU就是GPU太缺 算力就不夠用 11/28 10:19
→ strlen : 魚也好蝦也好有算力的通通來 11/28 10:19
推 BBKOX : TPU用於降低模型固定後的運營成本 11/28 10:20
推 windfeather : 谷歌可以用TPU訓練,不代表別家辦得到耶 11/28 10:22
→ sdbb : 重點一直在谷歌全家桶 11/28 10:27
推 fhjqwefs : 結論就是NV 或alb 懶一點QQQ or 662 回檔加碼買進 11/28 10:28
→ fhjqwefs : 市場就會自動送錢來 11/28 10:28
推 mamorui : 不急 等OpenAI半殘 就知道會發生什麼事 11/28 10:31
推 mainsa : 話說我公司也算不小 但我們公司就是用微軟套裝 連A 11/28 10:33
→ mainsa : I都用copilot 好像有說要自己訓練 但目前還沒端出 11/28 10:33
→ mainsa : 東西 Google這種規模要賣AI當然可以自己搞特規晶片 11/28 10:33
→ mainsa : 其他沒那麼大的不要說用TPU惹 要用NV來自己搞都有 11/28 10:33
→ mainsa : 一定難度了 而且其實NV的伺服器可能還沒那麼好搶 11/28 10:33
→ mainsa : 乖乖買這些AI大頭搞出來的方案應該便宜很多 11/28 10:33
推 yulunyeh : GOOG NVDA都買不就好了 11/28 10:37
推 breathair : 其實我倒覺得GOOG跟Open醬最大的差異不是算力,而是 11/28 10:43
→ breathair : GOOG的數據量屌打,Meta 跟TSLA都有他們自己獨有的 11/28 10:43
→ breathair : 數據,就Open醬沒有 11/28 10:43
推 windfeather : 會搞AI研發的,本來就是試圖搶龍頭地位的大公司吧 11/28 10:43
→ windfeather : 小公司或平民直接租訂大公司的AI成品就好 11/28 10:44
推 breathair : 或許AI所需要的數據量就註定AI巨頭必然是互聯網巨頭 11/28 10:46
→ breathair : 其中之一,新創根本不可能 11/28 10:46
噓 EDFR : 比喻超爛... 11/28 10:46
推 st88082003 : 程式開發方面linux不是比較多嗎 11/28 10:47
推 ter2788 : meat我看是真的不行了 11/28 10:47
→ st88082003 : 你卻不是把一般電腦用戶跟程式開發用戶全部混在一 11/28 10:47
→ st88082003 : 起了? 11/28 10:47
推 windfeather : AI就是那些頂尖大公司的軍備競賽,一般人等成果就好 11/28 10:48
推 sasewill : 同意樓上,除了巨頭就是等著買成品,自己開發一個 11/28 10:52
→ sasewill : 二流ai到底要幹嘛 11/28 10:52
→ qhair : XLA都幫你調好了,你要調什麼? 11/28 10:59
噓 ryback98 : 確定要用OS來比喻?android是linux… iOS是unix 11/28 11:00
推 BBKOX : 只要open醬去跟微軟合作,數據馬上一堆 11/28 11:00
噓 Lowpapa : 無知 11/28 11:05
噓 andy79323 : 尼買訓練好的模型還是要做SFT 11/28 11:07
→ andy79323 : 不然一堆企業買算力做什麼 11/28 11:07
推 NekomataOkay: 感謝信心加持 11/28 11:09
推 SapiensChang: gemini 3 100%是靠TPU訓練的好嗎 一點用到GPU的地方 11/28 11:11
→ SapiensChang: 都沒有 當初繪圖而讓GPU從CPU分離 現在ai運算需求大 11/28 11:11
→ SapiensChang: TPU在ai領域變成獨大 也只是時間早晚問題 因為這是 11/28 11:11
→ SapiensChang: 必然 11/28 11:11
推 breathair : OpenAI又不是微軟獨家,他怎麼可能那麼無私給他數據 11/28 11:16
→ breathair : …. 11/28 11:16
→ breathair : 算力應該不是問題,畢竟大家都狂買。TPU充其量性價 11/28 11:18
→ breathair : 比比較高,問題應該在數據量 11/28 11:18
噓 stepnight : Gemini 3 training 對 GPU 0依賴那是TPU強項阿 11/28 11:19
→ stepnight : AI又不是只有Training這件事== 11/28 11:19
推 SapiensChang: 樓上太放大ai 在訓練和推論外對gpu的需求了 那個需 11/28 11:31
→ SapiensChang: 求量根本不值一提 gpu在ai最後只會退守研發端和小模 11/28 11:31
→ SapiensChang: 型 剩下就是像GCP平台那樣 這種結果就算tpu取代gpu 11/28 11:31
→ SapiensChang: 了 11/28 11:31
推 goodevening : 但是現在都是訓練大語言模型阿 tpu就實證LLM訓練出 11/28 11:33
→ goodevening : 來很好 而且成本也便宜 GPU怎麼可能不受影響 11/28 11:33
→ dobedobedo : 是說開發都馬用 Linux 11/28 11:43
→ sonatafm2 : 都要買很難? 小孩才在那邊選擇困難 11/28 11:53
推 sarspieya521: 兩個都買不就解決了 11/28 11:55
推 breathair : 現在問題是:OpenAI有微軟的數據中心支持跟最多投資 11/28 12:00
→ breathair : 金額,理論上有最多的GPU在訓練,但是輸Gemini,請 11/28 12:00
→ breathair : 問問題出在哪? 11/28 12:00
→ breathair : 理論上TPU再強也只是算力成本較低,應該還是OpenAI 11/28 12:02
→ breathair : 在訓練上擁有更多的算力,那問題不是出在算法,那就 11/28 12:02
→ breathair : 是數據了? 11/28 12:02
推 waitrop : 的確,其實OpenAI的GPU數量,算力,跟投資金額都遠遠 11/28 12:02
→ waitrop : 比谷歌多很多很多 11/28 12:03
→ waitrop : 谷歌是七巨頭裡頭買GPU買最少的,GPU還要分給公用雲 11/28 12:03
→ waitrop : 谷歌內部私有雲拿來自己使用訓練的GPU非常非常少 11/28 12:04
→ breathair : 這個前提之下,GOOG有但OpenAI沒有的,應該就是數據 11/28 12:04
→ breathair : 量的差異吧?算法能差那麼多嗎? 11/28 12:04
→ waitrop : 你看財報,谷歌的資本支出低於軟+亞麻 11/28 12:05
噓 tsukuyomii : OpenAI買一堆GPU還被Gemini壓在地上扁才恐怖吧 11/28 12:05
→ waitrop : 但是谷歌的資本支出是要分給AI+search+youtube+公雲 11/28 12:05
→ breathair : 如果是數據量的差異,那open醬註定追不上了,而且會 11/28 12:06
→ breathair : 越差越遠,因為使用者被搶走,數據擴張規模一個進入 11/28 12:06
→ breathair : 飛輪階段,另一個就掛了 11/28 12:06
→ tsukuyomii : 身邊一堆人還有社群軟體都再退訂GPT轉Gemini了 不難 11/28 12:06
→ tsukuyomii : 查 我看奧特曼真的完蛋了 11/28 12:06
→ waitrop : 真正資本支出在TPU跟模型訓練的經費非常非常少 11/28 12:06
→ tsukuyomii : OpenAI後面的金主是微軟 微軟整家公司要跟Google玩 11/28 12:07
→ tsukuyomii : 現金流可能也玩不贏更何況openAI只是他投資的公司 11/28 12:07
→ breathair : 沒錯,我覺得這才是大家擔心的地方,瓶頸可能出現在 11/28 12:08
→ breathair : 算力以外的東西,數據或是算法 11/28 12:08
推 FncRookie001: 比起性能 更可怕的是應用 歐噴醬也是輸 11/28 12:09
→ FncRookie001: 基本上只剩chatgpt Sora2很強但我很懷疑後面砸了多 11/28 12:09
→ FncRookie001: 少錢 11/28 12:09
推 tsukuyomii : 應用不用說了 Nano香蕉出來就屌打了 繪圖那些差距 11/28 12:09
→ tsukuyomii : 不是一個檔次 11/28 12:09
推 waitrop : OpenAI根本走錯路了,朝著堆算力的錯路一直走,還把 11/28 12:10
→ waitrop : 還把所有其他AI公司都帶到算力競賽裏頭 11/28 12:11
→ waitrop : 微軟已經無法滿足OpenAI的算力跟資金要求 11/28 12:11
→ waitrop : OpenAI的算力不只是微軟,還有ORCL,CRWV等等 11/28 12:12
→ waitrop : OpenAI居乎壟斷鎖住算力,除了GCP AWS外,其他都他的 11/28 12:12
→ waitrop : OpenAI 1.5兆到2030年,平均一年300B-400B 11/28 12:13
→ waitrop : OpenAI的AI資本支出是谷歌的5-10被,一年 11/28 12:14
推 tsukuyomii : OpenAI砸那麼多錢 結果屌輸Gemini 重點是他用戶被搶 11/28 12:14
→ tsukuyomii : 這麼多 之後確定能賺回本? 11/28 12:14
推 breathair : 真的,資本很聰明的,ㄧ嗅到算力以外的瓶頸是Open醬 11/28 12:14
→ breathair : 沒有的,很快就會縮手,這個泡沫可能還沒大到很恐怖 11/28 12:14
→ breathair : 就會先擠掉了,範圍大概局限在晶片跟半導體 11/28 12:14
推 mamorui : 擴展瓶頸 要繼續看下去 反正OpenAI再來看會怎樣 這 11/28 12:17
→ mamorui : 才是AI永動機可以走到哪關鍵 11/28 12:17
推 ejnfu : 我覺得現在猜發展還太早,我會兩家都持有繼續看下去 11/28 12:17
→ E103A6 : GPU是一般汽車,TPU是跑車~ 11/28 12:19
推 ru04hj4 : 現在看雖open醬會不會下一季就被打臉就跟兩年前goo 11/28 12:19
→ ru04hj4 : gle一樣 11/28 12:19
→ E103A6 : 各有各的目的和強項,把餅做大 11/28 12:19
推 mamorui : Meta 菇菇認為去年定位是跟幾家平齊的為目標,但今 11/28 12:21
→ mamorui : 年變了,要自己察覺這個變化,AI開發也是可能從爭 11/28 12:21
→ mamorui : 第一線到退出一線目標的,阿祖可以專心搞垂直型AI 11/28 12:21
→ mamorui : (公司業務為主的) 11/28 12:21
→ stepnight : 阿祖專心搞詐騙那塊就好了 11/28 12:24
推 windfeather : OPENAI我最得最不妙的是,並非追不上Gemini 11/28 12:27
→ windfeather : 而是市場已經察覺,AI領域已經不會由它獨霸領頭了 11/28 12:27
推 chatbra : meta的AI到現在還不讓我用,差評XDD 11/28 12:27
→ windfeather : 但對消費者來說,多家AI去競爭反而才是好事 11/28 12:29
推 mamorui : Meta未來反而有空間跟最後贏家(不是OpenAI跟Grok會 11/28 12:29
→ mamorui : 更好)合作 反正狗狗的個性是不會跟他搶詐騙事業 w 11/28 12:29
→ mamorui : www 11/28 12:29
推 breathair : 堆這麼多算力,還不能獨霸,那堆算力意義就不大了, 11/28 12:30
→ breathair : 下一季是Open醬的生死線了我覺得,萬一Gemini迭代要 11/28 12:30
→ breathair : 是搶在Open醬一步,發表的當天會很慘烈,現在大家都 11/28 12:30
→ breathair : 在等著看Open醬有沒有壓箱寶 11/28 12:30
→ mamorui : 奧特曼個性喜歡贏了A去搶B, 也是可能做詐騙事業, 11/28 12:30
→ mamorui : 狗狗不會做 11/28 12:30
→ mamorui : 狗狗逼他出牌,應該是想在半年內分勝負 11/28 12:31
推 F20V : 很棒且簡易的比喻 11/28 12:32
推 mamorui : Meta一年的時間就退出第一環的競爭,Grok也說要去 11/28 12:32
→ mamorui : 搞gaming當個酷AI了,知道其他AI都吃瓜看戲中了嗎 11/28 12:32
推 windfeather : OPENAI一季內拿不出驚豔的新玩意或改版 11/28 12:36
→ windfeather : 我看也不用想要上市了 11/28 12:36
→ matlab1106 : 輝達已經走錯方向了 要變下個柯達了 11/28 12:37
→ windfeather : 我是覺得有機會追上GEMINI,但別想再像前兩年 11/28 12:37
→ windfeather : 給人AI創世主的印象與夢想了 11/28 12:37
→ windfeather : 輝達頂多就市值大減,但他始終是業界技術最強的 11/28 12:39
→ windfeather : 不會像OPENAI一樣,失敗就整個泡沫化 11/28 12:39
噓 sppmg : Top500 Windows 查不到耶! 11/28 12:42
推 mamorui : 還有垂直整合AI會需要NV, 只是第一環競爭的基礎型L 11/28 12:42
→ mamorui : LM, 會決定B&B合作的基礎, 蘋果是已經決定跟不會倒 11/28 12:42
→ mamorui : 、可以持續更新的合作,而且蘋果重視安全性隱私、 11/28 12:42
→ mamorui : 也是多產品未來都得整合AI,狗狗也許比較有人力跟 11/28 12:42
→ mamorui : 蘋果穩定合作 11/28 12:42
推 mamorui : 各家雲都會持續照客戶租賃需求買進GPU的設備,跟以 11/28 12:44
→ mamorui : 前傳統時期的一樣 11/28 12:44
推 mamorui : 阿婆再等下去 也會怕手機這塊功能愈落後 必須提早 11/28 12:45
→ mamorui : 做抉擇 11/28 12:45
推 pigcola : 不管GPU, TPU 買 TSM 11/28 12:51
推 mamorui : 而且菇菇我看波克夏跟蘋果都動起來了 離答案可能也 11/28 12:51
→ mamorui : 不遠了 11/28 12:51
推 partsex : GPU當然會繼續增加 但現在是怕影響到NVDA eps成長率 11/28 12:52
→ partsex : 成長率放緩 (但還是繼續成長) 11/28 12:52
→ partsex : 會影響到本益比 11/28 12:53
→ partsex : 如果不能每年成長超過40%以上 nvda本益比會被調降 11/28 12:53
→ partsex : 炒股 注重的是 「股價成長率」 而不是股價 11/28 12:54
→ partsex : 那麼你該注重的 不是公司會不會成長 這種二分法 11/28 12:54
→ partsex : 而是成長率變大 還是變小 11/28 12:54
推 mamorui : 美股分析師沒把谷歌跟OpenAI後續發展的新報告丟出 11/28 12:55
→ mamorui : 來前,NV的相關報告也不會出來 11/28 12:55
推 leoloveivy : 說個團隊要調教的 是只有兩台server 在公司的嗎 如 11/28 13:01
→ leoloveivy : 果是那請他們也可以退出了 11/28 13:01
推 jason0814uj : 我只想知道新光用的破爛AI是哪款 11/28 13:12
→ jason0814uj : 更正:台新銀行 11/28 13:12
推 a8017700 : Linux伺服器滿街都是..... 11/28 13:21
推 waitrop : 走錯路的是OpenAI,不是NV,賣鏟子的NV最希望堆算力 11/28 13:25
→ waitrop : 很多話說白了會很難聽,非常得罪人 11/28 13:26
→ waitrop : 奧特曼所有的言論跟決策非常不像專業人士,非常外行 11/28 13:27
→ waitrop : 讀過CSEE的人都知道,大一第一堂課就是performance 11/28 13:28
→ waitrop : 不論是軟體算法,硬體架構設計,IC設計,全都做一件事 11/28 13:29
→ waitrop : performance, complexity 11/28 13:29
→ waitrop : 然後你奧特曼拼命堆算力,馬的,你大一算法一定死當 11/28 13:30
→ waitrop : 如果你需要把全世界的算力都堆進去,表示你的路錯了 11/28 13:30
→ waitrop : 這還需要討論嗎?那些在酸我的人是不知道這道理嗎? 11/28 13:31
→ waitrop : 當你需要全世界算力還不夠,問題就是你的算法錯了 11/28 13:31
→ waitrop : 不然就是你的硬體基本架構設計錯了 11/28 13:32
→ waitrop : 連這道理都不懂,你連CSEE大一的學生都還不如 11/28 13:32
→ waitrop : 越說越氣,谷歌是一開始就發現這問題,才會做TPU 11/28 13:33
→ waitrop : 谷歌是從算法跟基礎硬體架構雙方面一起去改進 11/28 13:34
推 mamorui : 真的 這都只能說一點點實話 企業都很努力 有的是為 11/28 13:37
→ mamorui : 了全人類 有些是看AI造就龐大商機(需求飽和不易) 11/28 13:37
→ mamorui : 可以稱霸至少20年之類的 把所有巨頭資產在這一代AI 11/28 13:37
→ mamorui : 就全賭進去 回收成本難度高 我擔心可能可能影響下 11/28 13:37
→ mamorui : 一代AI發展 11/28 13:37
推 mamorui : 希望明年就分勝負,後續走在正軌上開發下去,不然G 11/28 13:40
→ mamorui : PT幾乎沒包袱專心搞自己的LLM,進步速度真的看不見 11/28 13:40
→ mamorui : 一個泛化型的突破 11/28 13:40
推 ejnfu : 我沒看到有人在酸w大吧..? 11/28 13:40
→ mamorui : 有啊 wait大前一篇回文 11/28 13:41
推 breathair : NV信仰者太多,TQ大講的很婉轉了 11/28 13:43
推 ejnfu : 所以是在說上篇的推文? 11/28 13:45
推 mamorui : 反正AI最終走到升級難度SS時,追求效能的會愈來愈 11/28 13:49
→ mamorui : 多,礦工時代就演過,還有繼續挖掘新領域的用NV求 11/28 13:49
→ mamorui : 有(現在基礎型就這個LLM,人類世界媲美語言的基礎 11/28 13:49
→ mamorui : 還有什麼),已經玩爛或決定冠軍的AI(無論通用基礎 11/28 13:49
→ mamorui : 型領域或專用型領域)一定追求成本跟效能吊打的。 11/28 13:49