作者LDPC (Channel Coding)
看板Stock
標題Re: [新聞] Google TPU發功!聯發科股價漲22% 寫23
時間Sat Jan 3 10:00:42 2026
2026了 大家都有賺錢嗎 @@b? 兩年前的記憶體風暴現在開始來了 如果兩年前屯記憶體
現在應該都會有些成果
那現在來看看之後推論市場吧
https://www.youtube.com/watch?v=uAa7_OrhmJs
會想寫這文章主要是針對上面的1分鐘到3分鐘的介紹稍微給個不同觀點
隨者AI應用化發展 越來越多人關注在下一個推理贏家(Inference)
誠如很多網路上分析師都預測TPU或者自製晶片能贏的下一場戰役 讓老黃退守訓練市場
但我的觀點不太一樣
我認為以後推理市場會分為大型玩家(狗 亞麻 軟 阿祖 )跟新創玩家(AI御三家其二
跟一海量的中小型創 )
大型玩家有自己的生態圈 因此自製晶片可以壓低電量和最大成本降低化
但新創玩家不適合這套 事實上 我越來越覺得這波AI落地化取決這波新創玩家能有多成功
甚至說 AI的會不會泡沫化 取決於新創玩家是否能打造落實的生產工具
在延伸這概念之前 先稍微講幾個 第一個是橫向發展AI 你也可以叫做基礎模型
或者Foundation Model 這類型都是頂級玩家 像是御三家和七巨頭和xAI以及阿里巴巴等
他們做的就是 拿大筆資料 從源頭一路蓋 目標就是做出比較有智能的模型
而真正消耗算力的是其實是新創玩家 新創玩家都是走 深度發展AI (Vertical AI)
基本上落地對象就是SAAS 在特地的應用場景(範圍相對收斂很多 不像是橫向ai
包山包海 各種智能) 特地的應用場景 簡單到甚至可以是一個表格填寫 但走的就是
自動化某種產業 通常模式就是 拿上面頂級玩家的 通用模型 然後加上該領域的資料
走客製化 打造一個提高生產力 這類玩家 基本上會從上古時代基礎設施往上蓋
類型可以是 ai HR/IT/法律/影音剪輯/醫療/財務/音樂創作(參考spotify ai作曲家)
文書寫作/電影腳本寫作/房地產資料整合/財務規劃整合
基本上文組所有項目大概都是重災區
那這類型的新創玩家正在瘋狂的增長 而這類型玩家無法也無能為力去用TPU
(講個題外話 這類型Vertical AI要解決的問題 就是老黃兩年前提的AI Factory
就是幫你加工模型 作為特製化產物 我可以差不多說 老黃雖然看到這商機 但nvda
大概無法做出ai factory
https://www.nvidia.com/en-us/solutions/ai-factories/
最大原因是 Vertical AI最困難處 其實不在AI 而是在Vertical 就是所謂整合
裡面需要大量工程師去蓋上古時代1990機器介面 往上延伸才能順利整合到AI 需要大量
工程 換句話說 那些1990-2010上古時代SAAS介面 需要大量人力去做中間整合 整合越成功
才能服務越大量人 而老黃ai factory無法涵蓋所有產業 因為需要整合的量太大
他無法只單出特製化模型 跳過整合這部分
回到Vertical AI 為何無法用老黃以外GPU
第一個是模型優化問題 比方說你用cuda這類訓練完畢後 你轉成其他類型要跑推理平台
去做推論模型會有效能失真 或者崩毀問題
我曾經訓練一個模型效能在benchmark跑到recall 90%
結果換成int8/int4 加速推論平台 recacll直接給我掉到40% 這就是常見模型轉換平台
效能失去 而如果是狗或開放愛 他們有足夠員工(AI infra team)去解決這類問題
優化晶片 甚至有許多優化晶片問題 可能也只有母廠才知道怎樣做 所以就算TPU開放
給新創玩家 很大機率 新創玩家無法自己優化TPU晶片 甚至優化成能給幾百萬輛訪客訪用
為何老黃沒這問題 這恰巧就是開放平台好處 你踩過的坑 前人一定踩過 你遇到模型轉換
問題 一定也有人碰過 而nvda也會記取這類訊息 不斷迭代晶片
加上二次加工的平台Hugging Face 直到最近才開始正式把TPU列入官方支援
過去10年所有Hugging Face能加工的 基礎模型 基本上都是CUDA環境
還有一個最大問題就是平台穩定性 新創公司除了不夠多員工和人力去優化晶片做推論
最怕遇到就是平台不穩 比方說你蓋的系統 是給律師用 律師在寫訴訟一半 結果你家
ai當機 你跑去罵新創(比方Harvey) 對方可能會說 啊 我那個TPU平台崩了
需要等google那邊 debug 但如果你是用老黃 你可以切到亞麻 軟家 或者其他
畢竟你模型已經優化成cuda格式 你可以在各家雲廠商做切換 哪邊崩 就用SkyPilot
無痛切換雲廠商 但如果你今天模型優化成TPU 那你就不可能無痛切到老黃
而狗家的對外文件寫的沒有開源社群好....基本上根本無解
那TPU何時成為威脅? 那就是使用者數量和必須有累積10幾年開源等同資訊在網路上
不然所有二次加工使用者(新創玩家) 是沒時間去幫忙debug和測試 因為一但慢
這個市場就是被其他新創吃掉 同時別忘了 一但扯上推論 如何提供穩定給幾百萬客戶
這牽涉到cluster之間系統穩定設計 這也是老黃在開源社群的優勢 透過幾十年累積
所以特製化晶片和老黃在光譜上是個兩個盡頭 不是互相互殺的存在
而是大廠要蓋自己生態圈用的 蓋不出來的大廠 像阿祖就會拿TPU 但也無傷老黃
畢竟眾新創才是推論玩家最多地方
那老黃為何還是要買TPU?我認知是 他可以用他優勢把TPU整合 同時把對手減少
當年3DFX 和老黃打架時 3DFX一個犯錯(買下OEM) 就讓老黃揍到破產
老黃現在股票在高峰期 資本額足夠把敵人殺光 這是他常見做法 包含之前
用台積產能卡蘇媽甚至用HBM產能卡其他競爭對手
但狗狗的優點不在TPU 而是他是唯一擁有完整生態系 和使用者數據 狗家最強大就是
多模態模型(來自youtube) 這波gemini已經顯現出 在搭配自家晶片 以及御三家ai優勢
結論 老黃的晶片銷售 會跟眾多新創綁在同一條船上 你如果對ai泡沫是否有興趣
你可以多看網路youtube去看這一兩年新創是在做哪些事情
另外記憶體跟算力 基本上是可以互換 你要速度快 要麻就是算力提高 要麻就是用
大量記憶體 把之前算過的存好 (e.g KV Cache) 或者把資料一次性餵食模型(取代RAG)
再加上這一兩年 個公司都在研究如何把記憶單元整合到現有模型 記憶體只會需求更大
(但我不會買台廠牙科 QQ)
總結:Googl/NVDA/TSM/MU/SK Hynix/Samsung 基本上屬於低風險有機會贏大盤標的
其他風險飆高值得投資有: AMD/AVGO
Vertical AI應該是接下來三年內主軸 目前還沒有足夠成熟Vertical AI能開第一槍上市
但一但開啟 大概也是會文組大裁員時代了
反之如果那一天沒到來 我們大概將會迎接ai泡沫
目前所有的創投已經在Vertical AI投出海量金額
如果沒有兌現 那時候大概就是產薯條的時代了 蔡力行已經示範給你看了 QQ
不論怎樣 我已經練好薯條技能
--
@@預測錯不要揍我 我承認我今年投報輸給兩歲小兒
※ 引述《obrag (歐布拉)》之銘言:
: Google TPU發功!聯發科股價漲22% 寫23年最佳單週表現
: https://ec.ltn.com.tw/article/breakingnews/5261751
: 2025/11/28 22:50
: 〔編譯魏國金/台北報導〕彭博28日報導,聯發科股價創2002年以來最佳單週表現,其客
: 戶Google在人工智慧(AI)技術的進展,幫助這家台灣晶片商重塑其成長前景。
: 報導說,聯發科股價28日連續5個交易日上漲,週線漲幅22%,投資人對Google最新Gemini
: 3模型以及AI晶片交易的熱情提振其股價。據報導,聯發科與Google合作設計張量處理器
: (TPU),該處理器被視為是輝達晶片在AI應用的潛在對手。
: 以智慧手機晶片著稱的聯發科因競爭與高昂的開發成本,面臨終端產品需求前景不明與獲
: 利壓力。而Google Gemini 3的奏捷讓聯發科股價應聲大漲。
: 摩根士丹利分析師Charlie Chan與Daniel Yen指出,儘管中國市場2026仍面臨挑戰,「但
: 長期而言,Google TPU的成長潛力應能抵銷智慧手機方面的不利因素」,他們將聯發科的
: 股票評級從「持股觀望」上調至「增持」。
: 報導說,AI早期發展重點在大型語言模型(LLM)的訓練,這需要輝達等公司的繪圖處理
: 器(GPU)提供的大規模運算能力。如今重點轉向推理或LLM如何回應用戶的查詢,使專用
: 積體電路(ASIC),如TPU成為焦點。
: 瑞銀集團將聯發科2027年TPU的銷售貢獻(sales contribution)預估,從18億美元上調
: 至40億美元。瑞銀報告說,至2028年,這些晶片將佔聯發科營業利潤20%,「這取決於聯
: 發科與Google的執行狀況」。
: 本週令人振奮的消息是,Meta正洽談2027其資料中心使用Google的TPU。瑞銀認為,與Met
: a的額外ASIC計畫,將為聯發科帶來進一步的潛在利益。
: 賣方分析師普遍看多聯發科,提出買進建議的有23個、持有或不賣建議的有10個。市場普
: 遍預期未來1年聯發科目標價將進一步上漲9%。
: 心得/評論:
: 聯發科股價大漲:聯發科股價創下自2002年以來最佳單週表現,連續5個交易日上漲
: ,週線漲幅達22%。
: 受惠Google AI進展:投資人對Google最新 Gemini 3模型 及 AI晶片合作案 充滿期
: 待,推動聯發科評價提升。
: TPU合作成亮點:聯發科與Google共同設計 張量處理器(TPU),被視為輝達GPU在AI
: 應用領域的潛在競爭對手。
: Meta可望加入生態系:Meta reportedly 商談2027年資料中心採用Google TPU,若成
: 案,聯發科有望獲得更多ASIC訂單利益。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.21.72.78 (美國)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1767405644.A.74C.html
推 hellomo : 頭推 01/03 10:01
※ 編輯: LDPC (76.21.72.78 美國), 01/03/2026 10:04:23
推 mamorui : 我也這樣說 為什麼我的文被罵慘慘 嗚嗚嗚 01/03 10:04
→ bnn : .com一堆小公司的泡沫 基建賣鏟子的沒事 01/03 10:06
推 frankie30432: 只要GG沒亂擴廠 泡沫死的也是別人 01/03 10:07
推 FirePopcorn : ai鏟薯條 01/03 10:10
推 MaMaMoMo : 有危險的不是NVDA,該看OpenAI 01/03 10:13
推 rayray0410 : 結論,老黃包圍網 01/03 10:13
推 kami0857 : 鏟薯條+1 01/03 10:17
推 sdbb : 謝謝 01/03 10:22
→ sdbb : 中文很奧妙,是老黃包圍谷歌,還是谷歌包圍老黃? 01/03 10:23
推 HiuAnOP : 結論:先點好鏟薯條的技能 01/03 10:27
推 amilkamilk : nv沒有買tpu吧?他是買lpu? 01/03 10:27
推 crusoe : 讚 01/03 10:27
推 goodjop : 老黃只是不想讓亞麻 軟 阿祖跟狗一樣成功發展TPU 01/03 10:27
推 mos3491948 : 推 01/03 10:28
→ goodjop : 能跟狗比擬的自家生態圈的大概只有軟 01/03 10:29
→ mos3491948 : 懂了 買SMH 01/03 10:29
→ jorden : 老黃剛買下LPU 別這樣 01/03 10:29
→ jorden : LPU適合用推理 GPU適合用訓練 整個被老黃包了 01/03 10:30
→ jorden : 老黃那個心態很明顯 就是要獨霸天下 01/03 10:31
推 waitrop : 看不懂,但是趕快按個讚 01/03 10:33
推 abc0922001 : 管他TPU、GPT、LPU,都要靠 GG 代工 01/03 10:34
→ abc0922001 : AMD 哪天重返榮耀,也是要靠 GG 代工 01/03 10:34
推 lukelove : 推 01/03 10:40
推 ppuuppu : 推 我要先來去學水電了QQ 01/03 10:41
推 josephpu : 推 01/03 10:42
推 autopass : 最後TPU和NV會合作 01/03 10:57
→ bnn : 電機系屹立不搖 但是是電力組還能去修水電(X 01/03 11:00
推 fajita : 推! 01/03 11:01
推 Nitricacid : 現在也很多在拼 edge 的,這邊成功的話影響就不止 01/03 11:05
→ Nitricacid : 文組了 01/03 11:05
推 andylu1207 : 看下來MU還真的有機會再飆一倍 目前Forward PE 還 01/03 11:07
→ andylu1207 : 不到10 01/03 11:07
推 chicagoparis: SW的需求沒有提到?是繼續跌還是vibe coding 造成 01/03 11:09
→ chicagoparis: 太多bug 需要回補人力 01/03 11:09
→ davie11333 : 推推 LDPC大賺爛惹 01/03 11:23
推 aspirev3 : 00662+2330 天下無敵 01/03 11:32
→ jasperhai : 比起文組 現在理組基層更慘 我已經要往水電走了 01/03 11:51
推 HaHaPoint : 推推 8成觀點同意你 01/03 11:57
推 wangyl : 高手分享 01/03 12:08
推 karta018 : 本來想說谷歌會變第二個輝達,但想想他主要是降低對 01/03 12:13
→ karta018 : 輝達的依賴,並沒有輝達那樣的獲利模式,不過還是不 01/03 12:13
→ karta018 : 太懂老黃買LPU的目的,是不是為了做出供專用型AI整 01/03 12:13
→ karta018 : 合的通用平台 01/03 12:13
推 l14567p : 謝謝分享 01/03 12:30
推 deathoflove : 景氣循環股看什麼FPE 01/03 12:35
→ b9513227 : gemini跟智障一樣 01/03 12:35
推 sosoana : TPU如果真的起來 01/03 12:36
→ sosoana : MU樂觀價500可能都是地板價 01/03 12:36
推 iamjamie129 : 同意,科技突破前都會如此,奇異點也許快到了 01/03 12:37
推 lyxiang : 感謝分享 01/03 12:48
推 nikoyaka9527: 謝謝分享 01/03 12:49
推 ohsexygirl : 推推 01/03 12:52
推 ChikanDesu : 薯條輪得到我們炸嗎 01/03 12:57
推 sniper72 : 感謝分享,希望能習得些許薯條技能 01/03 13:08
→ kevin0733 : 鏟薯條的是蔡力行 01/03 13:28
QQ慘 我腦袋已經不行了
※ 編輯: LDPC (76.21.72.78 美國), 01/03/2026 13:30:14
推 wardraw : 推專業 01/03 13:31
推 beavertail97: NVDA續抱就對啦 01/03 13:34
→ gladopo : 老黃是把多的錢去買下整個產業,不能自幹的都是他的 01/03 13:54
推 greedypeople: 人形機器人表示:鏟薯條 跟我搶工作? 01/03 14:09
推 lt5114 : 個人覺得LPU就會是未來AI邊緣計算的形狀啊 你能想 01/03 14:15
→ lt5114 : 像未來機器人用現在的gpu嗎 你跟機器人對話他還要 01/03 14:15
→ lt5114 : 轉圈個10秒鐘才能回答你 如果是lpu就能跟類人類一 01/03 14:15
→ lt5114 : 樣對話啊 01/03 14:15
推 goodkilua : 軟銀爸爸也是丟了一堆錢進去,看起來只能繼續丟惹~ 01/03 14:16
推 cjsblues : 推 01/03 14:36
→ stocktonty : 2年前開始看好HBM 結果DDR漲比HBM還瘋狂 這就是人生 01/03 14:50
推 madeinheaven: 有優化模型的公司像是三星是請Nota AI去優化 01/03 15:02
推 ericwu790419: 稍微看了之前groq創辦人的訪談 我一直以為nv買gr 01/03 15:26
→ ericwu790419: oq是為了給hbm廠商談判跟殺價 01/03 15:26
→ ericwu790419: V 01/03 15:26
推 dinotea : 他是買LPU 01/03 15:32
推 waitrop : LPU印象中就是暴力版的TPU,不在乎成本堆料的那種 01/03 15:34
→ waitrop : 不過用LPU的設計到edge上面,堆料不會太多錢 01/03 15:35
→ ericwu790419: Groq的Lpu極貴但不需要hbm而且推論速度極快 用to 01/03 15:51
→ ericwu790419: ken per second來算成本的話 當hbm價格漲到一定成 01/03 15:51
→ ericwu790419: 度 伺服器端做推論也許lpu比gpu+hbm划算 01/03 15:51
推 loking : 我把這篇丟到gemini 他說大部分寫的很正確 01/03 15:56