🔥 PTT.BEST 批踢踢爆文 💬 八卦 Gossiping 😊 希洽 C_Chat 💰 股票 Stock 🏠 房屋 home-sale 🏀 美國職籃 NBA ⚾ 棒球 Baseball 👛 省錢 Lifeismoney 🚗 汽車 car 😡 政黑 HatePolitics 💻 電蝦 PC_Shopping 🥰 韓星 KoreaStar ✨ 英雄聯盟 LoL 🍿 電影 movie 🪖 軍事 Military 📡 通訊 MobileComm 🏀 台籃 basketballTW 🍼 寶媽 BabyMother 🇯🇵 日旅 Japan_Travel 🏭 科技 Tech_Job 👉 男女 Boy-Girl 👉 真香 CheerGirlsTW 👧 女孩 WomenTalk 👻 媽佛 marvel 💳 卡版 creditcard 👉 NS NSwitch 👉 PS5 PlayStation 👉 大氣 TY_Research 👉 婚姻 marriage 👉 台南 Tainan 👉 台中 TaichungBun 👉 Steam Steam 👉 高雄 Kaohsiung 👉 羽球 Badminton 👉 超商 CVS 👉 米哈遊 miHoYo 👉 iOS 👉 兄弟 Elephants 👉 日劇 Japandrama 👉 玄幻 CFantasy 👉 ES e-shopping 👉 WOW 👉 遊戲交易 Gamesale 👉 4X BaseballXXXX 👉 Lakers 👉 韓劇 KoreaDrama 👉 汽車買賣 CarShop 👉 機車 biker 👉 新竹 Hsinchu 👉 美保 BeautySalon 👉 串流 OTT 👉 歐美影集 EAseries 👉 手機交易 mobilesales 👉 健身 MuscleBeach 👉 MacShop 👉 Lions 👉 FGO FATE_GO 👉 中劇 China-Drama 👉 數位貨幣 DigiCurrency 👉 暗黑 DIABLO 👉 實習教師 studyteacher 👉 航空 Aviation 👉 藝文票券轉售 Drama-Ticket 👉 韓綜 KR_Entertain 👉 美妝 MakeUp 👉 速食 fastfood 👉 手錶 watch 👉 體適能 FITNESS 👉 攝影 DSLR 👉 Headphone 👉 嘻哈 Hip-Hop 👉 轉珠 PuzzleDragon 👉 美食 Food 👉 蔚藍 BlueArchive 👉 數位相機交易 DC_SALE 👉 筆電蝦 nb-shopping 👉 軟工 Soft_Job 👉 汪踢 Wanted 👉 台綜 TW_Entertain 👉 坂道閒聊 SakaTalk 👉 貓咪 cat 👉 日GO BabyProducts 👉 TypeMoon 👉 MLB 👉 職場 Salary 👉 臺劇 TaiwanDrama 👉 海賊王 ONE_PIECE 👉 PMGO PokemonGO 👉 國營 Gov_owned 👉 碧航 AzurLane 👉 家電 E-appliance 👉 布蘭德 Brand 👉 DMMG DMM_GAMES 👉 贈送 give 👉 神魔 ToS 👉 銀行服務板 Bank_Service 👉 原創 YuanChuang 👉 期權 Option 👉 重機 SuperBike
原文標題: MU、WDC、SNDK下跌:為何Google的TurboQuant令記憶體股震盪 來源: https://myppt.cc/FlidrY 內文: 2026.03.25 Investing.com - 儘管科技板塊整體表現強勁,記憶體股週三仍然下跌。在Google推出Tur boQuant這項可能降低AI系統記憶體需求的新壓縮演算法後,相關股價應聲下挫。 SanDisk Corporation(NASDAQ:SNDK)下跌5.7%,美光科技(NASDAQ:MU)下跌3%,西部數據(NA SDAQ:WDC)下跌4.7%,希捷科技(NASDAQ:STX)下跌4%。這些跌幅出現在納斯達克100指數上 漲之際。 Google推出了TurboQuant,這是一項旨在降低大型語言模型和向量搜尋引擎記憶體消耗的 壓縮技術。該演算法解決了鍵值快取的瓶頸問題,鍵值快取用於儲存AI系統中經常存取的 資訊。 根據Google的公告,TurboQuant可以將鍵值快取壓縮至3位元,無需訓練或微調,同時保持模 型準確性。在包括Gemma和Mistral在內的開源模型上進行的測試顯示,該技術實現了鍵值 記憶體大小6倍的縮減。該演算法還在H100 GPU加速器上展現了比未量化鍵值高達8倍的效 能提升。 該技術透過兩個步驟運作:應用PolarQuant方法透過旋轉資料向量實現高品質壓縮,以及使 用量化Johnson-Lindenstrauss演算法消除殘餘誤差。Google表示,傳統的向量量化方法在 記憶體開銷中每個數字增加1至2個額外位元,部分抵消了壓縮優勢。 TurboQuant將在ICLR 2026上發表,而PolarQuant計劃在AISTATS 2026上發表。Google在包 括LongBench、Needle In A Haystack、ZeroSCROLLS、RULER和L-Eval在內的基準測試中 測試了這些演算法。 該技術的應用範圍超越了AI模型,還包括為大規模搜尋引擎提供動力的向量搜尋功能。 記憶體股今年迄今已大幅上漲,使其容易受到可能降低需求的發展影響。 心得: 雖然我不是專家但讓記憶體使用更有效率 聽起來很不錯吧 目前Google的測試成果斐然 未來真的能這樣發展 想必對邊緣AI有很大的助力 至於會不會對記憶體需求下降 倒也未必 Google研究底加 窩看不懂 https://myppt.cc/UtVx89 ----- Sent from JPTT on my Google Pixel 7 Pro. -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.231.153.90 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1774449572.A.5B4.html
OGoTTe : 抓到兇手了 03/25 22:40
chocoball : 以後每年都推出新演算法 穩03/25 22:42
sdbb : 樓下waitrop03/25 22:42
turndown4wat: GOOG也一起下去了 03/25 22:42
tomdavis : 照抄deepseek的說法 唉呦省資源 硬體股要完蛋了03/25 22:42
sdbb : 樓下LDPC?03/25 22:43
Marshalkobe2: 自己也下去 厲害03/25 22:43
c928 : 谷狗,我活不了你們也給我下來03/25 22:43
TureCooler : SpaceX都要IPO了,台股上呀 03/25 22:44
handfoxx : GOOG 怎麼也下去了03/25 22:44
heko77923 : 放屁 google自己也跌慘了03/25 22:46
alonzohorse : 看來只剩六分之一價格,牙套50,華崩20 03/25 22:46
heko77923 : 要是這麼神早就噴了03/25 22:46
Evenpan : 不是因為NVIDIA KVTC嗎?03/25 22:46
KS571 : 哭啊 阿怎麼自己跟著下去03/25 22:47
chachabo : 狗狗式自殺=.=03/25 22:48
※ 編輯: baddaddy (36.231.153.90 臺灣), 03/25/2026 22:48:35
itwt : 亂講,是真的Google這樣要噴啊,一起下去耶 03/25 22:48
matlab1106 : 這波能源危機會讓這些高耗能的被處理吧 03/25 22:51
bnn : 公開演算法的話不會噴啊 別人看論文照抄 03/25 22:52
az0102 : 台積電利多 03/25 22:52
grayeric : 記憶體 is over 03/25 22:55
DWR : 只會用更多的參數 模型越來越大而已 記憶體實際上 03/25 22:56
DWR : 不會減少的 03/25 22:56
harpuia : 爽啦,狗狗不爽自己下去,也把其他人一起拉下去 03/25 23:00
PerfectWorld: 笑死論文都公開了要噴什麼? 一堆沒念過研究所是不 03/25 23:01
PerfectWorld: 是? 03/25 23:01
EDFR : OVERBOOKING 03/25 23:02
strife : 那用原本的大小不就效能更高 sorry 我有美光 干 03/25 23:02
dannpptt : 估狗傷敵一千自損八百 03/25 23:02
bs167512 : 一場AI大戲,繼續看它們怎麼演 03/25 23:03
dennis50253 : 救救南亞科 03/25 23:04
receivable : 我以為是SORA停止的消息,存圖/影音比文字存儲需求 03/25 23:04
receivable : 大多了 03/25 23:04
HarukaLM : google也跟著下去... 03/25 23:04
baka1412 : https://i.imgur.com/CenWqyJ.jpeg 03/25 23:06
Barefoot24 : GoogleAI吹那麼大,結果Gemini連個Excel都讀不出來 03/25 23:07
Barefoot24 : ,白癡 03/25 23:07
bcismylove : 都2026了EXCEL PAY還沒普及 03/25 23:09
spencer222 : 不可能是這個啦 這篇論文2月5號就發了 主要目的是要 03/25 23:11
spencer222 : 用不足的緩存跑大模型 壓縮資料是要經過encode/deco 03/25 23:11
spencer222 : de的 會影響運算速度 03/25 23:11
bs167512 : 真正會賺錢的東西沒人會告訴你,消息滿天飛的東西就 03/25 23:13
bs167512 : 是缺錢,叫大家趕快來投資 03/25 23:13
bala045 : 壓縮不就代表可以佈建更多 那跟需求下降有什麼關係 03/25 23:14
pornpig32 : KVTC 是 NVIDIA 解決 AI 「記憶力太貴」問題的關鍵 03/25 23:16
pornpig32 : 技術 03/25 23:16
letyouselfgo: 估狗不是有自研AI晶片嗎怎麼還在用H100 (諷刺 03/25 23:16
rooo2012 : 下跌不是因為中東金主的數據中心無法蓋 暫時需求沒 03/25 23:18
rooo2012 : 這麼多? 03/25 23:18
yyyyaaaa44 : 明天空南亞科會贏嗎 03/25 23:19
Samurai : 這像是去年說deepseek算法進步,AI天花板已到一樣 03/25 23:20
Samurai : 蠢 03/25 23:20
pornpig32 : Google 做的 實驗時測試硬體是 NVIDIA H100 GPU 03/25 23:22
gladopo : 那為什麼NV漲,老黃又可以COSTDOWN了嗎 03/25 23:25
cosmo7897 : 谷歌這次的突破好像是因為KV cache壓縮 推理速度變 03/25 23:25
cosmo7897 : 快且記憶體需求降低 03/25 23:25
eno03 : 記憶卡娃逃難潮開始了 03/25 23:25
ksuenjjr : Google自己也在跌 03/25 23:27
bndan : 跟去年那個DEEPSEEK不同 就先不說從已完成的水桶撈 03/25 23:27
NEX4036 : 順勢壓下去收籌碼 03/25 23:28
holysong : 下跌找理由,照歷史cpu cache跟主機板的記憶體只會 03/25 23:28
holysong : 越來越多 03/25 23:28
bndan : 答案這件事..就節省效能本身是讓整體能擴大使用能量 03/25 23:28
bndan : 所以當然不會改變NV 台G 等賣鏟子一條龍的情況 03/25 23:29
OxFFFFFFFF : 這什麼野雞算法 03/25 23:29
holysong : 然後下一代的模型又變更大了 03/25 23:29
bndan : 但記憶體不同 本來假設 AI大基建瓶頸是記憶體好了 03/25 23:29
NEX4036 : 現在不就V了 03/25 23:30
bndan : 現在可以用1/6的記憶體量能建AI基建 這時瓶頸應該要 03/25 23:30
OxFFFFFFFF : 不管算法有多牛只要使用率越高就會越缺貨 03/25 23:30
jean0914 : 好好笑的鬼故事 03/25 23:31
bndan : 變成缺GPU了..應該說記憶體終究是配件 主要的還是看 03/25 23:31
holysong : 我的感覺是只要1/6的cache,一樣的效率 03/25 23:32
bndan : GPU搭配...更不用說如果本來AI基建瓶頸就是GPU的情 03/25 23:32
OxFFFFFFFF : 會跌的原因就是 前陣子股票漲太多會跌而已不用找什 03/25 23:32
OxFFFFFFFF : 麼爛理由 03/25 23:32
robinlee : 省愈多用更多啊,殺這個超怪 03/25 23:32
bndan : 況 那再縮成1/6 記憶體跟本會變成供>>需了..除非GPU 03/25 23:33
otsuka123 : ds是蒸餾啊 所以回來 但谷狗大神就難講了 03/25 23:34
bndan : 製造速度"提升"的比記憶體快..但問題是GPU的生產難 03/25 23:34
holysong : 雲供應商一樣還是主機板的記憶體插滿 03/25 23:34
bndan : 度遠大於記憶體 而且像這類頂端IC生產還是台G獨霸的 03/25 23:34
xm3u4vmp6 : 欸原本5090 32g算法六倍 等效192g 很爽欸 03/25 23:35
bndan : 情況..記憶體再屌也是好幾家能產..在這情況記憶體怎 03/25 23:35
bndan : 可能擴產比GPU慢 = = 03/25 23:35
xm3u4vmp6 : DDR 記憶體會更賣爆 因為一堆人想自組 03/25 23:35
waiting101 : 長期還是有需求…他們只是省 不代表不繼續買ㄚ ㄅ 03/25 23:38
BlairWang : goog 把mu 搞下去後 自已也下去了 03/25 23:40
ice80712 : 欸不是 谷歌自己先破底 03/25 23:40
bndan : 長期有需求 == 用PC來假設好了 假設CPU生產量永遠是 03/25 23:41
bndan : 瓶頸 那其他配件例如 記憶體 主機版 機殼等等 需求 03/25 23:41
bndan : 上限其實就被鎖住了..不管當地多缺PC拿去玩大資訊基 03/25 23:42
ppuuppu : qq狗狗 霸脫 03/25 23:42
bndan : 建 需求上限就是看CPU生產量阿= = 又不會忽然變成一 03/25 23:43
bndan : 台電腦1個CPU然後裝4張主機版+4個機殼之類的 =_= 03/25 23:43
wei683 : 演算法目前有辦法快到擋得了全世界的需求嗎 03/25 23:44
lnonai : 上下文需求幾乎是無窮盡的,只要還有KV 快取需求H 03/25 23:46
lnonai : BM就是多 03/25 23:46
lnonai : 這也會加速邊緣AI的發展 03/25 23:46
OxFFFFFFFF : 算力是越多越好 跟PC還有手機需求是不一樣的 03/25 23:47
bndan : 算力當然是效率越高越好 越多越好 能做的事越堆越高 03/25 23:48
bndan : 但記憶體不是 他是附件 終究會有效能提升的邊際效應 03/25 23:50
bndan : 遞減 而這個演算法更是這邊際再縮小6倍 03/25 23:50
bs167512 : 別再想記憶體的事了,油都沒了,還再記憶體 03/25 23:54
BoyceChu : 等於同樣規格下,可以做更多事 03/25 23:56
afacebook : 壓縮不是一直都有在做嗎 03/25 23:57

💰 股票 Stock 版:熱門文章

💰 股票 Stock 版:更多文章