🔥 PTT.BEST 批踢踢爆文 💬 八卦 Gossiping 😊 希洽 C_Chat 💰 股票 Stock 🏠 房屋 home-sale 🏀 美國職籃 NBA ⚾ 棒球 Baseball 👛 省錢 Lifeismoney 🚗 汽車 car 😡 政黑 HatePolitics 💻 電蝦 PC_Shopping 🥰 韓星 KoreaStar ✨ 英雄聯盟 LoL 🍿 電影 movie 🪖 軍事 Military 📡 通訊 MobileComm 🏀 台籃 basketballTW 🍼 寶媽 BabyMother 🇯🇵 日旅 Japan_Travel 🏭 科技 Tech_Job 👉 男女 Boy-Girl 👉 真香 CheerGirlsTW 👧 女孩 WomenTalk 👻 媽佛 marvel 💳 卡版 creditcard 👉 NS NSwitch 👉 PS5 PlayStation 👉 大氣 TY_Research 👉 婚姻 marriage 👉 台南 Tainan 👉 台中 TaichungBun 👉 Steam Steam 👉 高雄 Kaohsiung 👉 羽球 Badminton 👉 超商 CVS 👉 米哈遊 miHoYo 👉 iOS 👉 兄弟 Elephants 👉 日劇 Japandrama 👉 玄幻 CFantasy 👉 ES e-shopping 👉 WOW 👉 遊戲交易 Gamesale 👉 4X BaseballXXXX 👉 Lakers 👉 韓劇 KoreaDrama 👉 汽車買賣 CarShop 👉 機車 biker 👉 新竹 Hsinchu 👉 美保 BeautySalon 👉 串流 OTT 👉 歐美影集 EAseries 👉 手機交易 mobilesales 👉 健身 MuscleBeach 👉 MacShop 👉 Lions 👉 FGO FATE_GO 👉 中劇 China-Drama 👉 數位貨幣 DigiCurrency 👉 暗黑 DIABLO 👉 實習教師 studyteacher 👉 航空 Aviation 👉 藝文票券轉售 Drama-Ticket 👉 韓綜 KR_Entertain 👉 美妝 MakeUp 👉 速食 fastfood 👉 手錶 watch 👉 體適能 FITNESS 👉 攝影 DSLR 👉 Headphone 👉 嘻哈 Hip-Hop 👉 轉珠 PuzzleDragon 👉 美食 Food 👉 蔚藍 BlueArchive 👉 數位相機交易 DC_SALE 👉 筆電蝦 nb-shopping 👉 軟工 Soft_Job 👉 汪踢 Wanted 👉 台綜 TW_Entertain 👉 坂道閒聊 SakaTalk 👉 貓咪 cat 👉 日GO BabyProducts 👉 TypeMoon 👉 MLB 👉 職場 Salary 👉 臺劇 TaiwanDrama 👉 海賊王 ONE_PIECE 👉 PMGO PokemonGO 👉 國營 Gov_owned 👉 碧航 AzurLane 👉 家電 E-appliance 👉 布蘭德 Brand 👉 DMMG DMM_GAMES 👉 贈送 give 👉 神魔 ToS 👉 銀行服務板 Bank_Service 👉 原創 YuanChuang 👉 期權 Option 👉 重機 SuperBike
原文標題: GLM-5: From Vibe Coding to Agentic Engineering 原文連結: https://z.ai/blog/glm-5 發布時間: 2026-02-12 記者署名: 無 ※原文無記載者得留空 原文內容: We are launching GLM-5, targeting complex systems engineering and long-horizon a gentic tasks. Scaling is still one of the most important ways to improve the int elligence efficiency of Artificial General Intelligence (AGI). Compared to GLM-4 .5, GLM-5 scales from 355B parameters (32B active) to 744B parameters (40B activ e), and increases pre-training data from 23T to 28.5T tokens. GLM-5 also integra tes DeepSeek Sparse Attention (DSA), significantly reducing deployment cost whil e preserving long-context capacity. 我們正式推出 GLM-5,其目標是應對複雜系統工程與長時程智慧體任務。規模化仍然是提升 通用人工智慧智慧效率最重要的方法之一。與 GLM-4.5 相比,GLM-5 的規模從 3,550 億參 數(其中 320 億為啟動參數)擴展至 7,440 億參數(400 億啟動參數),並將預訓練數據 從 23T 提升至 28.5T Token。此外,GLM-5 整合了 DeepSeek 稀疏注意力機制,在大幅降 低部署成本的同時,仍保有優異的長文本處理能力。 Reinforcement learning aims to bridge the gap between competence and excellence in pre-trained models. However, deploying it at scale for LLMs is a challenge du e to RL training inefficiency. To this end, we developed slime, a novel asynchro nous RL infrastructure that substantially improves training throughput and effic iency, enabling more fine-grained post-training iterations. With advances in bot h pre-training and post-training, GLM-5 delivers significant improvement compare d to GLM-4.7 across a wide range of academic benchmarks and achieves best-in-cla ss performance among all open-source models in the world on reasoning, coding, a nd agentic tasks, closing the gap with frontier models. 強化學習旨在彌補預訓練模型在「勝任」與「卓越」之間的差距。然而,由於強化學習訓練 效率低下的問題,將其大規模應用於大型語言模型仍具挑戰性。為此,我們開發了「slime 」——一種新型的非同步強化學習基礎設施,能顯著提升訓練吞吐量與效率,從而實現更細 粒度的後訓練迭代。憑藉在預訓練與後訓練方面的進步,GLM-5 在各項學術基準測試中相較 於 GLM-4.7 有顯著提升,並在推理、程式碼編寫與智慧體任務方面,於全球所有開源模型 中達到了頂尖表現,進一步縮小了與前沿模型之間的差距。 心得/評論: https://i.meee.com.tw/DAfKbgq.jpg
智譜 (2513.HK) 發布了新一代大模型 GLM-5,基準測試已超越 Google 的 Gemini 3 系列 ,僅次於 Claude Opus 4.6 與 GPT-5.2 (深度思考模式)。 作為全球首個上市的純AI模型公司,上市後的第一個旗艦模型依舊維持MIT開源,任何人現 在都能下載直接用,這要怎麼賺錢?不過市場看起來很熱烈,早盤最高達到+33%了。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.79.16.163 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1770868985.A.244.html
kiss78832 : 能跟我說一下何時台灣才跟得上? 02/12 12:04
pmes9866 : DEEPSEEK,MINIMAX也推新的 02/12 12:04
jenchieh5 : 有沒有新的鬼故事模板... 02/12 12:04
Feting : 去年殺nv,今年殺狗 02/12 12:04
bnn : 99 GOOG 02/12 12:04
pmes9866 : 台灣有台積電 02/12 12:04
lusiao1978 : 唉都什麼時候了還在刷比分 02/12 12:04
kinve1014 : 上次那個還有氣嗎 放消息就是出貨吧 02/12 12:05
yellone741 : 怎麼有種既是感XD 02/12 12:05
sixkeeper : 去年已經示範過一次了,這次肯定不能錯過.... 02/12 12:05
Feting : 狗狗要多殺個20%了 99狗狗 02/12 12:05
barry841120 : 這個鬼故事去年講過了 02/12 12:05
post91 : 呃..嗯… 02/12 12:06
sing60905 : 中又贏 02/12 12:06
NAVY08 : 看起來GPT越來越難回收成本了,好期待永動機跑不動 02/12 12:06
post91 : 都要買晶片的 02/12 12:06
NAVY08 : 的時候。 02/12 12:06
dannpptt : 又要殺硬體嗎 02/12 12:06
JingPingKing: 沒創意 02/12 12:07
laytomalll : 沒有新的劇本? 02/12 12:07
iahc5566 : AI目前就都狗屁 02/12 12:07
ezorttc : deepfuck 02/12 12:09
seemoon2000 : 去年過年的劇本又來一次 02/12 12:09
fhjqwefs : 好厲害 大家都懂 02/12 12:10
Gipmydanger : 贏麻了 02/12 12:11
liscp : 去年演過一次 02/12 12:12
iamjojo : 今天就抓出說自己是claude 笑死 02/12 12:12
minazukimaya: 蒸餾真的猛XD 看來以後預訓練都是花錢讓別人爽而已 02/12 12:13
HiuAnOP : 笑死 02/12 12:13
fjuke : 鬼故事來了 年後開盤有鑽石撿嗎 02/12 12:13
starport : 這劇本我看過了 謝謝 02/12 12:13
minazukimaya: 蒸餾效果這麼好 以後大家都蒸餾就好啦 02/12 12:13
minazukimaya: 接下來競爭力就真的是比推論成本了 02/12 12:14
JKjohnwick : 誰信 02/12 12:14
KRV5566 : 去年過年就演過一遍了 02/12 12:14
a77942002 : 說那麼多我還不是需要google~C 02/12 12:15
SuiseiTrain : 一定爛 02/12 12:15
jackie0414 : 中國什麼都贏 贏麻了 02/12 12:15
dannpptt : 比誰家模型訓練成本最低! 捲起來~ 02/12 12:15
toff887 : 好耶 又能加碼賺更多 02/12 12:16
lawy : 贏麻啦哪次不贏 02/12 12:19
longmok2500 : 又來? 02/12 12:19
fcuhua : 去年被deepshit 騙過一次了 今年還來? 02/12 12:19
antiPUMA : 這劇本好熟悉 02/12 12:20
lackofblack : 喔喔喔喔是喔好怕喔 02/12 12:20
chita0258 : 又一個貼牌大模型 好喔 02/12 12:21
tchialen : 新年鬼故事 台股又又又躲崩 02/12 12:22
yuinghoooo : 中國什麼都要幹到供給過剩,房地產暴雷、電動車也 02/12 12:23
yuinghoooo : 炸掉、現在AI也要免費送 02/12 12:23
jack1042 : 只針對單一訓練資料拿高分 實際上好不好用不知道 02/12 12:23
yuinghoooo : 反正白菜價也不錯,不拿白不拿 02/12 12:24
TheRock5566 : 沒用呀 美國又不用你們的 02/12 12:24
lishiter : 中又贏,無敵的吧 02/12 12:25
KKKAO : 支又贏 支吹高潮 02/12 12:25
JaccWu : 中國最喜歡的 燒錢搶市占環節 02/12 12:25
JaccWu : 提高大家變現難度 02/12 12:25
brian040818 : 長江存儲不炒了嗎 02/12 12:26
JaccWu : 然後技術是抄/蒸餾來的 壓低成本 02/12 12:27
asjh612 : 那個deepseek我們不要了 02/12 12:27
materu : 最爛是阿祖。砸大錢被蒸餾仔超車兩次 02/12 12:28
syk1104 : 哇,好厲害喔,中又贏(平淡 02/12 12:28
asirk124 : 就互相競爭,有什麼了不起的,這之後也會被超越的 02/12 12:29
poeoe : 現在AI就看中美爭霸而已 其他人都邊緣化了 02/12 12:30
maniaque : 現在大陸基建能源多到滿出來,就只差算力而已 02/12 12:31
ltflame : 谷歌只要等別家慢慢追上再不慌不忙丟出新的碾壓模 02/12 12:31
ltflame : 型就好 02/12 12:31
maniaque : 別的國家因為電力散熱基建跟不上,蒜粒放倉庫 02/12 12:32
lesbian5566T: 凹嗚~狗狗買在321,慘了我要哭了 02/12 12:32
as6633208 : 孤狗被殺到頭破血流 好扯 02/12 12:32
ccr0857 : 要過年了 又來? 02/12 12:32
Westzone : 科科,整天吹,上次吹完deepseek後一樣沒人鳥 02/12 12:33
sirins : 別吹了 大家都走路去洗澡 02/12 12:35
sirins : *洗車 02/12 12:35
g5637128 : 贏麻了 02/12 12:37
WenliYang : 好了啦 我信還不行嗎 02/12 12:37
s213092921 : 華為昇騰算卡發威了XDD 02/12 12:37
yuebin : 讚啦!過完年有便宜的GOOG可以撿 02/12 12:38
heavenlyken : 又掰故事壓低吃貨 玩不膩 02/12 12:38
takeda3234 : 中國ai洗不動了 02/12 12:39
maxman77 : 好了啦 天朝又雙贏了 贏到沒朋友 02/12 12:40
Marginal : 來了,蒜粒過剩…「那個GPU我們不要了」 02/12 12:41
lbjstar : 好了啦,中國一定強 02/12 12:42
lbjstar : 意思意思 跌個5% 讓我補票上車 02/12 12:43
avmm9898 : 支贏 可惜支吹都很窮買不起陸股 02/12 12:44
keltt : 強不強需要時間證明,但中吹又能開始洗文大吹特吹了 02/12 12:44
twchih018 : 支那AI還真不敢用 02/12 12:45
andy79323 : 4.7 flash還行 02/12 12:46
yulun1984 : 大家都會 02/12 12:47
pinkg023 : 改拿打敗gemini打廣告了,gpt真的下去了嗎 02/12 12:48
lahugh : 勝啦 那次不勝 02/12 12:49
dogalan : 等贏過claude opus 4.6再跟我說 02/12 12:51
guanting886 : 智譜炒股有一套,股東賺利益 用戶享免費 02/12 12:52
guanting886 : GLM-5 就是一套蒸餾Claude的鬼才炒股之作 02/12 12:53
ma721 : 鬼故事太早了 02/12 12:54
FatFatQQ : 美國軟體股被血洗 有夠慘 02/12 12:54
guanting886 : 但對用戶來說應該性價比拉滿 02/12 12:54
chachabo : 99goog 02/12 12:55
s213092921 : 去年DS時刻讓歐美破防,今年字節SD時刻讓歐美AI破防 02/12 12:56
roseritter : 遲早會開發反蒸餾的惡搞方法 02/12 12:56
qazws931 : 所以上次那個deepsh_t怎麼了 02/12 12:57
ga023630 : 破三小防 支那人開口就說謊 02/12 12:58
ga023630 : 蒸餾claude的垃圾模型 笑死 02/12 12:58
ga023630 : 沒有美國人創新 支那什麼東西都做不出 02/12 12:58
s881720 : 過年鬼故事 又要來一次喔 好了啦 02/12 12:59
toper : 蒸餾蒸起來 02/12 13:00
qazws931 : 用過一次還被看穿的招 再用是能騙到什麼人 02/12 13:00
FatFatQQ : 美國被打到滿地找牙 也太慘 美吹繼續裝瞎哈哈 02/12 13:00
ga023630 : 支吹真可憐 偷東西還輸人 02/12 13:01
ga023630 : HBM EUV 也都做不出 偷東西還輸 可憐啊 02/12 13:01
cityhunter04: 忘記去年那個dp 了嗎?還要繼續吹捧啊? 02/12 13:03
yayohola : 感覺openai才要怕 02/12 13:05
lll111111111: 等等八卦一堆支吹網軍又跑來.. 02/12 13:06
nikoyaka9527: gemini有全家桶設計太方便了 02/12 13:06
ga023630 : 最近還抓到支那間諜偷TPU 的新聞 可憐啊 廢物國家 02/12 13:07
s213092921 : HBM今年要國產囉,EUV原型機已經出來了 02/12 13:07
a210510 : 去年鬼故事要開始了嗎 02/12 13:07
a210510 : AI需求衰退 記憶體需求也衰退 02/12 13:08
qazws931 : 連拆解DUV都還裝不回去 現在幻想EUV做出來了喔 02/12 13:08
ga023630 : 笑死 陸製HBM那種垃圾東西沒人要 EUV原型機還在吹 02/12 13:09
ga023630 : 長新存儲連1a都做不出 可憐 02/12 13:09
swbthj : 這是今年的鬼故事嗎? 02/12 13:10
flash789 : 最多死openai,狗的優勢沒變 02/12 13:10
hihi29 : 東升西降 以後ai就是大陸說的算的產業 02/12 13:12
FatFatQQ : 美國AI全是華人 有人超崩潰 02/12 13:14
ga023630 : 支那人只剩這個可以說嘴嗎 可憐 廢到笑 02/12 13:15
augustlion : 好了啦 去年deepseek用過了 02/12 13:22
house911 : 去年過年封關期間的鬼故事 又想來一次 ? 02/12 13:26
lyxiang : 這個劇情去年好像看過了欸 02/12 13:28
vltw5v : 跟去年的鬼故事差不多 有沒有新一點的? 02/12 13:29
dbdudsorj : 一年一度的大特價要來了 這次記得歐硬 02/12 13:29
deepelves : 剛封關馬上就鬼故事 02/12 13:31
wolver : 台灣沒電 02/12 13:32
as10082 : 哇靠有智障在吹中國ai真可憐 你不知道中國人也不用 02/12 13:38
as10082 : 自己ai嗎 02/12 13:38
as10082 : 黃種人都是華人美國崩潰 02/12 13:38
Merman19 : deepseek演過一次了 02/12 13:39
pansquarl : 這麼厲害,所以可以低腰撿 Google 了嗎 02/12 13:39
auther : 為什麼總是別人先推出中國再推出,能不能 有創意一點 02/12 13:39
al0w0l : 進一步縮小了與前沿模型之間的差距…怎到了標題就 02/12 13:39
al0w0l : 變成勝過Xxx 02/12 13:39
tom77588 : 放屁 02/12 13:40
gk1329 : 太猛了 還開源誒 02/12 13:40
Pixma258 : 蒸嵧酒就便宜貨沒人要喝呀,AI也是一樣 02/12 13:40
MumiPyonPyon: 現在最紅的是seedance 2.0, 這個根本無人在意 02/12 13:41
qazws931 : 看被deepshit騙過一次的會不會再被騙一次 02/12 13:42

💰 股票 Stock 版:熱門文章

💰 股票 Stock 版:更多文章