→ bnn : tapeout週期性發展 先做個大的把東西塞進去Demo功能 09/01 08:25
→ bnn : 然後再微縮化想辦法做小省錢提高die count 09/01 08:26
→ bnn : 做小後新的知識和layout成熟就繼續做大 堆數量提升 09/01 08:27
→ bnn : 達成更高單晶片算力 loop 09/01 08:27
推 sswgame : 推分享,學歷史 09/01 08:31
推 easyman : Edge 我賭riscv 09/01 08:33
→ totoro7923 : 商學組 有看沒有懂 淚) 09/01 08:38
推 davie11333 : 謝謝TQ王分享 09/01 08:43
推 sdbb : 謝謝 09/01 08:44
推 birdane32 : FPGA呢 09/01 08:46
推 stevenkuo : 厲害,六年級前端班生以上嗎 09/01 08:48
推 sdbb : 祝假期愉快 09/01 08:49
推 shead1983 : 好文值得推,感謝提供投資思維 09/01 08:51
推 meviswei : 嗯嗯對對跟我想的一樣 09/01 09:01
推 palapalanhu : 推 09/01 09:03
推 noddle : 感謝 09/01 09:17
推 roseritter : 推故事 09/01 09:20
推 dragonjj : 謝謝分享 現在似乎要專精於網路的迭算力 所以傳輸 09/01 09:33
→ dragonjj : 很重要 單個晶片就是拚不過輝達 要並聯了! 09/01 09:33
推 Destiny6 : 感謝分享,感覺LLM還要再變革架構才能更前進就是.. 09/01 09:35
→ Destiny6 : . 可能是用免費版CHATGPT吧,失憶還是滿嚴重的... 09/01 09:35
→ ActionII : 狗家兩邊都有成果,看影片感覺新披索的edgeai還不 09/01 09:43
→ ActionII : 錯 09/01 09:43
→ ActionII : 重返榮耀? 09/01 09:44
→ israelii : 阿里巴巴開盤就大漲18% 有夠猛 但台灣要買很麻煩 09/01 09:45
→ israelii : 應該沒有什麼人吃到這一波 可惜 09/01 09:45
推 pantani : 美股baba啊 蒙格之前被套很慘 09/01 09:49
推 flyawayla : 感謝前輩分享,先推再享用 09/01 10:03
→ welkin0105 : 美股的巴巴上周五就十多趴了,敢追要心臟大顆 09/01 10:10
推 qw99992 : 買狗沒事 09/01 10:18
推 strlen : 他的手穿過我的巴巴 09/01 10:32
推 atpx : 推分享 09/01 10:47
推 andy7829 : 推講古 09/01 10:49
推 masala : 推AI講古!我猜gpt無法講得比這篇好 09/01 11:12
推 tkc7 : 好奇架構為何不能用在LLM? 不都是deep learning 09/01 11:12
原來的架構記憶體不夠大可以處理LLM 訓練,
NVDA GPU 在那時候就已經可以串連(NVLink, NVSwitch)做LLM 訓練
→ rbelldandy : 卷起來棒 09/01 11:20
※ 編輯: waitrop (76.103.225.6 美國), 09/01/2025 12:04:45
推 lanslore : 推分享 09/01 12:04
※ 編輯: waitrop (76.103.225.6 美國), 09/01/2025 12:05:44
推 minazukimaya: 繪圖架構的天生優勢就是大通道高頻高容量記憶體囉 09/01 12:14
→ minazukimaya: 畢竟原本需求就要存大量的texture 09/01 12:14
推 minazukimaya: 我覺得下一波需求Server AI會從LLM往World Model走 09/01 12:17
→ minazukimaya: LM會下放到edge AI 但會往雲端調用高級需求(深度推 09/01 12:17
→ minazukimaya: 理之類) 09/01 12:17
→ minazukimaya: Edge需要更深度與Home和Glass之類的應用整合 09/01 12:18
推 hc23310 : 推一個 09/01 12:22
推 doitlasting : 好文推 09/01 13:32
推 doitlasting : 請問edge AI現在已經很成熟了不是嗎?例如車用、工 09/01 13:36
→ doitlasting : 廠自動化之類的,認為會有爆發性成長是指在更多領 09/01 13:36
→ doitlasting : 域? 09/01 13:36
EdgeAI 跟 SLM 只是個統稱,
其方向是對某些AI應用做本地端的硬體加速與應用,
每種不同的EdgeAI 跟 SLM 都有完全不同的設計,
所以EdgeAI 與SLM 的方向跟AGI剛好相反,
但是可以透過分散式處理達到AGI的效果
所以EdgeAI 很成熟只在特定某些部分的應用,
目前最成熟的是圖像辨識跟語音辨識,
比方說人臉辨識99.99%準確率,
阿里巴巴的含光最強的就是圖像辨識這塊,
被拿去裝在無人商店監視器, 天網系統, 小愛等等,
但是Chat GPT類的應用在 EdgeAI 非常不成熟,
目前只有Gemini 能夠在EdgeAI 本地執行,
OpenAI ChatGPT要遠端連線到伺服器處理
我個人看法,
自駕車跟智慧眼鏡雖然還稱不上是成熟,
但是自駕車跟智慧眼鏡的EdgeAI廣泛運用今年已經開始,
大概一兩年的時間能夠成熟,
監視器,語音辨識等等已經完全成熟,
最後最難的部分會是在手機的EdgeAI,
因為手機的EdgeAI 會比較偏向AGI,
各種AI應用都會想在手機上面實現
推 minazukimaya: Edge AI永遠都有功耗和性能提昇的需求 因為哪些應用 09/01 13:41
→ minazukimaya: 和運算會下放到Edge是一個動態進化的過程 09/01 13:41
推 lawy : 推 09/01 13:42
推 doitlasting : 類似windows或iso 要一直update然後越來越吃硬體規 09/01 13:45
→ doitlasting : 格這樣? 09/01 13:45
推 minazukimaya: 是也不是 作業系統再怎麼升級功能都是作業系統 09/01 13:49
→ minazukimaya: Edge AI的硬體升級是整個AI社會架構層面運算力分配 09/01 13:50
→ minazukimaya: 規劃與能源效率尺度的問題 09/01 13:50
推 ups : 漲知識:) 09/01 14:12
※ 編輯: waitrop (76.103.225.6 美國), 09/01/2025 14:42:14
推 bj45566 : 感謝業內人士分享 09/01 18:50
推 chiuweiyu : 感謝分享 09/01 20:20
推 beagle2001 : 之前稍微了解一下過,2010 年拿 GPU 去跑的時候 09/01 20:22
→ beagle2001 : 可能連黃董都沒想到過?! 09/01 20:22
推 minazukimaya: 黃董作CUDA最早是為了GPGPU 是不是已經預見了AI不好 09/01 20:56
→ minazukimaya: 說 但是最晚最晚到2014~2015他已經意識到了 09/01 20:56
推 coke7 : 感謝業內人士講古 09/01 21:49
推 gilikl : TQ王有料,勉強しました 09/01 22:50
推 intointo : @@ 09/02 08:34
推 outzumin : Core team=Gerard W.? 09/02 09:51
不是, 你說的Gerard W. 是nuvia,
主要是做筆電的CPU,
我是在nuvia之前的core team,
做手機CPU krait kryo,
後來整組幾千人被裁掉,
所以我才會中年失業,
這又是另外一個故事了
※ 編輯: waitrop (76.103.225.6 美國), 09/03/2025 11:47:56