推 john11894324: 理論物理可能更近一步 02/18 14:53
推 stocktonty : 哪天會發現伺服器只是人類腦力極限才想到的低效方式 02/18 14:55
→ stocktonty : 耗能且低效 開發出比這個更快更簡單的運作系統 02/18 14:56
噓 Chilloutt : 新失業人口 02/18 15:01
推 kingofsdtw : 完了,以後不需要數學家了 02/18 15:03
推 yylin3266 : 未來會不會在論文上看到 GPT et. al.阿 02/18 15:07
推 Kobe5210 : 理論物理研究的速度可望因AI而加快 02/18 15:07
推 rainin : 噴 往下的那種 02/18 15:08
推 seemoon2000 : 仔細想想 包括蛋白質和數學用演算找出答案的 AI未 02/18 15:10
→ seemoon2000 : 來應該都能做得更好 畢竟他們一秒能出幾十種解 02/18 15:10
噓 strlen : 這不重要 奧覽較還我瑟瑟 02/18 15:10
推 ceca : 用AI解科學問題不是30年前就在做的事情? 02/18 15:12
→ ceca : 20年前我碩士也是用類神經解機構阿. 02/18 15:12
→ ceca : 現在大概就是跑快一點,延伸功能更方便一些. 02/18 15:13
推 heavenlyken : 更顯得研究生論文像垃圾 02/18 15:14
→ ceca : 在商業上取代很多工作,例如最近種災的設計業. 02/18 15:14
→ ceca : 是有可能. 02/18 15:14
→ ceca : 但是,用AI解科學問題,應該是早就全世界都這樣幹. 02/18 15:14
→ LoveSports : 這篇說的差別好像是在於GPT自己立假說 02/18 15:17
推 c928 : 假議題 02/18 15:18
推 seemoon2000 : 用AI解算法以前那麼強 就不會需要等deepmind破圍棋 02/18 15:19
推 peteryen : 很多研究生的論文就是在做新實驗而已,以前是土法 02/18 15:22
→ peteryen : 煉鋼一個一個試,以後就是能用更複雜更多組合去跑 02/18 15:22
→ peteryen : 模擬 02/18 15:22
推 kingofsdtw : 樓上太厲害啦! 一次n個變因 02/18 15:23
推 ceca : 整個AI是線性發展的,隨著台積電的晶片成長. 02/18 15:23
→ ceca : 除非是高算力才扯到算力中心. 02/18 15:24
→ kingofsdtw : AI無腦多 02/18 15:24
→ ceca : 因此不是"我們現在終於有AI"了.. 02/18 15:24
→ ceca : 然後一夕之間大家都長翅膀可以飛天. 02/18 15:24
→ ceca : 而高算力中心主要是運算能力強大,速度快很多. 02/18 15:24
→ HiuAnOP : 失業增加!Ai續崩! 02/18 15:24
→ ceca : 但是以前...算一個AI算一個星期不是很常見.XD 02/18 15:25
推 seemoon2000 : 我就簡單說 以前那麼厲害 就不會要近代才能打敗在 02/18 15:28
→ seemoon2000 : 格子上下圍棋的人 是到近代深度學習才統一算法 02/18 15:28
推 jessicaabc98: C寶別亂扯了,留在房版好嗎 02/18 15:30
推 Sianan : openai!! 02/18 15:33
推 horse2819 : 歐噴醬 被看衰這麼久終於要爆發了? 02/18 15:34
推 ceca : 啥?連這個都不懂..難怪是魯空..哈哈哈. 02/18 15:37
→ ceca : 下圍棋是當下算. 02/18 15:37
→ ceca : 要是你給他每一步算1天. 02/18 15:37
→ ceca : 那早個五年也可以把棋王幹掉..XD 02/18 15:38
→ ceca : 所以為啥AI看著台積電的晶片.. 02/18 15:38
→ ceca : 主要是運算速度問題. 02/18 15:38
→ ceca : 但內容,是1943的數學模型. 02/18 15:39
推 jessicaabc98: 好了啦C寶,你在想啥還在運算速度? 02/18 15:39
→ ceca : 然後到今天,還是再用類神經. 02/18 15:39
→ ceca : 你又沒改其他架構..大不了在一個模糊系統. 02/18 15:39
→ ceca : 也就是車子就是四顆輪子. 02/18 15:39
→ ceca : 你今天是F1..還是四顆輪子. 02/18 15:40
→ ceca : 阿就說你整個大外行我也很無奈..XD 02/18 15:40
噓 bj45566 : ceca 的發言真是笑死人wwww 三十多年前沒有 LLM 的 02/18 15:40
→ bj45566 : AI 配上當時破銅爛鐵的硬體連圍牆遊戲都被人類壓在 02/18 15:40
→ bj45566 : 地上摩擦好嗎? 02/18 15:40
→ ceca : 你大語言模型去解物理學公式..XD 02/18 15:41
→ ceca : 你不要笑死人好嗎..XD 02/18 15:41
→ ceca : 你要不要找一個簡單的AI程式入門看一下. 02/18 15:41
→ ceca : 了解一下到底AI是甚麼和你到底對AI的認知是怎樣.XD 02/18 15:42
→ ceca : 外加你沒聽老教授說. 02/18 15:42
→ ceca : 他們早年做研究. 02/18 15:42
→ ceca : 學校只有一個地方可以跑運算. 02/18 15:42
→ ceca : 還要去排隊送資料. 02/18 15:42
推 breathair : 奇點近了! 02/18 15:43
→ ceca : 外加20年前早就AI論文氾濫了..XD 02/18 15:43
噓 bj45566 : 講個笑話:三四十年前的類神經網路架構和現今的 LLM 02/18 15:43
→ bj45566 : AI 沒有什麼改變wwww 02/18 15:43
→ ceca : 那時候工科的一堆人動不動就要跟AI掛上邊. 02/18 15:43
→ ceca : 所以用AI去解科學,30年前就開始了,20年前就熱了. 02/18 15:44
→ ceca : 這邊念工程的一堆..他們自己想是不是. 02/18 15:44
推 nfsong : 奇點快到了 已經在脫離人類領域 02/18 15:44
推 wind93 : 原來不是gpt爛 是我沒有問他物理學? 02/18 15:44
推 ProTrader : 1990後AI冰河時期是因為類神經網路遇到模型瓶頸 02/18 15:44
→ nfsong : 樓上建議去爬一下 AI發展史 02/18 15:44
→ nfsong : 現在的AI和以前不是一個東西 02/18 15:45
→ breathair : Ceca 大,你需要請LLM幫你科普一下10年前跟現在AI的 02/18 15:45
→ breathair : 差別 02/18 15:45
→ ProTrader : 後來2005前後的優化論文才改名"深度學習"突圍 02/18 15:45
推 seemoon2000 : 就不懂 一開始講錯 後面努力要凹 何必討論 02/18 15:45
→ nfsong : 從Deep learning 到 GPT 02/18 15:46
→ ProTrader : 冰河時期類神經網路就像票房毒藥計劃肯定不會過 02/18 15:46
→ nfsong : GPT - Generative Pre-trained Transformer 02/18 15:46
噓 bj45566 : 笑死,沒有引進深度學習技術的 AI 連人臉辨識都跑得 02/18 15:46
→ bj45566 : 一塌糊塗好嗎,嘻嘻 02/18 15:46
→ nfsong : LLM transformer 02/18 15:47
→ nfsong : 上一個突破是 deepseek 邏輯推理 02/18 15:47
→ ProTrader : 當初人臉辨識 手寫數字文字辨識 是AI技術巔峰 02/18 15:47
→ ProTrader : 金融海嘯後深度學習在影像辨識大放異彩 02/18 15:48
→ nfsong : 類神經網路教父 都說不明白了 02/18 15:48
→ nfsong : 推進的太快 教父自己都被甩開了 02/18 15:48
→ ProTrader : 到之後AlphaGo算是讓AI揚眉吐氣 02/18 15:49
→ ProTrader : 再之後爆發是ChaGPT直到現在依然繼續 02/18 15:50
→ nfsong : Geoffrey Hinton deeplearning 教父 02/18 15:50
→ nfsong : 自己都有些跟不上了 02/18 15:51
→ ProTrader : 辛頓在AI冰河時期持續類神經網路的研究才優化模型 02/18 15:51
→ nfsong : 開頭這句話送給大家 02/18 15:51
→ ProTrader : 他是可以退休的年齡了跟不上很正常 02/18 15:52
→ nfsong : 你各位像是 坐第一排的好學生 啥都不懂 02/18 15:52
→ nfsong : 但是問題問得好 02/18 15:52
→ CYL009 : 全部人類都要失業www 02/18 15:53
推 nfsong : 不用的人類會失業 02/18 15:54
推 FULLHD1080 : 教父年紀大,沒有辦法吸收那麼多新的變化 02/18 15:54
→ nfsong : 用了以後AI會告訴你 去哪找工作 02/18 15:54
→ ProTrader : 要說AI跟以前相同在於本質上都還在找線性迴歸最佳解 02/18 15:54
推 a1234567289 : 現在LLM和1990左右的AI 概念上高度統一的 現在只 02/18 15:54
→ a1234567289 : 是有了Attention based的模型架構然後多了一個宣傳 02/18 15:54
→ a1234567289 : 名詞叫做深度學習 02/18 15:54
→ ProTrader : 各式各樣的多元資料與各種新模型本質還是線性迴歸 02/18 15:55
推 xerioc5566 : 貝氏定理 02/18 15:55
→ ProTrader : 但這不是說現在的AI真的跟199X年代的AI相同 02/18 15:57
→ a1234567289 : 1990神經網路是透過向後傳遞改變權重去回歸資料 02/18 15:57
→ a1234567289 : 讓他去資料中間找出pattern 跟現在LLM沒啥不同 02/18 15:57
推 nfsong : 問AI 就會告訴你 02/18 15:57
→ ProTrader : 就像2026的人類跟石器時代的人類都是人類但差異很大 02/18 15:57
→ nfsong : 2017以前的RNN CNN 和現在Transformer是不同東西 02/18 15:58
→ ProTrader : AI在理論與實務的進步是很直接明確可以驗證的 02/18 15:58
推 quanhwe : 某c咖又鬧笑話了 我怎麼說又了呢 02/18 15:59
→ ProTrader : 比方說生成式AI對人類的影響空前巨大 02/18 16:00
推 YCL13 : 大數據時代前後講的AI是不同等級的事情 02/18 16:00
推 nfsong : AlexNet (2012) ResNet (2015) GAN/AlphaGo 02/18 16:00
→ ProTrader : 很古早的時候也就生成亂數 生成電腦棋局對弈 02/18 16:01
推 a1234567289 : 現代跟當時的差異是 為了找出更細緻的pattern 後 02/18 16:01
→ a1234567289 : 來人們發明了Convolution/LSTM等OP Attention也是 02/18 16:01
→ a1234567289 : 在Loss function以及訓練方式都有了長足進展 02/18 16:01
→ ProTrader : 之前的A片要換臉 現在的A片可以直接生成 02/18 16:02
→ nfsong : AlphaGo除了層數變多 還增加了功能層(戰略層) 02/18 16:02
→ a1234567289 : 所以說不同也是不同 但本質精神都是用參數對資料做 02/18 16:02
→ a1234567289 : modeling 02/18 16:02
→ nfsong : AlexNet 8層 ResNet 152層 02/18 16:03
→ ProTrader : 所以要說現在206的AI 199X時代一樣是不對的 02/18 16:03
→ ProTrader : 2026 02/18 16:03
→ a1234567289 : 因此我覺得ceca不算有說錯 只是它忽略了中間進步了 02/18 16:03
→ a1234567289 : 一大段 02/18 16:03
推 breathair : 基本可以看作transformer 架構前後AI完全不同,tran 02/18 16:04
→ breathair : sformer 範式讓智能「湧現」或是「頓悟」,哈薩比斯 02/18 16:04
→ breathair : 說,要到AGI,我們還差1-2次transformer等級的範式 02/18 16:04
→ breathair : 升級 02/18 16:04
→ a1234567289 : 現代的算力和參數差異 讓現在效果和當時有了巨大差 02/18 16:04
→ a1234567289 : 異 02/18 16:04
→ ProTrader : 比較好的說法是 都不是AGI強人工智慧 02/18 16:04
→ nfsong : 除了垂直的增加層數 還有橫向的增加層數 02/18 16:04
→ nfsong : 以前就是一層 modeling 02/18 16:05
→ nfsong : 現在幾百萬層 02/18 16:05
→ nfsong : AlphaGO 之所以開始輾壓 也是增加了 "戰略層" 02/18 16:06
→ nfsong : 有了大局觀 02/18 16:06
→ nfsong : 會判斷 那邊地盤大 02/18 16:07
推 ProTrader : 以前蓋茅草屋是人類要住 哈里發塔也是人類要住 02/18 16:07
推 xerioc5566 : 硬體限制突破 有無限想像 02/18 16:07
→ ProTrader : 可是說茅草屋跟哈里發塔真的不一樣 02/18 16:07
→ ProTrader : 蓋茅草屋跟哈里發塔都要土地 人類還沒進入異次元 02/18 16:08
→ ProTrader : 可是茅草屋跟哈里發塔的技術差異太大了 02/18 16:09
推 LonyIce : 不就圖靈的升級版 02/18 16:11
推 nfsong : 你可以看看Oliver Henry 的Openclaw agent 02/18 16:14
→ nfsong : 自動寫文案 生成影片 發布 02/18 16:15
→ nfsong : 然後用觀看率 來調整cta Call to Action 02/18 16:16
→ nfsong : 最近你會看到有些頻道 專注一些東西 02/18 16:17
→ nfsong : 女性打棒球 02/18 16:18
→ nfsong : 動物的故事 02/18 16:18
→ nfsong : Amazon 包裹小偷 02/18 16:18
→ nfsong : 這些都是自動發布的 02/18 16:18
推 windalso : 大統一場論更近了!? 02/18 16:19
→ nfsong : 像這種頻道 我看到有20幾個 02/18 16:20
→ nfsong : 比大聯盟的還好看 02/18 16:23
推 ProTrader : 沒用來生成跟多慧一起運動的影片 失敗 02/18 16:23
→ nfsong : 因為大聯盟 分鏡不可能 擺進場內 02/18 16:23
→ FatFatQQ : 房版魯多 賠超慘 在這胡言亂語 好慘 02/18 16:29
推 alex01 : 驗證完了嗎? 02/18 16:37
推 ivan1116 : 硬體變得越來越重要 02/18 16:40
推 truelove356 : 中國模型也解出來ㄌㄜ 02/18 16:41
推 littleliu : 還不頒個碩士學位給他 02/18 16:50
推 nakayamayyt : 電力用在這也是很好的利用了 02/18 16:50
推 sses60802 : 嗯嗯 跟我想的一樣 02/18 16:52
推 drph : 2奈米和28奈米本質上都是CMOS,所以概念上一樣,但 02/18 16:58
→ drph : 是製程精度和device結構不一樣。 02/18 16:58
推 herculus6502: 奇點將至? 02/18 17:01
推 nfsong : 奇點!! 02/18 17:03
推 sdbb : G點!? 02/18 17:03
推 Cactusman : 嗯嗯跟我想的一樣 02/18 17:05
推 Kobe5210 : 上個世紀<機器學習的AI>跟現在<深度學習的AI>,已 02/18 17:05
→ Kobe5210 : 經不是用28奈米到2奈米可以類比的了 02/18 17:05
→ Kobe5210 : 還是專心做股票比較好,強迫自己學東西放大人生格 02/18 17:05
→ Kobe5210 : 局跟財富 02/18 17:05
推 ericsonzhen : 數學系差不多要廢的意思? 02/18 17:07
推 cloud1030 : 又多一批失業仔 02/18 17:12
推 solomonABC : 審判日要來了嗎? 02/18 17:15
推 Arad : ai到最後到達的境界人類會無法理解 02/18 17:15
推 FlyBird : AI閉環快完成了,文明準備三級跳 02/18 17:31
推 overpolo : 恩恩 果然用在我身上是在浪費算力阿.. 02/18 17:36