推 aegis43210 : 人類的建立規則是靠五感的回饋機制不斷修正而來,但 06/16 02:09
→ aegis43210 : LLM只能靠文字 06/16 02:09
推 eric878787 : 目前AI只負責生成,不負責對錯 06/16 02:12
推 qwe78971 : LLM 講白 只是接受很多數據 然後連連看 哪個規律最 06/16 02:15
→ qwe78971 : 高 最匹配就用哪個 不是真正 thinking 根本不是AG 06/16 02:15
→ qwe78971 : I的方向 一旦碰到的東西沒這數據 就當機了 沒有學 06/16 02:15
→ qwe78971 : 習及糾錯能力 跟人腦差距還是太大 06/16 02:15
→ haha98 : 我比較認同Ilya的看法 目前的LLM甚至 MLLM只是一種 06/16 02:24
→ haha98 : 基於語意的壓縮世界模型 離真正的世界模型還差的遠 06/16 02:25
推 fajita : 目前的模型,等老黃賣到G2兆時看能不能突破 06/16 03:09
推 abc12812 : alphago下棋就沒這種問題 06/16 03:20
推 edward0811 : 生成式AI就大騙局,非人類進步方向 06/16 03:46
推 s0914714 : 生成式AI的概念可能只是人類思考的一部分而已 06/16 03:55
→ bobogei81123: 講的好像別人跟你說一句話 你是先拆成主詞 受詞... 06/16 04:55
→ bobogei81123: 再去理解分析的 06/16 04:55
推 ripple0129 : 其實大量的迴歸與收斂,最後答案都會越來越正確, 06/16 05:21
→ ripple0129 : 只是在於有沒有人校正什麼是錯誤什麼是正確。AI本 06/16 05:21
→ ripple0129 : 來就不應該完全與人類相同的思考模式發展,否則就 06/16 05:21
→ ripple0129 : 不可控了。讓AI限縮在LLM的極致與正確性,或許對人 06/16 05:21
→ ripple0129 : 類是一種安全的選擇。 06/16 05:21
推 guanting886 : 短時間內LLM還是要依賴Scale AI這類公司做資料清洗 06/16 06:04
→ guanting886 : 、修正跟媒合血汗打工仔幫忙打標籤 沒有工人智慧就 06/16 06:04
→ guanting886 : 沒有你現在看到的人工智慧 06/16 06:04
推 guanting886 : 目前人們要的就是想要一個酷東西 他們才不會在乎後 06/16 06:08
→ guanting886 : 面到底是統計模型 還是真的會推理 包括整個行業可 06/16 06:08
→ guanting886 : 能也不想戳這個東西的真相 06/16 06:08
推 guanting886 : 蘋果的論文可惜的是他發表的時間讓他們很尷尬 只有 06/16 06:15
→ guanting886 : 被討罵的份而已 06/16 06:15
→ guanting886 : 現在的Ai被包裝的很好 會有讓用戶認為他們是全能的 06/16 06:18
→ guanting886 : 但可能要小心其實會錯大 包括整理資料跟分析講結 06/16 06:18
→ guanting886 : 論 06/16 06:18
→ guanting886 : 用戶事後都要去驗證 但新的問題又來了 當你習慣什 06/16 06:20
→ guanting886 : 麼東西的丟給這樣的模型去幫你做整理 你要核實數字 06/16 06:20
→ guanting886 : 的難度就會變高 06/16 06:20
推 guanting886 : 因為藉由Ai你獲得了一個極佳的槓桿 你甚至可以一次 06/16 06:21
→ guanting886 : 做的工作量變得以往多好幾倍 06/16 06:21
→ guanting886 : 但也丟出很大的工作量給Ai 你無法有限的時間核實A 06/16 06:23
→ guanting886 : i給你說的數據是否正確 最後你會鬼遮眼選擇忽略會 06/16 06:23
→ guanting886 : 發生這個問題的事實 06/16 06:23
推 guanting886 : (之前拿某個模型來分析資料 看了模型在推理過程直 06/16 06:30
→ guanting886 : 到他崩潰/幻覺,不難想像如果這樣的東西要在蘋果手 06/16 06:30
→ guanting886 : 機上,我看某個用戶可能因為某個原因發生嚴重問題 06/16 06:30
→ guanting886 : 我看集體訴訟就來了 06/16 06:30
→ ewayne : 14樓,不然呢?還是你以為你可以在主詞受詞動詞都搞 06/16 06:37
→ ewayne : 不清楚的狀態下就能理解一個句子? 06/16 06:37
推 dildoe : 隨便問個簡單問題都略過萬數量詞了XD 06/16 06:39
推 pujos : @24樓,你可以藉由他有十倍百倍工作量,但你沒有十 06/16 06:54
→ pujos : 倍、百倍的驗證能量,所以錯誤就成了必然 06/16 06:54
→ pujos : 你還沒能力預防、控制這個“錯”,會不會出在什麼巨 06/16 06:55
→ pujos : 大的地方 06/16 06:55
推 NTUT56 : 看起來背後就一堆線性代書運算 06/16 07:05
→ NTUT56 : 所以線代真的超重要的,從來不會退流行 06/16 07:05
→ bobogei81123: 6歲小孩根本沒聽過主詞受詞這些概念 還不是聽得懂人 06/16 07:19
→ bobogei81123: 話 06/16 07:19
推 NTUT56 : 人家有爸媽天天跟他練英文,你有嗎 06/16 07:20
→ NTUT56 : 而且美國的小孩一樣要上英文課 06/16 07:20
噓 chang1248w : 現在token embedding dim不是2048起跳嗎= = 06/16 07:34
推 zero00072 : 有點概念了,有點像人類識別顏色座標,相近的顏色座 06/16 07:36
→ zero00072 : 標相近;但是色弱的座標相對狹窄。 06/16 07:36
推 mdkn35 : 詞性只是能更複雜地形容精確的狀態 不然只有名詞也 06/16 07:37
→ mdkn35 : 是能描述 06/16 07:37
推 kobebrian : 這篇描繪的算蠻深入淺出 06/16 07:39
推 xephon : 沒辦法很多猴子覺得AI會思考人類要毀滅了 06/16 07:44
推 Samurai : 這篇很專業了,LLM基礎就是模糊性,才適用語言交流 06/16 07:51
→ Samurai : ,拿來算數學容易錯誤 06/16 07:51
→ pujos : 不是算數學容易錯,而是這玩意容易驗證,對就對、錯 06/16 07:54
→ pujos : 就錯,生成其他文本類,錯了你也看不出來 06/16 07:54
→ pujos : 實際上它的架構、答案生成方式,就決定他做什麼都是 06/16 07:55
→ pujos : 容易出錯 06/16 07:55
推 prmotolprlin: 專業推 讚讚 06/16 08:09
推 jorden : AI弄個網格交易工具可以 要玩期貨可能有難度 06/16 08:14
推 gold9450412 : 我喜歡台大教授李宏毅的說法 大家都說AI只是找機率 06/16 08:24
→ gold9450412 : 最大的排列組合成句子 不是思考 06/16 08:24
→ gold9450412 : 但人類大腦何嘗不是這樣操作 同樣是計算出最有可能 06/16 08:24
→ gold9450412 : 的答案 06/16 08:24
推 ohlong : LLM只是像大腦裡面掌管語言的區塊 模仿的功能跟字 06/16 08:27
→ ohlong : 彙更強一點 我們也是從小透過學習文法跟單字可以拼 06/16 08:27
→ ohlong : 湊出語意暢通的句子 LLM就像模仿片語的巨量化 而觀 06/16 08:27
→ ohlong : 察小朋友還牙牙學語時 早就有思考邏輯能力了 AGM真 06/16 08:27
→ ohlong : 的還早 06/16 08:27
推 horseorange : 推 06/16 08:28
→ kkking : 台灣填鴨教育教出來的也沒好多少 06/16 08:32
推 Homeparty : 寫代碼跟畫圖好用,因為是人類創造有邏輯規則。但 06/16 08:44
→ Homeparty : 無法普及現實世界,因為現實轉換向量過於複雜。 06/16 08:44
推 Samurai : AI思考方式就跟人腦一樣,至於容不容易出錯,很難 06/16 08:46
→ Samurai : 定義,現在讓AI寫考卷,已經贏一大票學生了 06/16 08:46
推 a1379 : 推這篇 現在的AI跟人們幻想的AI根本是兩回事 06/16 08:48
推 dearevan : 推 06/16 08:53
推 vovovolibear: 長知識了 06/16 09:03
推 kyukyu : 謝謝分享 06/16 09:08
→ etrangere : 我猜那個推理也是偵測到關鍵字call function而已xD 06/16 09:14
推 a1234567289 : 推本篇 06/16 09:16
推 ProTrader : 對於AI與機器學習來說自有資訊分析與呈現的方式 06/16 09:17
→ ProTrader : 目前模型跟人類真正的資訊分析呈現方式並不相同 06/16 09:18
→ ProTrader : LLM只是盡可能讓結果與人類語言類似 06/16 09:19
推 steven961302: 好文 06/16 09:20
→ ProTrader : 這些模型分析追求的是最大可能性 並不能保證正確 06/16 09:21
→ ProTrader : 從google搜尋的角度來看 這是更好用的智慧型搜尋 06/16 09:23
→ ProTrader : 然而 這還不是有可靠度的任務代理人 06/16 09:24
推 Sinreigensou: 推 所以大型語言模型才有幻覺問題 06/16 09:27
→ Sinreigensou: 所以我搜尋東西還是盡可能用傳統搜尋引擎 06/16 09:27
推 fan415 : 不管你說的對不對,人家已經打趴9成人類的工作,該 06/16 09:34
→ fan415 : 慶幸機器不能像牛馬一樣負責任扛包,不然哪還有工 06/16 09:34
→ fan415 : 作給你做 06/16 09:34
推 addy7533967 : 線代...死去的記憶在攻擊我 06/16 09:36
→ ARTORIA : 9成...要吹也別這麼誇張 連大部分低端工作都還不能 06/16 09:40
→ ARTORIA : 做你跟我說9成 06/16 09:41
→ takase : 所以需要對齊啊 06/16 09:41
推 strlen : 其實我忘了在哪個地方看過 底層是靠機率在排出答案 06/16 09:46
→ strlen : 的這個模式 並不一定是錯的喔 想想看 這世界基本是 06/16 09:47
→ strlen : 量子力學所組成的 量子力學本身就有隨機性 06/16 09:47
→ strlen : 所以代表這個世界的基礎 其實也是建立在機率之上 06/16 09:47
→ strlen : 那為什麼量子能達到現在這樣「看似」普通的穩定態? 06/16 09:48
→ strlen : 答案就在量子的規模 夠巨大 隨機性被降到極低 就沒 06/16 09:49
→ strlen : 事惹 這也是為何奧本海默團隊有人就計算到 核彈是有 06/16 09:50
→ strlen : 機率燒掉整個大氣層 連鎖反應停不下來 但很低而已 06/16 09:50
→ strlen : LLM用機率當底層也沒什麼關係吧?出錯的機率夠低就 06/16 09:50
→ strlen : 好了 簡單說 方向就是把算力當量子 他X加爆就對了 06/16 09:51
推 moonlovemai : 蘋果的不行不代表別人的也不行 06/16 09:55
→ liliumeow : 人腦可能就是這樣思考的 06/16 09:56
推 pmes9866 : 人類大腦的預測能力屌打LLM 06/16 10:00
噓 uller : LLM確實是統計機率並不會思考,但這就必經的路,不 06/16 10:09
→ uller : 是說,這沒用,我不要研究。那你蘋果乖乖滾下去吧 06/16 10:09
推 hank850503 : 如果智慧的本質就是這樣呢? 06/16 10:23
→ hank850503 : LLM 現在辦到的就是我家鸚鵡會的 06/16 10:23
推 dream1124 : 推解釋 06/16 10:40
→ VicLien : 社群媒體狂洗某隻股票利多 就是一堆人會去買 誰說A 06/16 11:02
→ VicLien : I不如人 AI插電就學習 串越多學越快 取代5成人類 06/16 11:02
→ VicLien : 認知很難嗎 06/16 11:02
推 AlarmAlarm : 用這麼久AI 要由人判斷正確不是很明顯嗎 一堆說專 06/16 11:07
→ AlarmAlarm : 業要被取代就覺得好笑 講這種話的AI都沒用過幾次吧 06/16 11:07
推 axz123999 : 推推 06/16 11:48
→ aloness : 驗證這個狀況只適合擁有專業的人來執行,對外行人 06/16 12:13
→ aloness : 來講,不論是透過ai給答案,還是自己翻書湊答案, 06/16 12:13
→ aloness : 無法保證兩邊都能對,此時ai因為被問過同樣類型的 06/16 12:13
→ aloness : 問題次數多,ai的答案方向或許還比自力學習來的可 06/16 12:13
→ aloness : 靠 06/16 12:13
→ aloness : ai並不是在創造解答,但一般人遇到的問題多半都是 06/16 12:15
→ aloness : 另一個人每月每年都在處理的,ai只是在各領域吸收 06/16 12:15
→ aloness : 每月每年都在處理的例行公事,回答提問人 06/16 12:15
→ Tatsuya72 : 標籤這件事就代表工人智慧 06/16 12:44
→ Tatsuya72 : 靠吹AI欺世盜名撈錢的共犯結構沒那麼容易放棄 06/16 12:46
→ Tatsuya72 : 加上戰爭的因素,給了他們能最大化剝削資源的機會 06/16 12:47
→ Tatsuya72 : 操弄恐懼 06/16 12:48
→ Tatsuya72 : 如一年前提過,過度投資的泡沫會比想像中更快到來 06/16 12:49
推 guanting886 : 長期使用下來的心得:只利用他的統計特性減少我找 06/16 12:52
→ guanting886 : 尋某一種全新知識的時間 至於他能不能直接解決問題 06/16 12:52
→ guanting886 : 通常 不能 06/16 12:52
推 guanting886 : 就連詐騙集團都認爲LLM做翻譯 裡面的文法都不一定 06/16 12:55
→ guanting886 : 是常用或合理的 06/16 12:55
推 guanting886 : 數值運算證明了 只要他不call python來算,他的回 06/16 12:58
→ guanting886 : 答是基於數據裡面某一種類別的資料的解題過程來湊 06/16 12:59
→ guanting886 : 答案 就好比一個沒唸書的學生為了應付考試 題目什 06/16 12:59
→ guanting886 : 麼他就到處看書的東湊西湊只求這題能寫點什麼 06/16 12:59
推 guanting886 : 他的狀況很像阿里巴巴全球數學競賽醜聞 那位被老師 06/16 13:00
→ guanting886 : 當分身帳號使的少女 06/16 13:00
→ guanting886 : 她根本無法解題 只是受老師指示抄給她的答案送上去 06/16 13:02
→ guanting886 : 要她真的理解根本不能 因為她連某些公式符號是什 06/16 13:02
→ guanting886 : 麼都不知道 06/16 13:02
→ guanting886 : 寫程式碼這件事只能說更離譜 因為特性的關係 程式 06/16 13:03
→ guanting886 : 碼都是掰的(LLM特性) 06/16 13:03
→ guanting886 : 就好比你在stackoverflow發起一個問題 結果回答你 06/16 13:04
→ guanting886 : 的人 解決方案都是想像出來的 他也跑過 06/16 13:04
→ guanting886 : 也沒跑過 (這個部分大概要解決 只能要讓ai想程式 06/16 13:08
→ guanting886 : 碼的時候 要同步出你的環境條件 藉由不間斷的試錯 06/16 13:08
→ guanting886 : 他可能才勉強真的驗證過回答是正確的 06/16 13:08
推 guanting886 : 但實現上困難 簡單環境可以 複雜一點他的運算資源 06/16 13:09
→ guanting886 : 會反向被濫用或DDoS別人 06/16 13:09
推 Samurai : 人思考過程也是一樣啊,根據學習經歷去找出能解決 06/16 13:09
→ Samurai : 問題的方法,只是目前模型沒這麼全能 06/16 13:09
→ guanting886 : 目前LLM是能解決某些問題 但是他的一開始的架構就 06/16 13:11
→ guanting886 : 已經決定他的極限在哪 06/16 13:11
→ guanting886 : 人類學習過程會試錯 得到經驗 06/16 13:11
→ guanting886 : LLM是抄題仔 他的答案是沒有被驗證過的 06/16 13:12
推 Samurai : 模型學習本質就是試錯得到經驗,也一樣 06/16 13:12
→ Samurai : 另外模型訓練過程,資料會分成驗證組,不是沒驗證 06/16 13:13
→ guanting886 : 如果他要為他的答案負責 大多數你大概會寧可關掉視 06/16 13:13
→ guanting886 : 窗 因為非常慢 運氣好他陷入幻覺你要的答案根本你 06/16 13:13
→ guanting886 : 等不到 06/16 13:13
→ guanting886 : 為什麼Scale Ai這間公司很重要 因為數據來源跟有沒 06/16 13:14
→ guanting886 : 有做好整理就大多決定了模型的能力 06/16 13:14
推 guanting886 : 我認為現在研究團隊應該就是趁這個時間在熱度的高 06/16 13:16
→ guanting886 : 峰 拿到投資人的錢看能不能解決LLM的真實痛點 06/16 13:16
推 Samurai : 人也是一樣啊,唸了國文課本但去考數學一樣爆炸XD 06/16 13:16
→ guanting886 : 在這之前大家都會盡可能拖就拖 06/16 13:17
→ guanting886 : 嗯。~我只想表達LLM真的離通用Ai真的蠻遠的 但也 06/16 13:18
→ guanting886 : 因為這個東西的誕生 人們之間的資訊落差 的確有改 06/16 13:18
→ guanting886 : 善 06/16 13:18
推 jodawa : 推 06/16 13:19
推 rickyiu : 推 06/16 13:25
推 johnlin35 : 推 06/16 13:46