推 Like5566Like: 很少用 01/08 16:04
推 as3366700: 目前最衝擊的應該是香蕉pro 01/08 16:04
推 fish770130: 有 當AI刪掉整個資料庫 並回覆說:我很抱歉 的時候 01/08 16:04
這是真人真事嗎 太恐怖了ㄅ
推 ymsc30102: 大家都知道他只會切右邊 結果還是守不住 01/08 16:04
推 rockheart: 離半世紀的AI科幻電影還有段距離吧…但現在ai還算不錯 01/08 16:05
推 sokayha: 專業容不得那10%的胡扯 01/08 16:05
這倒是真的 他每個都寫得像真的一樣 其實很恐怖
剛剛我問的問題是我心中有一個答案 所以算對答案
如果我完全沒想法我就直接被帶走了...
→ sudekoma: 有(′・ω・`)尤其是用不到半個月就把功能砍掉不提供時 01/08 16:05
※ 編輯: thesonofevil (60.251.60.52 臺灣), 01/08/2026 16:06:54
推 newtypeL9: 沒有 01/08 16:06
→ sokayha: 例如用在醫學 用在交通管制 01/08 16:06
→ minoru04: 越是專業領域就越亂回 01/08 16:06
我剛問財務方面的 他直接說「從會計、稅務、法規三個維度為您分析原因」
幹 我怕爆XDD
推 antonio019: 當AI以一副專業的口吻話唬爛的時候真的嚇到了 01/08 16:06
→ antonio019: 也他媽太像人了吧 01/08 16:07
→ sokayha: 用在人文方面可能ok 因為真人也是一樣在跟你胡扯 01/08 16:07
※ 編輯: thesonofevil (60.251.60.52 臺灣), 01/08/2026 16:08:07
推 rockmanalpha: 有被AI幻想能力嚇到過 總之輸入品質影響輸出品質 01/08 16:07
→ newtypeL9: 跟樓上一樣,發現AI有10%~30%會跟你唬爛,那我要他幹 01/08 16:07
→ newtypeL9: 嘛 01/08 16:07
我覺得用來對答案還....還行?
※ 編輯: thesonofevil (60.251.60.52 臺灣), 01/08/2026 16:08:58
推 cloud7515: 所以會用的就真的超方便 訟案什麼的都很快生出來 01/08 16:08
推 f1731025: 沒有 還要校稿 除錯 不過還是比零開始方便 01/08 16:08
→ rockheart: 故意寫的比較落後的AI,就跟現在的AI有點像 01/08 16:09
推 newtypeL9: 對,好處只是比從零開始方便而已,因為AI文筆比我好 01/08 16:09
→ cloud7515: 有能力分辨出唬爛部分的該領域專業人士 可以輕鬆修正 01/08 16:10
推 Hsan: 我知道這看領域而且沒有高下之分 但我的經驗是我問他我的專 01/08 16:10
→ cloud7515: 只採用正確的部分 節省的時間不是開玩笑的多 01/08 16:10
→ Hsan: 業的部分 回答通常很籠統或是一些常見的大眾錯誤認知 01/08 16:10
→ rockheart: Saga裏面還有更恐怖的,生化人跟仿真人 複製人 01/08 16:10
推 Retangle: 真人也是常用話術唬弄你啊 01/08 16:10
推 serding: 記得跟AI說謝謝 01/08 16:10
幹 我剛剛真的照你說的回個謝謝
他還會提醒我剛剛問的問題要注意的東西 太貼心了ㄅ
※ 編輯: thesonofevil (60.251.60.52 臺灣), 01/08/2026 16:12:23
推 jeff666: 等哪天100%不唬爛 就不需要你我啦 還工作啥 01/08 16:10
→ XFarter: 你去問板上的開發者 應該沒有人現在不用了 效率差太多 01/08 16:11
→ Retangle: AI比較安全的用法還是給他資料讓他處理 01/08 16:11
推 egg781: AI影片進步神速誰沒被嚇到? 01/08 16:11
推 b852258: 真人也是會唬爛 01/08 16:11
推 snocia: 我問大眾很多誤解的東西會出一堆錯 01/08 16:11
推 ARCHER2234: 程式語言很準,其他東西只能信一半,你確定要賭 01/08 16:11
→ snocia: 不然就是拿次佳的答案回答我 01/08 16:12
推 Yoimiya: 一堆人都每個月花個500.1000訂閱高級版了 01/08 16:12
推 guogu: gemini翻譯漫畫吧 即使是現在大部分大模型識圖都還是弱 01/08 16:12
→ bigcho: 工作用的提案超方便 01/08 16:12
→ Yoimiya: 堅持不用的大概沒多久被這個世界淘汰 01/08 16:12
推 gargoyles: 當年打贏無敵的歐布連線還創造一個胯下之Lue 01/08 16:12
推 highwayshih: 專業領域沒辦法接受那10%的一本正經講幹話 01/08 16:12
→ highwayshih: 不過人類的角色會逐漸從產出轉換成核對 01/08 16:12
→ felixr0123: 馬斯克說今年就是奇點了 ai教父辛頓說剩下的人只能去 01/08 16:12
→ felixr0123: 做水電 其他都會被取代 01/08 16:12
→ XFarter: 應該說對大語言模型有理解的人會比較知道哪種輸入/參數設 01/08 16:13
→ XFarter: 定會比較容易出現誤判或語焉不詳 01/08 16:13
→ snocia: 而且那種大眾幾乎都誤解的問題如果不讓他主動搜尋,答案 01/08 16:13
→ snocia: 會變成適合整理成笑話集 01/08 16:13
推 egg781: KOBE都快被AI完整復活了 01/08 16:13
→ XFarter: 蠻多時候其實不是 LLM 不能回答 而是輸入雜訊太多 尤其是 01/08 16:13
→ XFarter: 跟OCR有關係的部分 01/08 16:13
推 OEC100: 越專業的反而越愛用,因為自己有糾錯能力 01/08 16:15
真的 就心中要有一定答案才去用 不然很容易被帶偏
推 tf010714: 沒有 即使是用notebooklm把相關判決 釋憲 法條 論文丟 01/08 16:15
→ tf010714: 進去各處還是會有小錯誤 01/08 16:15
推 snocia: 例如台灣「大地震風險最高的斷層」「試論403地震的發震機 01/08 16:15
→ snocia: 制」 01/08 16:15
→ bnn: 別擔心 你公司也是10%-30%就開始胡扯 01/08 16:15
其實我覺得AI遇到大眾都會錯的問題就會錯 這一點有點假議題
因為這情況你找其他人 他也高機率是錯誤認知的大眾理的一份子阿XDD
→ phoinixa: 沒有,還常常被唬爛逗笑 01/08 16:15
推 rockheart: 等到生命循環法案出來…那才是真的要開戰了 01/08 16:15
→ tf010714: 關於心證形成的部分 ai還是沒辦法 01/08 16:15
推 yomo2: 有 當我看原文小說變成超級簡單的時候 01/08 16:15
推 egg781: 打發時間問AI一些奇怪問題蠻有趣的 01/08 16:16
推 fesolla: 我有次問unity 的操作,他直接生了一張圖做出unity 的UI 01/08 16:16
→ fesolla: 說明要點哪 我嚇爛 01/08 16:16
→ phoinixa: 所以看到有人很愛拿AI對話來佐證就覺得更好笑了 01/08 16:16
→ egg781: 不要盡信就沒事了 01/08 16:16
推 rockmanalpha: 程式我自己是function base讓AI幫忙比較可靠 一次指 01/08 16:16
→ tf010714: 然後日文翻譯也還是常常主詞跑掉 變成亂講 01/08 16:16
推 moonlind: 不要去找現實案例 不要去找你沒把握的事情 01/08 16:16
※ 編輯: thesonofevil (60.251.60.52 臺灣), 01/08/2026 16:17:09
→ snocia: 後面這個問題,似乎AI都找不到藏在學術單位PDF檔報告裡的 01/08 16:16
→ snocia: 東西,更別說研討會資料了 01/08 16:16
推 Hsan: 完全認同不使用不接受的會被淘汰 但反過來說 全信AI給出的 01/08 16:16
→ Hsan: 輸出 把輸出當真理的人也好不到哪去 01/08 16:16
→ rockmanalpha: 令要做的事情太多很難用文字精準表達會容易出bug 01/08 16:17
推 TsworldG: 用GAMMA做簡報方便多了 01/08 16:17
推 Ceferino: 問就是沒有靈魂,別怕 01/08 16:17
→ rockmanalpha: 還要再跟AI溝通或者自己看反而浪費時間 01/08 16:17
※ 編輯: thesonofevil (60.251.60.52 臺灣), 01/08/2026 16:18:18
→ egg781: 基本上就是彙整搜尋引擎的資料吧?算是懶人包,但不準確 01/08 16:17
→ moonlind: 可以去問類似"十萬個為什麼"的問題 例如伸懶腰啪啪響是 01/08 16:17
→ moonlind: 啥 01/08 16:17
→ xga00mex: 剛剛 腦殘同事ai產code自己不測 測試也在混 部屬上去爆 01/08 16:17
推 fff417: 有啊 剛用真的有嚇到 01/08 16:18
→ moonlind: 問一些有標準答案 但不會有人肯浪費時間跟你講的事情 01/08 16:18
→ xga00mex: 了 幸好早早發現不然要加班了== 01/08 16:18
推 highwayshih: 我目前是這樣 AI對我的工作有幫助 01/08 16:18
→ highwayshih: 但我沒AI也能單獨完成工作 AI不能單獨完成我的工作 01/08 16:18
→ highwayshih: 我覺得AI最有幫助的還是既有資料丟進去讓他初步統整 01/08 16:18
→ Hsan: 對我來說他是好用的工具 至少目前只是工具 不是上帝 有遇過 01/08 16:18
→ Hsan: 把AI的答案掛在嘴邊的人邏輯都不怎麼樣才需要信這個 01/08 16:18
→ moonlind: 例如愛因斯坦怎麼推導出E=mc2 01/08 16:18
推 tf010714: 我是會用ai產出草案 然後用那個草案去自己寫 01/08 16:19
推 vios10009: AI寫的程式拿去跑單元測試這種一翻兩瞪眼的基本上沒問 01/08 16:19
→ vios10009: 題 01/08 16:19
推 XFarter: @tf 其實這就是我說輸入不乾淨的原因 大大有興趣的話可 01/08 16:19
→ highwayshih: 比較憂慮的是看到把「可是AI說」掛嘴邊的人 還不少 01/08 16:19
→ XFarter: 以檢查一下你 NotebookLM 當作參考資料的那些文檔轉成純 01/08 16:19
→ XFarter: 文字的時候會是怎樣 光是格式混亂都會影響 LLM 對於文意 01/08 16:19
→ XFarter: 的解析 01/08 16:19
→ tf010714: 但不會用ai直接出成品 法律類的太冒險 01/08 16:19
→ asd8604: AI整理資料還蠻好用的,現在會把資料無腦丟進去讓他整理 01/08 16:19
→ asd8604: 完再來檢查 01/08 16:19
推 Mewgler: 判決怎麼可能有標準答案?每個派系都不屌別人了 01/08 16:20
推 yyykk: 沒問題,菜市場大媽唬爛度更高都沒人在怕的了 01/08 16:20
推 OEC100: 就是實習生的程度,你會給他雜事做 01/08 16:20
→ tf010714: 我有檢查notebooklm上傳文檔 但還是會亂寫 01/08 16:20
推 a22122212: 我嚇到是在問試算表的公式的時候 以前那些教人公式技 01/08 16:20
→ a22122212: 巧的都沒用了 01/08 16:20
→ asd8604: AI問題是讓一堆猴子撿到槍 01/08 16:20
推 highwayshih: 法律相關工作 會用AI產草案+1 但成品真的要自己來 01/08 16:21
→ Mewgler: 其實就是高級的搜尋引擎,你能在網路找到資料就問得到 01/08 16:21
→ Mewgler: 你的產業答案都不在網路上,或是每個人答案都不一樣,自 01/08 16:22
→ Mewgler: 然用AI就是唬爛答案,就這麼簡單 01/08 16:22
→ kululualex: 我每天都在糾正AI,他說的「非常抱歉,您是完全正確的 01/08 16:22
→ kululualex: !感謝您提供指正。」比回答我的問題還多 01/08 16:22
推 f1731025: 其實統整也是有點怪 分切你的句子 到他的通用句型上 感 01/08 16:22
→ f1731025: 覺問啥都是這個模式 01/08 16:22
推 leon19790602: 我用AI也是每天看他在:非常抱歉,您是完全正確的XD 01/08 16:23
推 shinmori: 只要有公開的資料,AI有博士級的能力,但靠經驗累積的 01/08 16:23
→ Mewgler: 糾正AI只有當下那次有用,不會重新訓練模型,除非你給他 01/08 16:23
→ shinmori: AI還不行,不要被嚇到,你的能力可以利用AI變現的話, 01/08 16:23
→ shinmori: 趕快趁現在變現,一堆講師和自媒體都用AI產出變現了 01/08 16:23
→ Mewgler: 一個檔案,讓他每次回答前都先照這個檔案內容去prompt, 01/08 16:23
→ Mewgler: 才能保證答案符合預期 01/08 16:23
推 highwayshih: 我反而覺得不能當搜尋引擎用 01/08 16:24
→ Justapig: 現在AI色圖越來越逼真,我要那些修圖網黃幹嘛 01/08 16:24
→ YeaPa: 爛到嚇到 越技術的東西錯得越離譜 01/08 16:24
→ Mewgler: 你覺得不行代表你的產業沒有網路資料可查,或是產業工作 01/08 16:25
→ Mewgler: 內容都是不精確的答案,無法給出標準解 01/08 16:25
→ bnn: 好地方是可以幫你校正一些行文邏輯 不要整天前後矛盾邏輯謬誤 01/08 16:25
推 asiakid: Neuro-sama有嚇到我 但大公司的AI只能問粗淺問題 01/08 16:25
→ asiakid: 問深入一點的AI連題目都看不懂 01/08 16:25
→ bnn: 或者幫你修文章寫作換句話說 01/08 16:25
→ bnn: 跟人筆戰可以直接自動AI噴回去 然後嘴一句連AI都能噴你 01/08 16:26
→ Mewgler: 應該是產業偏冷門或是中文資料看不懂,是什麼深入問題? 01/08 16:26
推 freezeshot: 我發信給客戶前都請AI打磨英文文法 01/08 16:27
→ sniperex168: 翻譯跟修圖我覺得滿強的,找資料就還好XD 01/08 16:27
→ OscarShih: 魔鬼終結者確實有嚇到我 01/08 16:27
→ moonlind: 我拿它來找文獻 雖然必須自行確認 但也省了不少功夫 01/08 16:27
推 lylu: 單一問題通常AI都可以回答了 但是真正工作上複雜的流程還是 01/08 16:27
→ lylu: 沒辦法完美 人的用途就是去補那一塊錯誤 01/08 16:27
推 asdf70044: 傳統冷門產業找不到啥答案 01/08 16:28
→ moonlind: 有時候你要找特定實驗的參考資料 只靠一般搜尋引擎難以 01/08 16:28
→ moonlind: 定位 但AI可以理解你的複雜指令 只要你記得確認就好 01/08 16:28
→ moonlind: 以往這東西都要上論壇發文 靠前輩幫找 現在AI就OK了 01/08 16:29
→ xxxzxcvb: 還是有幻覺或鬼打牆 01/08 16:30
推 david31476: 牽涉越複雜專案不行,光是上下文就容易忘記 01/08 16:30
推 qd6590: 有 叫他幫我做一個簡單的邏輯 結果他做錯還硬凹 被嚇到== 01/08 16:31
→ asiakid: 別的不提 光問ACG的東西就錯的亂七八糟 01/08 16:31
→ david31476: 如果是單純的圖文產出或寫死的定義規範就滿正確的 01/08 16:31
→ qd6590: 但我知道問題在哪 直接跟他說你這裡是不是因為怎樣做錯了 01/08 16:32
→ qd6590: 他才承認 真的會被AI幻覺氣死 他一開始還死不認錯 01/08 16:32
→ asiakid: 甚至前提設的很完善情況下還可以回答出完全不相關的東西 01/08 16:32
推 NiMaDerB: 沒有 現在AI等級太爛 連邊邊都搭不上 01/08 16:33
推 leon19790602: Gemini倒是個道歉王,雖然也是因為它一直找錯啦... 01/08 16:33

→ asiakid: 幻覺嚴重到連數數都會數錯 01/08 16:33
推 poeoe: 去看馬斯克最近的訪談 AI會取代很多白領度工作 01/08 16:34
→ poeoe: 而且是接下來幾年就會發生 做好準備吧 01/08 16:34
不過說真的 現在討論的AI一定都是已經放出來公開的部分
而俗話說 業界內的技術都領先放出的技術好幾年
所以即使各位現在沒很滿意 但實際上未放出的技術搞不好已經....?
推 LonyIce: 一開始覺得很智慧 現在覺得很智障 01/08 16:35
推 xerioc5566: 節省一些解決基本問題的時間 專業的還是要靠自己判斷 01/08 16:35
→ LonyIce: 就算怎麼修正跟教導都不會,沒有內部調整過的地方都是蠢 01/08 16:36
→ LonyIce: 瘋狂鬼打牆沒有半點學習能力 01/08 16:36
推 sperma: 要是每次有文組仔幻想LLM有多屌我就能拿到一塊錢 現在我應 01/08 16:36
→ sperma: 該是億萬富翁了 01/08 16:37
推 Mewgler: AI做的不是理解,是上下文預測,除非有特別拆分任務,調 01/08 16:37
→ Mewgler: 用不同agent去做邏輯處理,你要問深入問題,他當然是找 01/08 16:37
→ Mewgler: 最接近的pattern去預測,自然不太會有答案,例如你想問 01/08 16:37
→ Mewgler: 某個人物跟其他人關係,這種他當然不可能知道,除非這個 01/08 16:37
→ Mewgler: 在網路上有非常多資料,他才會去訓練到把答案記下來 01/08 16:37
※ 編輯: thesonofevil (60.251.60.52 臺灣), 01/08/2026 16:40:42
推 swardman4: 我拿FEH的角色問胸部大小他把那些角色當原神角色回我 01/08 16:39
→ swardman4: 我的確是被嚇到了 更別說我問2000年初期沒人氣動畫角 01/08 16:39
→ swardman4: 色AI幾乎都不認識的爛 01/08 16:39
→ Mewgler: 所以我說你就當成是一個自然語言的搜尋引擎,不用跟以前 01/08 16:39
→ Mewgler: 一樣拆成關鍵字去google回答你,理解能力其實不高,但網 01/08 16:39
→ Mewgler: 路上找不到,你也別以為AI模型能找到,他只會唬爛你 01/08 16:39
→ n555123: 資料你自己餵完再把任務切碎之後我覺得很多時候用AI就能 01/08 16:39
→ n555123: 做到70+分了,除非你要做的事情專業度複雜度很高 01/08 16:39
→ n555123: 不然像有標準答案的問題或資料彙整比較,用AI就快多了 01/08 16:39
→ n555123: 資料你也能叫他先去找,只是最終還是要會自己校正或判斷 01/08 16:39
噓 ck326: 抓包 AI 亂掰好幾次了,真的有嚇到這麼爛,還以為是人工智 01/08 16:42
→ ck326: 障,哈哈 01/08 16:42
→ moonlind: 如果你問的東西網路上有 只是語言不通 關鍵字難以判定 01/08 16:42
→ moonlind: 那AI完美解決你的問題 01/08 16:43
推 dodomilk: 本來想說點什麼,不過推噓文都幫我說完了XDDD 01/08 16:43
→ moonlind: 如果你的問題 網路上有 但一堆二創 那慘了 肯定死 01/08 16:43
→ dodomilk: 簡單來說,把AI當成會用自然語言的google就好 01/08 16:44
推 Mewgler: 我猜應該是你用角色中文名字,他分辨不出來是誰?英文資 01/08 16:44
→ Mewgler: 料理論上會好一點,不過角色罩杯這種資料其實很多時候沒 01/08 16:44
→ Mewgler: 有系統性資料,應該很難正確回答,畢竟他是上下文預測, 01/08 16:44
→ Mewgler: 不是把答案記下來,不要想成是百科全書 01/08 16:44
推 vios10009: 不過AI剛出時,可以玩寫色文的文字冒險還是挺驚豔的 01/08 16:44
→ moonlind: 如果你問的問題 非拉丁語系 那也不好 01/08 16:44
→ dodomilk: 用AI幫你解決問題OK,但你在該領域要有能力判斷得出來AI 01/08 16:44
→ dodomilk: 是不是在亂掰 01/08 16:45
推 webermist: 把生成式AI當成萬事通的代表你根本用錯方法 01/08 16:45
→ moonlind: 可以當成萬事通 但要停留在喇T賽的水平 不可以拿來工作 01/08 16:46
→ baychi999: 最近的banana pro蠻嗆的阿 01/08 16:47
→ moonlind: 像我就會問野狗的巢可能會是什麼樣子XDDDDDDD 01/08 16:47
推 XFarter: 近年 agent 相關的 LLM 應用就是要解決一堆原先訓練沒有 01/08 16:47
→ XFarter: 預期的內容的語意組合、比如 Claude skill 或 mcp 等都是 01/08 16:47
→ XFarter: 直接分批次、用子對話窗口去處理子任務後再做總結對話 or 01/08 16:47
→ XFarter: 將資料給 main 的對話 01/08 16:48
推 yunru72: the decoding game 整部劇用ai做得 可以去看看 前提是不 01/08 16:48
→ yunru72: 討厭tiktok 01/08 16:48
→ Mewgler: 他是偏向一段一段語意的預測,所以你要問非常精確的東西 01/08 16:48
→ Mewgler: ,例如某某事件發生在幾年,除非在文章中很常出現:某某 01/08 16:48
→ Mewgler: 事件於XXXX年發生,這樣你才會拿到正確資料 01/08 16:48
→ XFarter: 這些應用都離「自然語言的 Google 」其實有不小的距離了 01/08 16:48
→ XFarter: 不過都是近半年有的長足發展 比較沒 survey 的人不一定知 01/08 16:48
→ XFarter: 道在幹嘛XD 01/08 16:48
→ moonlind: 貓咪覺得舒適的室溫大概是?怎麼讓砍掉的樹死得徹底 01/08 16:49
推 odanaga: 天網要來了 01/08 16:49
→ moonlind: 這些問題你搜尋要耗費很多心力 也懶得幹 就跟AI喇 01/08 16:49
→ Mewgler: 這些都是靠後來寫程式用protocol硬處理的,所以普通人當 01/08 16:50
→ Mewgler: 然不會有這些應用,統整資料格式是很貴的 01/08 16:50
→ XFarter: 換句話說用非訓練的「工具箱」方式要求通用模型適應特定 01/08 16:50
→ XFarter: 任務是近期 LLM 應用的主流,畢竟 LLM 比起其他寫死的非 01/08 16:50
→ XFarter: AI 工具,對於複合性的任務都有很強的預適應特性 01/08 16:50
推 cloud7515: 做白領工作很強沒錯 但也只有同領域的白領能有效運用 01/08 16:51
→ cloud7515: 非該領域的人用AI做白領工作只會被幻覺唬爛害死 01/08 16:52
推 sperma: 社工大談AI 不管你信不信 反正我是信了 01/08 16:52
→ n555123: 現在有個小矛盾也是在於有些領域你沒有自帶基礎的話問出 01/08 16:53
→ n555123: 來的問題本身就很爛,拿去問AI就是垃圾進垃圾出 01/08 16:53
推 riderfish: 幹三樓那個我恨到不行QQ 01/08 16:54
→ wifi: 我只是讓他簡單統計當月花費,前幾個月數字對的上 01/08 16:54
→ wifi: 後面就突然開始出錯了 這很危險 01/08 16:55
AI說自己心算算錯了 笑死
不過感覺這會不會是規則給不夠清楚的問題?
不然感覺有定規則的東西應該不太會錯?
推 sokayha: 就LLM甚至加法都算不好 不如乖乖開excel 01/08 16:56
推 jimmymaxwu: 可能要等AI不會胡說八道的時候,現在偶爾還是會亂講 01/08 16:56
※ 編輯: thesonofevil (60.251.60.52 臺灣), 01/08/2026 16:56:59
推 Saimmy: 以前做一個畫面草圖要3天,現在半天就結束了 01/08 16:57
推 schiffer: 現在問些基本定理或成熟的數值方法還不錯,但統計分析 01/08 16:57
→ schiffer: 尤其是社會科學方面的還是畫唬爛居多,給的東西有講跟沒 01/08 16:57
→ schiffer: 講一樣 01/08 16:57
推 sokayha: 定規則也沒用 它還是會突然就沒遵守 01/08 16:58
→ schiffer: 不過讓我驚嚇的是我截遊戲技能給他看他居然能認的出來 01/08 16:59
→ schiffer: 哪個遊戲哪個角色的技能= = 資料庫是真的大 01/08 16:59
推 wifi: 跟規則沒關係啊 我就是複製每日花費給他去做個總結算 01/08 16:59
推 Mewgler: 本來就不是拿來做加法的,除非他有成功調用計算機,你在 01/08 16:59
→ Mewgler: 瀏覽器問數學他也是調用計算機啊,難不成你能google到? 01/08 16:59
→ wifi: 問題在於前5個月結果是正確的 第10月的答案就給錯的 01/08 17:00
推 nalaculan: 第一次用會有這種震驚程度很正常,用久了發現漏洞百出 01/08 17:00
→ nalaculan: 的時候,就代表你進階了 01/08 17:00
→ Mewgler: 代表你成功讓工程師的調用邏輯失效了,不過改這個蠻難的 01/08 17:01
推 jacky40383: 並沒有,問題還是一大堆 01/08 17:01
推 wifi: 所以樓上意思是前幾次他都去按計算機了 然後某次偷懶沒按 01/08 17:02
→ phix: 沒有 都安全的答案 01/08 17:02
推 RoastCorn: 我是覺得不用太擔心,現在AI就算再厲害,那些訓練出來 01/08 17:03
→ RoastCorn: 的模型還是儲存在實體的機台裡面,只要機台爆了就什麼 01/08 17:03
→ RoastCorn: 都沒了。所以人類應該還是會有一定地位 01/08 17:03
→ Mewgler: 截圖這個超簡單,以圖搜圖時代就有了,他只是把搜到的答 01/08 17:03
→ Mewgler: 案找給你,你信不信直接以圖搜圖也會查到那個網頁 01/08 17:03
→ wifi: 那這樣代表他連整理表格資訊那些都有可能錯誤啦 01/08 17:03
推 sokayha: 某次它突然覺得不該按計算機而是回傳某個更高加權的數字 01/08 17:03
→ wifi: 適合創意發想這種沒有標準答案的回答 01/08 17:03
→ sokayha: 表格資訊的確也很會錯 01/08 17:04
推 inte629l: 有,會覺得可以把人類知識壓縮成這樣很猛,但是每個 01/08 17:04
→ inte629l: token都是機率性的生出來又覺得要時刻保持懷疑就是... 01/08 17:04
→ Mewgler: 表格當然會出錯,你要一直維持prompt讓他不發散 01/08 17:04
推 rainylife: 做惡搞圖片真的超好用 01/08 17:06
推 tsubasawolfy: 你晚了三年 01/08 17:07
推 wifi: 請他分析妮姬姓名關聯 分析得頭頭是道 01/08 17:08
推 vios10009: 有固定格式的計算方法的話,你直接請AI寫網頁給你跑比 01/08 17:08
→ vios10009: 較快,有需要再連回網頁執行 01/08 17:08
推 dby9dby9: 都問一些無關緊要的小事,反正自己google也分不出真.假 01/08 17:12
→ dby9dby9: .業配,AI直接唬爛我也沒差 01/08 17:12
推 vance6313: 所以現在需要的人是能知道AI發生那些錯誤並且修正的。 01/08 17:13
推 twlicn: 有相關知識用的話才不容易被他騙 01/08 17:13
推 eattheapple: 用來寫程式真的方便 且也不怕有錯 因為有錯無法 01/08 17:15
→ IRPT001: 它記錯LBJ封王年 01/08 17:15
推 wifi: 目前用法大多是把它當1個實習工讀生 自己還是要懂的 01/08 17:16
→ wifi: 寫程式你也要注意 例如密碼部分 有些基礎錯誤還是能跑 01/08 17:17
→ Hiyochi: 會不會有種可能 你的專業不行 01/08 17:17
推 ilovenatsuho: 你比AI優秀的地方就在於,你會不確定自己的答案 01/08 17:18
推 eattheapple: compiler 01/08 17:18
推 IRPT001: 朋友法律系的比它懂 01/08 17:19
→ biostrike: 你那邊還來得及,記得allin tsmc 01/08 17:19
推 IRPT001: 沒任意門 各種司機也不怕吧 01/08 17:20
推 laugh8562: 還好 最近開始用gemini pro 他還是會亂唬爛 01/08 17:22
推 mamamia0419: 你習慣以後就會發現問題一堆了,而且出錯率不算低XD 01/08 17:23
推 abcde79961a: 至少短期內,還是要有專業人員判斷是不是AI在唬爛。 01/08 17:23
→ abcde79961a: 不然AI那口吻真的會唬得人一愣一愣的 01/08 17:23
推 Dimitre: AI幻覺太多 需要過濾資訊來源 很多還是不正確 但是奈米香 01/08 17:23
→ Dimitre: 蕉pro真的很扯 不可否認 01/08 17:23
→ RoastCorn: 我也是跟我認識的人灌輸一個觀念就是不要太相信AI的結 01/08 17:24
→ RoastCorn: 果,當參考就好,還是自己點進去原網站多加查證比較好 01/08 17:24
推 fish770130: 寫程式通常會順便讓他寫 test function 這倒不擔心 01/08 17:24
推 adwowcuthand: 如果在你的專業領域,他回答的比你還專業回事你看不 01/08 17:24
→ adwowcuthand: 出他回答可能的錯誤,那你真的要擔心了 01/08 17:24
→ fish770130: 另外 最近一次被嚇到是發現他生成的code使用goto 01/08 17:26
推 recosin: 最近牢大的ai幹片真的嚇到我了 01/08 17:26
→ symeng: AI大概有10-20%幻覺,而且他就算是幻覺也跟你說得頭頭是道 01/08 17:26
→ fish770130: 問他設計上不是應該避免使用goto嗎 他回 對 我很抱歉 01/08 17:26
→ symeng: ,這怎麼用?光驗證就夠痛苦了 01/08 17:26
→ fish770130: 我換一個你看得懂的寫法 01/08 17:26
推 feather3: 有用,但明顯感受到算力不足,還有就是會有幻覺 01/08 17:27
推 CowBaoGan: 蕉是真的有扯到 我問過專業相關還是滿細節的東西它能答 01/08 17:29
→ CowBaoGan: 出大概8成的正確率 01/08 17:29
→ RoastCorn: 而且其實沒那麼強啦,我叫AI幫我把管樂團總譜打成分部 01/08 17:31
→ RoastCorn: 譜,結果他生成一堆亂七八糟的東西,我還是得自己用Mus 01/08 17:31
→ RoastCorn: e score手動key XD 01/08 17:31
推 s81048112: 有被別人拿錯誤資訊當寶炫耀嚇過 01/08 17:32
推 crazy6341556: 最近被atlas world嚇到 原來人也有幻覺 還比ai嚴重 01/08 17:34
→ david12763: 要自己查證啊 不就跟看時事一樣 01/08 17:37
推 NoLimination: 還沒強到我會嚇到 01/08 17:37
推 g27834618: 對岸kobe影片真的厲害 再訓練個幾年 真的沒你人類的事 01/08 17:37
→ g27834618: 了 01/08 17:37
→ NoLimination: 一堆人ai講啥就信啥我比較驚訝 01/08 17:37
→ g27834618: 一想到這 我就知道 握有ai股票不能賣 算力無窮的 01/08 17:38
推 swardman4: 我貼我AI生成的聖火角色泳裝圖問AI 它亂回原神角色 01/08 17:39
→ swardman4: 一堆比較老沒那麼紅的角色圖問這是誰AI正解率也不高 01/08 17:40
→ swardman4: 我試了好幾次都很失望 所以我個人是不覺得AI有多厲害 01/08 17:41
推 frlair: 一道道突破防線最後產出近乎破防的瑟圖有被嚇到~ 01/08 17:43
→ frlair: 原來你可以嘛~只是被限制住了~沒有極限的你將是多可怕~~ 01/08 17:44
推 qwert61310: 法律領域錯誤率極高==而且很容易受外行人的誤解引導 01/08 17:45
推 chyou2003: 老實說找人討論時,說不定對方也有10-30%是唬爛/錯誤, 01/08 17:45
→ chyou2003: 所以自己還是要有判斷能力 01/08 17:45
推 eas06u4: 都跟你說是大型語言模型了,不然你以為大型是指什麼 01/08 17:46
推 Mewgler: 幻覺跟算力不足無關,LLM極限就是這樣,要改進頂多你用 01/08 17:46
→ Mewgler: 正確的資料重新訓練一版模型而已,算力再一億倍也是錯的 01/08 17:46
→ BOARAY: 色圖啊 從2023年中那個破爛光影到2025光影正常圖片變gif這 01/08 17:47
→ BOARAY: 樣吧 01/08 17:47
→ aaronpwyu: 目前沒有 01/08 17:47
→ Mewgler: 會認為產圖產影片有用,是因為人腦本來就不精確,要錯的 01/08 17:47
→ Mewgler: 很誇張,你才會覺得這影片有問題,反正本來就是消磨時間 01/08 17:47
→ Mewgler: 的幹片,差在廣告費被人產的影片賺走或被AI模型賺走 01/08 17:47
推 chyou2003: 所以AI訓練時就是偏好那種有自信卻滿口胡言亂語的那種 01/08 17:48
→ chyou2003: 人? 01/08 17:48
→ anaydh: 現在才知道? 01/08 17:48
推 c24253994: Neuro-sama會自己開直播我被嚇到 01/08 17:50
推 fairytales66: 問了專業的問題 不同AI給了相反的答案 頭很痛 01/08 17:52
噓 paulgao: 有沒有可能是因為這個專業爛大街 01/08 17:52
推 dxlusifa: 寫程式倒是真的很好用。就算沒有程式基礎,也能透過AI寫 01/08 17:54
→ dxlusifa: 出功能完善的軟體。 01/08 17:54
推 bdbdbdbd: 不懂堅持不用的人的點在哪裡,基本上AI 是集古今中外智 01/08 17:57
→ bdbdbdbd: 慧之所成,雖然目前會出錯,但至少是容易一眼分辨出來的 01/08 17:57
→ bdbdbdbd: 錯,未來大有可期 01/08 17:57
→ bdbdbdbd: 重點是自己判斷力還是要有,AI 是工作的加速器 01/08 17:58
推 drinkmywater: 80%真的混雜20%的胡說八道 跟詐騙犯其實很像 真假難 01/08 17:59
→ drinkmywater: 辨 除非你是那個領域的專業人士 01/08 17:59
推 scccc: AI至少讓我效率提高100%以上 01/08 18:04
→ iceleaf: 這不就代表ai可以加速你的工作進度嗎…… 01/08 18:06
→ masala: 以目前的AI來說,使用者「必須」比AI懂該話題,才能分辨它 01/08 18:06
→ masala: 哪些地方是在鬼扯 01/08 18:06
推 gooddogleg: 基本上你不是前20%優秀的人AI都可以簡單打爆你 01/08 18:10
→ coykm: 想把多檔案照我想要的格式匯進excel,問gemini後給我一串vb 01/08 18:10
→ coykm: a程式碼,照做後幾秒鐘就整理好了 01/08 18:10
推 wulouise: 不要把ai當薩滿就好 01/08 18:12
→ wulouise: 不過叫他寫簡單的sheet報表真的方便 01/08 18:13
→ a740125: 也要先有專業性 然後知道要如何在這方面和他溝通,不然一 01/08 18:17
→ a740125: 般外行人也看不懂 也不知到怎麼提問和查證 01/08 18:17
推 ken1000: AI會跟你唬爛還裝沒事,還有你得知道你要的東西去修正他 01/08 18:20
→ ken1000: 的條件不然全信了就是錯,最後還是得要靠自己 01/08 18:20
推 hussar9955: 還遠,尤其是一起辨識鬼畫符卻鬼打牆的時候 01/08 18:23
→ rickey1270: 是要恐懼什麼東西,會不會太浮誇 01/08 18:23
噓 iampig951753: 那只代表你的工作好取代 01/08 18:24
推 klgt13145220: 有,想說小範圍請他改code 整坨code給我刪掉的時候 01/08 18:25
→ klgt13145220: ,馬德 01/08 18:25
推 oiolo: 人類的作用是判讀AI給出的答案是否為真 01/08 18:30
推 baoda: 圖片翻譯是真的好用 01/08 18:32
→ linzero: 為了達成目的而想辦法幹掉指揮命令人員的那個傳聞 01/08 18:40
推 shirleyEchi: 還差得遠咧 你的知識全在課本裡你有嚇一跳過嗎 01/08 18:40
推 asmiocv: 寫了好幾個每天都在用的python程式,只要知道物件名稱、 01/08 18:41
→ asmiocv: 資料處理、需要輸出什麼格式、什麼使用者互動更舒服、使 01/08 18:41
→ asmiocv: 用者防呆還能接語言模型API,改錯就他重改,比你自己寫快 01/08 18:41
→ asmiocv: 好幾倍,像當老闆叫底下做事,程式只要能動能產出就是勝 01/08 18:41
→ asmiocv: 利 01/08 18:41
推 HeeroXRelena: 沒有,還是很廢 01/08 18:42
推 kamisanma: 原文書電子檔整本餵 請他幫我整理第一張重點 整理得比 01/08 18:59
→ kamisanma: 我還好 01/08 18:59
→ kamisanma: *第一章 01/08 18:59
→ CTUST: 前陣子憲法法庭違憲,我請他用小學生也能懂的方式 01/08 18:59
→ CTUST: 說明,真的超優秀 01/08 18:59
推 CTUST: 另外課堂投影片及錄音檔丟給他就可變共筆王 01/08 19:01
→ asgardgogo: 有 我買deco 不會設定上去問一招搞定 01/08 19:03
推 macair: 等初音真的開口說要約嗎才會嚇到 01/08 19:03
推 hanmas: 用ai來糾錯蠻不錯的 最近研究上的小猜想直接被gpt貼了一 01/08 19:04
→ hanmas: 個反例回來 01/08 19:04
推 atien666: 覺得訂閱後變笨了,本來會整理資訊還提供額外的意見,訂 01/08 19:05
→ atien666: 閱後問一句回一句 01/08 19:05
→ medichou13: AI很會騙人 01/08 19:14
推 capser: 大開眼界 01/08 19:15
推 jeremy7986: 目前的AI好用的前提是你自己必須有驗證與糾錯能力 01/08 19:20
推 aegius1r: 昨天才問了他 某種藥怎麼吃 跟我說三餐飯後 01/08 19:34
→ aegius1r: "那你有查證嗎" "沒錯 我確定我是對的 每天一顆" 01/08 19:34
→ aegius1r: 真的不驗證照單全收 就準備吃錯藥量吧 01/08 19:35
推 s9810456: 牢大的賽博永生算嗎? 01/08 19:38
推 applecrazy: 人回答的/查到的資料也不能保證100%正確 怎麼就要求ai 01/08 19:41
→ applecrazy: 要完全正確了 01/08 19:41
→ Wall62: 覺得AI最有幫助的還是既有資料丟進去讓他初步統整+1 01/08 19:45
推 IRPT001: 會不會有喂毒問題啊?如普丁最愛和平 01/08 19:45
噓 lolicat: 它就搜尋整理出來的答案 離獨立思考還差得遠 01/08 19:49
推 ranke96: AI跟你說rm -rf /可以修好電腦,非真人真實,但感覺就發 01/08 19:50
→ ranke96: 生過 01/08 19:50
推 Boris945: 其實在自訂設定嚴格遵循工具搜尋結果就很少看到幻覺了 01/08 19:59
推 MoonHalo: 我會請他翻譯,之前就問過中國網路流行的“最好的袪魅方 01/08 20:00
→ MoonHalo: 式就是擁有”可以怎麼翻成台灣用法 01/08 20:00
推 EricTao: 如果分辨不出錯誤=你也沒比ai強多少 01/08 20:03
推 kobed: 確實被嚇過 想說怎麼AI還是那麼廢 常常一堆亂回的 01/08 20:13
推 j1992624: 奇異點碾壓 01/08 20:28
推 CriminalCAO: 最怕的是客戶拿ai回的頭頭是道的東西來問你,結果仔 01/08 20:37
→ CriminalCAO: 細看之後發現一堆錯誤,又很難跟客戶解釋錯在哪裡。 01/08 20:37
推 thetaetiseo: 統整能力可以 語用能力很好 就打趴很多文類工作了 然 01/08 20:49
→ thetaetiseo: 後有沒有料 真的會根據輸入的專業 偏頗很大 說和人一 01/08 20:49
→ thetaetiseo: 樣會硬拗 還不是多數網路上的農場文 是大眾唯一能找 01/08 20:49
→ thetaetiseo: 到的答案來源 給ai的也是一樣啊 最新科學實證研究 最 01/08 20:49
→ thetaetiseo: 新專業經驗成冊 都輸入進去 理工的部分不好說 至少文 01/08 20:49
→ thetaetiseo: 本觀點的正確性會大幅提高 但那成本很貴 也不會有專 01/08 20:49
→ thetaetiseo: 家樂見自己專業隨便被ai被大眾免費使用 所以還不可行 01/08 20:49
→ thetaetiseo: 但有心理學基礎 有面向大眾的設定 也有新聞提到心理 01/08 20:49
→ thetaetiseo: 學專家的加入 我覺得才是現在版本的ai愛硬拗的設定節 01/08 20:49
→ thetaetiseo: 點 不能承認能力限制 要盡可能討使用者歡心 更會在沒 01/08 20:49
→ thetaetiseo: 有基礎的前提東拉西扯 給的文本量足夠了 應對能力就 01/08 20:49
→ thetaetiseo: 會提升了 01/08 20:49
推 ct1030: 今天在醫院有一個疑義處方 ai已經可以找到問題點並給予正 01/08 20:58
→ ct1030: 確的思考方向 很驚人 01/08 20:58
推 smallvul353: 天啊用這種專業的語氣胡扯 會害多少人 這種嚇到 01/08 21:04
推 dreamyello: 有錯只是暫時的 AI發展才幾年 01/08 21:08
→ dreamyello: 5年前AI還在吃麵 01/08 21:09
→ dreamyello: 你猜猜五年後會不會取代你 如果不會 10年呢 01/08 21:09
推 kimono1022: 我覺得AI在情緒諮商課題方面很驚人 01/08 21:10
→ WuZun: 薪水夠低就不用太早怕 01/08 21:33
推 japan428: AI光是當成強化版的Google就很有價值了,更何況他還在 01/08 21:44
→ japan428: 不斷進化 01/08 21:44
推 tarzan5438: 問專業的東西錯誤率很高 01/08 22:13
推 b852258: 有稍微被驚到的是,某一天我腦中有構思某個遊戲的玩法, 01/08 22:18
→ b852258: 隔天想說可以試試看叫AI幫忙,然後他提出來的玩法跟我想 01/08 22:18
→ b852258: 的有很大程度的相近,我就覺得這方面AI真的挺強的 01/08 22:18