🔥 PTT.BEST 批踢踢爆文 💬 八卦 Gossiping 😊 希洽 C_Chat 💰 股票 Stock 🏠 房屋 home-sale 🏀 美國職籃 NBA ⚾ 棒球 Baseball 👛 省錢 Lifeismoney 🚗 汽車 car 😡 政黑 HatePolitics 💻 電蝦 PC_Shopping 🥰 韓星 KoreaStar ✨ 英雄聯盟 LoL 🍿 電影 movie 🪖 軍事 Military 📡 通訊 MobileComm 🏀 台籃 basketballTW 🍼 寶媽 BabyMother 🇯🇵 日旅 Japan_Travel 🏭 科技 Tech_Job 👉 男女 Boy-Girl 👉 真香 CheerGirlsTW 👧 女孩 WomenTalk 👻 媽佛 marvel 💳 卡版 creditcard 👉 NS NSwitch 👉 PS5 PlayStation 👉 大氣 TY_Research 👉 婚姻 marriage 👉 台南 Tainan 👉 台中 TaichungBun 👉 Steam Steam 👉 高雄 Kaohsiung 👉 羽球 Badminton 👉 超商 CVS 👉 米哈遊 miHoYo 👉 iOS 👉 兄弟 Elephants 👉 日劇 Japandrama 👉 玄幻 CFantasy 👉 ES e-shopping 👉 WOW 👉 遊戲交易 Gamesale 👉 4X BaseballXXXX 👉 Lakers 👉 韓劇 KoreaDrama 👉 汽車買賣 CarShop 👉 機車 biker 👉 新竹 Hsinchu 👉 美保 BeautySalon 👉 串流 OTT 👉 歐美影集 EAseries 👉 手機交易 mobilesales 👉 健身 MuscleBeach 👉 MacShop 👉 Lions 👉 FGO FATE_GO 👉 中劇 China-Drama 👉 數位貨幣 DigiCurrency 👉 暗黑 DIABLO 👉 實習教師 studyteacher 👉 航空 Aviation 👉 藝文票券轉售 Drama-Ticket 👉 韓綜 KR_Entertain 👉 美妝 MakeUp 👉 速食 fastfood 👉 手錶 watch 👉 體適能 FITNESS 👉 攝影 DSLR 👉 Headphone 👉 嘻哈 Hip-Hop 👉 轉珠 PuzzleDragon 👉 美食 Food 👉 蔚藍 BlueArchive 👉 數位相機交易 DC_SALE 👉 筆電蝦 nb-shopping 👉 軟工 Soft_Job 👉 汪踢 Wanted 👉 台綜 TW_Entertain 👉 坂道閒聊 SakaTalk 👉 貓咪 cat 👉 日GO BabyProducts 👉 TypeMoon 👉 MLB 👉 職場 Salary 👉 臺劇 TaiwanDrama 👉 海賊王 ONE_PIECE 👉 PMGO PokemonGO 👉 國營 Gov_owned 👉 碧航 AzurLane 👉 家電 E-appliance 👉 布蘭德 Brand 👉 DMMG DMM_GAMES 👉 贈送 give 👉 神魔 ToS 👉 銀行服務板 Bank_Service 👉 原創 YuanChuang 👉 期權 Option 👉 重機 SuperBike
我原本以為讓Gemini看著搜尋結果就不會瞎掰 但是她一直堅持天龍八部三聯版(二版)石屋下藥那段換進去的是「妓女」 要求她搜尋後看著資料再講 她找的所有資料全都是講鍾靈 就是看著資料瞎說出版社正式版的書是寫妓女 甚至金庸還出了個版本是跟甘寶寶(自主規制)的 https://i.meee.com.tw/pQWsmeZ.png
把她講的這句丟到另一個Gemini新對話 馬上就找了一串資料反駁說換進去的鍾靈 打臉自己有打臉這麼快的嗎 https://i.meee.com.tw/UYH4tJA.png
看來是被下藥了(X) -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.236.219.159 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1777484924.A.ADD.html
Xration: ChatGPT還自創法條咧 上次有人跟我說我不懂法 我問他哪 04/30 01:50
Xration: 一條 結果根本沒有 是ai掰出來的 04/30 01:50
x2159679: 很正常 就像人類老了也會得老年癡呆一樣 04/30 01:50
KUSURI: 問AI自己不熟的東西真的危險 04/30 01:51
x2159679: 深度學習學久了也會變癡呆 04/30 01:51
abccbaandy: 關鍵字:新對話 04/30 01:51
※ 編輯: smart0eddie (36.236.219.159 臺灣), 04/30/2026 01:52:10
Scarlett888: 很正常 逼你付費 04/30 01:52
Xration: 之前用Xai翻譯 結果發現劇情不對 沒想到沒翻譯 直接創造 04/30 01:52
Xration: 新故事 04/30 01:52
Scarlett888: 免費的太好用就沒人要訂閱了 04/30 01:52
e49523: 不要問AI太專業的 04/30 01:53
Pietro: 現在社群網站一堆拿著AI整理出來的鬼扯當聖旨的傢伙…… 04/30 01:53
smart0eddie: 老年癡呆只是會記錯不會看著書瞎掰啊 04/30 01:53
e49523: AI容易自己編故事 照他說的做真的會出事 04/30 01:53
aaronhkg: 反正現在AI搞笑就是問你有沒有付費 有付費還搞笑就問你 04/30 01:54
aaronhkg: 問的精不精確 啊我付費又要問精確 那我自己查資料就好啊 04/30 01:54
Pietro: 像Google的AI是真的很好誤導…… 04/30 01:55
minoru04: 以前用GOOGLE裝懂 現在用GOOGLE生的Gemini裝懂 算親子丼 04/30 01:55
x2159679: 然後現在網路上越來越多ai生成的怪文書 04/30 01:55
※ 編輯: smart0eddie (36.236.219.159 臺灣), 04/30/2026 01:56:17
x2159679: 再繼續用這些怪文書訓練ai...... 04/30 01:56
aaronhkg: 差滿多的 以前GOOGLE裝懂 弄錯了一看你引用就知道理解錯 04/30 01:59
speed7022: 我覺得不會去多方查證的還是不會去多方查證 04/30 02:00
aaronhkg: 務 現在用AI裝懂 就算跟他說錯了還是一樣把AI當聖旨 04/30 02:00
speed7022: 跟用GOOGLE還是AI沒關係 04/30 02:00
f222051618: 不就跟很多人把WIKI當資料來源一樣嗎 04/30 02:03
OscarShih: 一開始就會了 你去問一些冷門遊戲攻略 04/30 02:07
tyifgee: 都已經有人拿ai問的質問醫生咧… 04/30 02:09
f1731025: 不要問自己不懂的東西 04/30 02:10
f1731025: AI用來整理和釐清思緒好用 要他憑空想像就只會給你天馬 04/30 02:12
f1731025: 行空 04/30 02:12
syk5561: Gemini本來幻覺就很嚴重,不是第一天這樣 04/30 02:13
kimokimocom: 昨天搜尋法條 看到AI給的結果我還是要自己再去把 04/30 02:13
kimokimocom: 他給我的內容一條一條跟原文對比 04/30 02:14
kimokimocom: 然後還真的有人會把文件直接丟給AI再來質問文件內容 04/30 02:15
CCNK: 要你花錢啊 精確搜索 模糊搜索當然就是這樣 04/30 02:15
kimokimocom: 但是自己基本連文件內容都沒看過 只說AI是這樣說的 04/30 02:15
as920909: 提示詞下的太短或不好很容易幻覺 04/30 02:16
whosu: 舊對話都有可能鬼打牆了,更何況新對話完全沒記憶 04/30 02:16
dora314: 最近覺得G怪怪的 改加入claude的懷抱 04/30 02:16
syk5561: 另外他相較於搜尋結果預設自己模型的資料權重更高 04/30 02:16
lovesleep68: 最簡單就是你問他你知道答案的問題,就知道是不是幻 04/30 02:17
lovesleep68: 覺了... 04/30 02:17
chocoball: ai就是越來越懶 反正免費將就用 04/30 02:19
lovesleep68: 可是AI還是有很多東西值得參考... 04/30 02:19
chocoball: 感覺也是養套殺 現在不給我ai 我還不知道怎麼查資料 04/30 02:20
lovesleep68: 我覺得有些可以考慮回歸GOOGLE,不行再問AI 04/30 02:20
CCNK: 叫你去用Gemini Ultra 04/30 02:20
dephille: 感覺模型剛出來的時候正確性會特別高, 久了以後不知道是 04/30 02:20
speed7022: AI 大部分的事情有80%有用就夠了,要十分正確的還是要 04/30 02:20
dephille: 被污染還是太多人用算力下降就會變差w 04/30 02:20
speed7022: 自己看過,況且也向樓上說的Gemini近期是很爛沒錯 04/30 02:21
orz65535: 搜社群討論量夠多的老遊戲是真的很準啦 只是例子非常有 04/30 02:21
orz65535: 限 04/30 02:21
as920909: 會拿與用戶的對話做訓練資料吧 那可能會越來越笨 04/30 02:21
orz65535: 基本上我只會問有心裡有答案的問題 看看AI給的答案 04/30 02:22
orz65535: 有沒有我沒想到的盲點 04/30 02:22
smart0eddie: 會被污染吧 中國之前 ds就被玩壞 04/30 02:22
speed7022: 算力可能也被調用去訓練模型之類的吧,年初買完Gemini 04/30 02:23
speed7022: 之後就一路難用到現在 04/30 02:23
gargoyles: 舊版是在報紙上連載的吧 換甘寶寶進去真假ww 04/30 02:23
aaronhkg: 問題在像這篇的問題 根本就同一頁的回答 這種程度會需要 04/30 02:24
aaronhkg: 多少算力或是被玩壞嗎= =? 04/30 02:24
smart0eddie: 我沒看過第一版 但是換甘寶寶應該是假的 04/30 02:24
meredith001: Ai一直都這樣不是? 你餵他屎 他就反饋一堆屎給你 04/30 02:25
ilovejesus99: 我遇過直接跟我說 哈哈 剛剛主機當機沒有抓到資料 04/30 02:26
ilovejesus99: 超扯的藉口 04/30 02:26
meredith001: 所以有人說ai會害人失業 只能說那是你的位置很好取代 04/30 02:26
whosu: 就算是同對話也是會失憶就是了,要他讀新的檔案去修改內容 04/30 02:28
whosu: ,傳個幾次在叫他修正就忽略掉新檔這件事了,不一直提他就 04/30 02:28
whosu: pass了 04/30 02:28
haoboo: 但以前就是用這些很好取代的位置去把新人練起來,現在其實 04/30 02:30
haoboo: 業界最擔心的事情是新人要怎麼練起來 04/30 02:30
smart0eddie: 真的 04/30 02:30
smart0eddie: 而且如果學生時代直接只會用 AI 04/30 02:31
smart0eddie: 以後會很慘 04/30 02:31
CreamP: 大概是他正在全力訓綀新模型 所以現在對話都能省力就省 04/30 02:33
CreamP: 例子像GPT5.3-5.4那段時間超廢 5.5和image 2就神了 04/30 02:33
RaiGend0519: 一直都這樣不是嗎? 04/30 02:34
kimokimocom: 是啊 我也覺得一直都這樣 04/30 02:35
meredith001: 不會啦 那代表以後新人ai是常識就跟我這輩的一進職 04/30 02:35
meredith001: 場電腦 word excel aotucad都是常識不用再花時間訓練 04/30 02:35
haoboo: 問題不是AI的使用,是你有沒有能力去糾錯AI跟自我判斷 04/30 02:36
astinky: AI本質就是工具啊,這跟同一支鉛筆普通人畫出來的東西跟 04/30 02:36
astinky: 科班生畫出來的就是完全不同是一樣的道理 04/30 02:36
f59952: 免費版的結果都很爛啊 光是預設google搜尋的結果每次都是 04/30 02:36
f59952: 錯的 04/30 02:36
speed7022: "用AI"這件事情我自己是覺得分很多等級拉 04/30 02:36
f59952: 所以目前好東西都先給你試用 然後再慢慢跟你收費 04/30 02:36
sillymon: AI只能用來整理資料或是提供某些很粗略模糊的概念,精準 04/30 02:37
meredith001: 我剛進職場時 老前輩對我用excel畫表格感到不可思議 04/30 02:37
meredith001: 他說他當初學這個花了好幾個月 每天下班還要去巨匠 04/30 02:37
meredith001: 上課 04/30 02:37
whosu: 不就只是變成新人用AI做一樣的事情嗎,還是得維護品質 04/30 02:37
sillymon: 度超級糟糕,老是詢問AI人生方向的人,把AI當朋友的人, 04/30 02:37
sillymon: 高機率會變成精神病或與社會脫節產生幻想症 04/30 02:37
wwewcwwwf: 用一次思考模式 然後就要錢了.而且回應還是跟聊天一樣 04/30 02:39
smart0eddie: 但是如果工作像是畫一顆蘋果 04/30 02:40
smart0eddie: AI 可以做出100分的東西 新人就沒練習到畫蘋果 04/30 02:40
Scarlett888: 不是 一堆人嘴免費AI爛 但meta Amazon 微軟 goog 04/30 02:40
Scarlett888: le取代員工的AI又不是免費版本.. 04/30 02:40
meredith001: 工具這種東西 用的好壞一回事 技術在爛能交出成果就 04/30 02:40
BOARAY: 問他COD從那一年開始出 它跟我說2019哇靠 前面幾代是屎了 04/30 02:40
meredith001: 好 但是有沒有概念就非常麻煩 從0>1就是最難的 04/30 02:40
BOARAY: 嗎W 04/30 02:41
wwewcwwwf: gpt現在很非常燒token 聊天都只剩30分鐘左右 04/30 02:41
smart0eddie: gpt喜歡講廢話 04/30 02:41
wwewcwwwf: 現在很多人去買token 問一兩次就燒完 要你再買 04/30 02:41
wwewcwwwf: 看有人寫論文 一天就花6-7千在燒 04/30 02:42
f59952: 因為目前我使用的感受真的讓我感覺沒選訂閱的跑出的東西都 04/30 02:43
f59952: 錯好多 免費的光是我問歷史問題都跑出錯的 不過選了訂閱 04/30 02:43
f59952: 問問題 問圖片都準確多 04/30 02:43
smart0eddie: 普通聊天跟協助文書處理一般訂閱不夠用喔? 04/30 02:44
wwewcwwwf: 現在只有圖片 影音 寫碼農code 不太會有問題 04/30 02:45
Scarlett888: 就是逼你訂閱呀 大家都用免費的 那那些發展AI燒了 04/30 02:45
Scarlett888: 好幾千億元的公司是北七嗎.. 04/30 02:45
wwewcwwwf: 協助文書現在回2-3次就要等4-6小時了 04/30 02:45
wwewcwwwf: 就是要你砸錢 我看台灣公司老闆也不想砸錢吧 cc 04/30 02:46
Scarlett888: 我記得OPEN AI燒的經費是用兆去計算的了 04/30 02:46
wwewcwwwf: 重點是你燒了錢 回答還是錯的XDDDD 沒邏輯的用是浪費錢 04/30 02:48
Scarlett888: https://i.urusai.cc/1YKnO.jpg 他們負債好幾兆 壓 04/30 02:49
Scarlett888: 力很大ww 04/30 02:49
Scarlett888: 現在就是想辦法逼人訂閱撈回來吧 不過有個問題是 04/30 02:50
Scarlett888: 你的AI回答錯了 民眾可能就跳去使用別家的 他們不 04/30 02:50
Scarlett888: 是一家獨大 04/30 02:50
tw15: 我最近用傑米妮 她是有跟我說以她現在模型 不能看連結等。如 04/30 02:53
tw15: 果能分段貼文字給她 而不是讓她自己找 或者給多一點明確關 04/30 02:53
tw15: 鍵字 就會避免幻覺產生 04/30 02:53
Sinreigensou: 怎麼剛出來好像很強結果越來越爛 04/30 02:56
Armour13: 現在都得要拿兩個AI互相驗證比對資料才行 04/30 02:57
Scarlett888: 越來越爛兩種可能吧 被餵太多垃圾資料 不然就是故 04/30 02:57
Scarlett888: 意做出免費 跟 付費版本差異? 04/30 02:57
j147589: 好像瞎掰率有變高 04/30 02:58
Sinreigensou: 真的是剩下雲端硬碟能說嘴了嗎 04/30 02:59
sayuri4ever: 你不是修奇 不能用傑米妮:( 04/30 03:02
rubric: 以前就稍微會了,但確實有變高感覺 04/30 03:04
meredith001: 修奇xDDD 04/30 03:05

😊 希洽 C_Chat 版:熱門文章

😊 希洽 C_Chat 版:更多文章