🔥 PTT.BEST 熱門專區 💬 八卦 Gossiping 😊 希洽 C_Chat 💰 股票 Stock 🏠 房屋 home-sale 🏀 美國職籃 NBA ⚾ 棒球 Baseball 👛 省錢 Lifeismoney 🚗 汽車 car 😡 政黑 HatePolitics 💻 電蝦 PC_Shopping 🥰 韓星 KoreaStar ✨ 英雄聯盟 LoL 🍿 電影 movie 🪖 軍事 Military 📡 通訊 MobileComm 🏀 台籃 basketballTW 🍼 寶媽 BabyMother 🇯🇵 日旅 Japan_Travel 🏭 科技 Tech_Job 👧 女孩 WomenTalk 👻 媽佛 marvel 💳 卡版 creditcard 👉 NS NSwitch 👉 PS5 PlayStation 👉 大氣 TY_Research 👉 婚姻 marriage 👉 台南 Tainan 👉 台中 TaichungBun 👉 Steam Steam 👉 高雄 Kaohsiung 👉 羽球 Badminton 👉 超商 CVS 👉 米哈遊 miHoYo 👉 iOS 👉 兄弟 Elephants 👉 日劇 Japandrama 👉 玄幻 CFantasy 👉 ES e-shopping 👉 WOW 👉 遊戲交易 Gamesale 👉 4X BaseballXXXX 👉 Lakers 👉 韓劇 KoreaDrama 👉 汽車買賣 CarShop 👉 機車 biker 👉 新竹 Hsinchu 👉 美保 BeautySalon 👉 串流 OTT 👉 歐美影集 EAseries 👉 手機交易 mobilesales 👉 健身 MuscleBeach 👉 MacShop 👉 Lions 👉 FGO FATE_GO 👉 中劇 China-Drama 👉 數位貨幣 DigiCurrency 👉 暗黑 DIABLO 👉 實習教師 studyteacher 👉 航空 Aviation 👉 藝文票券轉售 Drama-Ticket 👉 韓綜 KR_Entertain 👉 美妝 MakeUp 👉 速食 fastfood 👉 手錶 watch 👉 體適能 FITNESS 👉 攝影 DSLR 👉 Headphone 👉 嘻哈 Hip-Hop 👉 轉珠 PuzzleDragon 👉 美食 Food 👉 蔚藍 BlueArchive 👉 數位相機交易 DC_SALE 👉 筆電蝦 nb-shopping 👉 軟工 Soft_Job 👉 汪踢 Wanted 👉 台綜 TW_Entertain 👉 坂道閒聊 SakaTalk 👉 貓咪 cat 👉 日GO BabyProducts 👉 TypeMoon 👉 MLB 👉 職場 Salary 👉 臺劇 TaiwanDrama 👉 海賊王 ONE_PIECE 👉 PMGO PokemonGO 👉 國營 Gov_owned 👉 碧航 AzurLane 👉 家電 E-appliance 👉 布蘭德 Brand 👉 DMMG DMM_GAMES 👉 贈送 give 👉 神魔 ToS 👉 銀行服務板 Bank_Service 👉 原創 YuanChuang 👉 期權 Option 👉 重機 SuperBike
律師用ChatGPT幫寫訴狀慘了 被抓包引述案例「根本是假的」 Ttoday國際新聞 | ETtoday新聞雲 https://www.ettoday.net/news/20230528/2508007.htm#ixzz82zItrTYZ 吳美依/綜合報導 美國紐約州一名律師提交起訴文件,卻被發現其中引用的6起法律案件「根本不存在」, 這才承認使用ChatGPT進行案例研究,「沒有意識到其內容可能是假的」。如今,他與同 事面臨紀律處分,將在6月8日召開聽證會。 BBC、商業內幕等外媒報導,一名男子想對哥倫比亞航空提告人身傷害罪,他在律師事務 所「Levidow, Levidow & Oberman」聘請的法律團隊提交宣誓書,引述多個判例,試圖證 明此案也應該被審理。未料,航空公司的法律團隊卻向法官表示,他們根本找不到其中幾 起案件。 法官卡斯提爾(Judge Castel)在一份命令中寫道,「在提交的案件中,至少6起似乎是 虛假的法律判決,有著虛假的引述及虛假的內部引用。」他直言這是「前所未有的情況」 ,並要求原告法律團隊做出解釋。 調查後發現,原告律師洛杜卡(Peter LoDuca)並未參與這次法律研究,而把任務交給從 業逾30年的同事施瓦茨(Steven A Schwartz)。 施瓦茨在聲明中坦承使用ChatGPT尋找類似案例,並且對此感到「非常後悔」,但之前從 未使用AI進行法律研究,未來也不會在缺乏驗證的情況下使用AI「補充」法律文件內容。 他澄清,原告律師洛杜卡確實沒有參與這次案例研究,也不清楚是如何進行的。 根據施瓦茨提供的對話截圖,他反覆詢問幾起「不存在的案例」是否為真,ChatGPT給出 肯定回覆,還稱可以在萬律(Westlaw)及律商聯訊(LexisNexis)等法律資料庫找到。 ChatGPT自2022年11月推出以來,已經累計數百萬人使用,它可用類似人類的自然語言回 答問題,根據指令與要求生成內容,或者模仿特定寫作風格,但人們一直擔憂AI潛在風險 ,包括可能散播偏見、假消息及不準確資訊。 備註: 居然不查證也太混 ※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請注意 ※ 備註請勿張貼三日內新聞(包含連結、標題等) -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.35.55.69 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1685258538.A.86C.html
james732: ChatGPT會一本正經胡說八道不是常識ㄇ 114.136.181.83 05/28 15:22
JuiFu617: 笑死,這麼懶 1.160.7.1 05/28 15:23
milkBK: 笑死 再不查證啊 114.32.18.127 05/28 15:23
whangkiahao: 上次找文獻差到被弄死 101.10.8.65 05/28 15:23
JuiFu617: 連判例去餵狗也嫌麻煩? 1.160.7.1 05/28 15:23
kaodio: 法律人不能抄錯嗎 奇怪匿 114.44.28.20 05/28 15:23
TackoFall: AI判案那天該到來了 211.76.74.210 05/28 15:23
sobiNOva: 律師也是專門一本正經胡說八道阿XD 118.167.92.231 05/28 15:23
laughingXD: 這樣我也可以當律師了114.136.156.157 05/28 15:23
ju06080719: 美國林智堅 111.83.175.253 05/28 15:24
Paulsic: 哈哈GPT胡說八道原來是真的 101.137.98.255 05/28 15:24
devidevi: 竟然有人不知道GPT的案例有可能是掰的 49.159.219.21 05/28 15:24
JuiFu617: 人家訓練是通用模型,又不是法律專用模 1.160.7.1 05/28 15:24
JuiFu617: 型 1.160.7.1 05/28 15:25
railman: 目前AI還沒辦法取代人類吧 111.71.212.84 05/28 15:25
laughingXD: 律師:我的客戶被告了 請問該怎麼打贏114.136.156.157 05/28 15:25
laughingXD: 請給我六個相關案例114.136.156.157 05/28 15:25
JuiFu617: 等到gpt5.0,說不定就可以通過美國律師 1.160.7.1 05/28 15:25
JuiFu617: 考試 1.160.7.1 05/28 15:25
metroid0104: 再偷懶啊,都已經省助理費了還不查證 61.227.115.218 05/28 15:26
starwillow: 就說ai想取代律師還早的很 106.64.162.78 05/28 15:26
JuiFu617: https://i.imgur.com/THFZ9mu.jpg 1.160.7.1 05/28 15:27
kediflower: 很敢捏,CHAT連法律條文都會找錯惹 223.136.78.141 05/28 15:27
JuiFu617: 可能用到gpt3.5而已 1.160.7.1 05/28 15:27
ryusenming: 改成律師模式就可以了111.243.237.136 05/28 15:29
JuiFu617: https://i.imgur.com/YeN5rK5.jpg 1.160.7.1 05/28 15:29
takamiku: 笑死 你跟我說這是領高報酬的律師 118.232.138.60 05/28 15:31
andy199113: 網路界最大詐騙集團 chatgpt118.167.157.160 05/28 15:36
gene51604: 欸不是耶 偷懶也是要檢查 223.141.135.45 05/28 15:36
sadmonkey: 會最先被chatgpt取代的是政客跟宗教家 114.25.25.217 05/28 15:37
mokumi: 是輔助不能全信.這傢伙太扯 懶成這樣. 1.200.242.78 05/28 15:42
qwe78971: 律師還用免費版 可憐 39.14.40.252 05/28 15:43
puritylife: ChatGPT會自己生成假資料來引述啊 219.71.37.121 05/28 15:45
andy2011: 一半都假的要再估狗查證101.136.235.214 05/28 15:47
WJAider: 接下來就是花一堆成本檢驗的時代了 118.165.66.226 05/28 15:48
Colitas: 笑死xdd 106.64.184.72 05/28 15:49
ssccg: ChatGPT是拿來作文,不是拿來找資料,怎麼118.150.124.138 05/28 15:50
horse2819: 太混了吧 靠北 223.138.243.27 05/28 15:50
ssccg: 還有人搞錯118.150.124.138 05/28 15:50
signm: chatgpt好像蠻常會這樣的 42.77.26.57 05/28 15:51
riker729: chatgpt只要跟歷史有關 大都假的 1.169.209.206 05/28 15:52
signm: 你要問他第二次他才會跟你講資料是錯的 42.77.26.57 05/28 15:52
riker729: 案例也是歷史 習慣性造假 1.169.209.206 05/28 15:52
dos1019: 真的有夠懶114.137.100.252 05/28 15:52
cassetoi: 學術論文也一樣,恰姬都給你唬爛拼裝101.136.133.158 05/28 15:54
signm: 現在gpt根本不能當搜尋結果,常常給錯的還 42.77.26.57 05/28 15:55
signm: 講的一本正經 42.77.26.57 05/28 15:55
mrcat: The 掰 125.228.40.79 05/28 15:55
rayjames38: 這真的很失格 要問一下資料是不是真的101.116.172.180 05/28 15:58
rayjames38: 啊 拿去餵狗發現都找不到不覺得很怪嗎101.116.172.180 05/28 15:58
rayjames38: 最後是ChatGPT 的目標不是找到正確答101.116.172.180 05/28 15:58
rayjames38: 案耶 是回答像人會回答的答案 他完全101.116.172.180 05/28 15:58
rayjames38: 沒搞懂底層邏輯也沒求證精神101.116.172.180 05/28 15:58
payneblue: 人為去除錯都懶XD223.139.107.142 05/28 15:59
wwwqoo: 哈哈哈 223.138.47.38 05/28 16:00
greenpine: 敢用GPT不復查直接上法院 心臟真大顆 1.172.173.70 05/28 16:01
WunoW: chatgpt分不出真偽 歷史小說太多了他都當真 114.36.175.89 05/28 16:02
WunoW: 之前永樂老師就測過 chatgpt會捏造假歷史 114.36.175.89 05/28 16:03
KadourZiani: 不懂就說不懂。還自己亂編。現在AI最 106.64.49.25 05/28 16:03
KadourZiani: 致命就這個缺點而已。修改一下就無敵 106.64.49.25 05/28 16:03
KadourZiani: 迪了 106.64.49.25 05/28 16:03
WunoW: 不止歷史 chatgpt也不具備數學能力 114.36.175.89 05/28 16:04
WunoW: 很多數學是要"思考" chatgpt沒思考能力 114.36.175.89 05/28 16:04
WunoW: 哪天ai有思考能力 不是人類該高興的時候 114.36.175.89 05/28 16:05
greenpine: Chat他是聊天功能 不是專業訓練出來的 1.172.173.70 05/28 16:07
reaturn: 專業人士,哈哈220.143.113.222 05/28 16:10
beartsubaki: 顧客也太慘了 請到這種律師 慘 123.194.132.71 05/28 16:10
KGarnett05: 只能當輔助,連檢查都不檢查 106.107.244.92 05/28 16:14
emissary: 太懶了吧,至少要檢查,chatgpt很會唬爛 122.121.214.67 05/28 16:14
emissary: 每次問都會有不同的答案 122.121.214.67 05/28 16:15
KGarnett05: 要訓練命令限制ChatGPT引用來源啊 106.107.244.92 05/28 16:17
KGarnett05: ,強在可以跟他 106.107.244.92 05/28 16:17
KGarnett05: 溝通吧 106.107.244.92 05/28 16:17
Justinchen: 律師:我就不能用一次Ai寫訴狀嗎? 61.223.243.76 05/28 16:23
rayjames38: 樓上...他會引用不存在的來源...我說101.116.172.180 05/28 16:24
rayjames38: 的是4不是3.5 自己多玩一下就知道了101.116.172.180 05/28 16:24
rayjames38: ChatGPT 是generate content 不是sear101.116.172.180 05/28 16:26
rayjames38: ch 他從來就不是給你答案101.116.172.180 05/28 16:26
chrisjeremy: ChatGPT就是會把錯誤的資訊講的好像111.240.103.241 05/28 16:30
HOWyun2648: 我以為一般都是問過,自己再去查證114.136.198.177 05/28 16:30
chrisjeremy: 真的一樣 使用的人本身必須要確認它111.240.103.241 05/28 16:30
chrisjeremy: 給出的答案 不然就會像這個例子一樣111.240.103.241 05/28 16:30
chrisjeremy: 出大包111.240.103.241 05/28 16:30
diyaworld: https://i.imgur.com/zRfW7sE.jpg 1.200.244.185 05/28 16:31
masala: 會相信chatGPT的也是個北七114.137.100.106 05/28 16:34
susanmm: 泡沫要破了 223.140.251.43 05/28 16:35
masala: 上次叫它查文獻就錯誤一堆了114.137.100.106 05/28 16:35
cheng399: 叫他列出台灣有名漫畫家 給我陳冠希,沒 122.2.72.36 05/28 16:45
cheng399: 列出朱德庸,之後我再也不敢信他了 122.2.72.36 05/28 16:45
viwa77068194: 陳冠希也太好笑了吧 180.217.214.98 05/28 16:46
koexe: 天才啊 111.254.248.52 05/28 16:48
garcia: 告不贏馬英九的塔綠師可以用看看吧 1.170.129.234 05/28 16:48
tkc7: 潤飾文字還行 扯上事實根本是屎 114.45.9.241 05/28 16:49
cheng399: 然後問他台灣是不是沒有漫畫產業,死嘴 122.2.72.36 05/28 16:50
cheng399: 硬不肯承認台灣沒有漫畫產業,却又偏偏 122.2.72.36 05/28 16:50
cheng399: 舉不出有名的漫畫家,舉出來的如尾田 陳 122.2.72.36 05/28 16:50
cheng399: 某 122.2.72.36 05/28 16:50
dann255181: 笑死 自己的作業自己寫 101.136.42.153 05/28 16:51
cheng399: 我糾正他都快崩潰了,糾正有十次多,最 122.2.72.36 05/28 16:53
cheng399: 後我放棄並學到,絕對不能問他小眾,資 122.2.72.36 05/28 16:53
ilovebig99: 平價律師對決奢華律師 223.141.199.41 05/28 16:55
srxteam0935: 把胡亂鬼扯的AI當搜尋軟體 根本北七114.136.171.246 05/28 16:56
srxteam0935: 這種智商還是律師114.136.171.246 05/28 16:56
cheng399: 資料不足的區塊,他絕對會把別的東西兜 122.2.72.36 05/28 16:58
cheng399: 過來振振有詞地寫給你 122.2.72.36 05/28 16:58
ASEVE: gpt會一本正經的瞎唬爛XD 114.32.115.188 05/28 16:59
oyaji5566: AI一堆唬爛但不重要,股價會漲就好 218.172.32.242 05/28 17:01
emissary: 其實它也只是個語言模型,就別為難它了 122.121.214.67 05/28 17:02
srxteam0935: 還問AI案例是不是正確的 那是隨意生114.136.171.246 05/28 17:04
srxteam0935: 成文章的AI不是他媽天網114.136.171.246 05/28 17:04
mind324: 通你媽 論文都亂掰118.166.214.185 05/28 17:04
vanprasth: 要取代律師要自己丟案例去訓練一套吧 220.132.55.7 05/28 17:04
mind324: AI就是智障等級118.166.214.185 05/28 17:04
vanprasth: 用網上資料訓練出來的當然亂扯 220.132.55.7 05/28 17:05
kilhi: 只有不會用的人 101.12.22.84 05/28 17:07
jewish123: 可悲文組 111.255.60.54 05/28 17:12
kris4588: 不檢查也太扯了 223.138.37.99 05/28 17:12
qa1122z: XD 111.83.95.134 05/28 17:33
reil: AI界的塔綠斑,吹牛嘴砲精通 1.162.70.85 05/28 17:40
tiros: 所以我要問啥都加個但書:不知道就說不知道123.194.176.196 05/28 17:44
Turas: 也太懶 1.200.9.178 05/28 17:51
Zumi: 用了居然不查證也是挺猛的 39.15.64.147 05/28 17:53
psychicaler: 引用部分為何不靠自己google= = 1.160.144.87 05/28 17:58
ll6a: 白癡ChatGPT超愛杜撰的 27.242.165.69 05/28 18:02
ll6a: 上次讓他推薦某領域的書籍十本裡八本都是憑 27.242.165.69 05/28 18:03
ll6a: 空捏造 27.242.165.69 05/28 18:03
Everforest: AI造浪者 造浪失敗 114.45.198.136 05/28 18:03
swordmr20: 你問他某某地方有什麼好玩的他也會亂114.137.210.207 05/28 18:11
swordmr20: 掰景點114.137.210.207 05/28 18:11
FiveSix911: 智障 27.53.99.186 05/28 18:12
myyalga: 就跟你說gpt 是一個唬爛嘴^_^ 27.51.142.127 05/28 18:14
gerry11107: 太瞎了吧 49.216.166.63 05/28 18:15
M80M80: 超靠北 之前gpt推薦我的文獻也都假的 61.227.7.30 05/28 18:33
hotrain13: 用gpt4 會比較準,然後記得查證啊... 111.185.90.46 05/28 18:35
phxcon: 律師不知道chatgpt的原理亂用 180.217.12.10 05/28 18:37
VVinSaber: 不查證太白癡.. 101.9.50.182 05/28 18:37
liocorno: ChatGPT用於詐騙最適合了 111.248.167.17 05/28 18:46
Addidas: 目前此AI最大缺點就是會一本正經的說謊150.117.226.131 05/28 19:07
Peter521: 蘇軾:這個我懂 101.12.26.48 05/28 19:24
brucefang: 綠師最佳寫照 1.163.19.149 05/28 19:26
cat5672: 早就說這是最適合用來飽和式造謠的工具118.167.202.170 05/28 19:29
lee988325: 也太混了吧 連檢查都不做114.137.138.193 05/28 19:39
huabandd: 笑死,北七101.137.175.231 05/28 19:57
minipc: 都說是chat了 1.200.27.227 05/28 20:08
solarem: 北七 都沒在查證 114.136.110.69 05/28 20:35
PTTVERTWO: 說4.0比3.5強是不是也是3.5唬爛的? 1.200.58.255 05/28 20:40
guanting886: 如果你想要做到快速回應使用者的留 42.74.10.219 05/28 21:24
guanting886: 言 你模型勢必需要捨棄一些東西才能 42.74.10.219 05/28 21:24
guanting886: 快速處理 42.74.10.219 05/28 21:24
guanting886: 4.0的確在理解上跟回應上都優於3.5 42.74.10.219 05/28 21:25
guanting886: 但是你要拿他寫的東西去應付真實問 42.74.10.219 05/28 21:25
guanting886: 題 這律師就是偷懶照抄活該啊 42.74.10.219 05/28 21:25
guanting886: Ai的回應具有一定的隨機性,就好比 42.74.10.219 05/28 21:27
guanting886: 一個人唸了非常多的書,你要他突然 42.74.10.219 05/28 21:27
guanting886: 回應你一個問題他也是從記憶片段湊 42.74.10.219 05/28 21:27
guanting886: 出大概的答案交給你去參考 42.74.10.219 05/28 21:28
guanting886: 回應不會百分之百真實 42.74.10.219 05/28 21:31
gg86300: 還敢懶啊 101.9.38.140 05/28 21:56
masala: 這就是吹捧出來的產物,根本不堪正式使用114.137.100.106 05/28 22:57
mirce: AI本體就是胡扯起頭223.137.107.121 05/28 23:20
SapphireNoah: 笑死人了 這就是文組智商嗎 哈哈哈 36.231.142.61 05/28 23:50
SapphireNoah: 連ChatGPT這工具的本質都不懂 笑死 36.231.142.61 05/28 23:51
modernpkman: 很多實際的說明 其實都是虛構的。 223.137.109.45 05/28 23:59
modernpkman: 要多查證 223.137.109.45 05/28 23:59
LJer: 我想到之前推文引用的一些經典劇跟小說內容 111.82.63.142 05/29 01:54
LJer: 都錯的 111.82.63.142 05/29 01:54
a09374567: chatgpt找文獻 全都腦補生成 當初被老118.231.176.229 05/29 03:15
a09374567: 高吹成那鬼樣 還幫你找資料?118.231.176.229 05/29 03:15
z3728: 這種別說AI了 連google都用不好 那有人照抄 36.225.0.4 05/29 09:30
wizyu: 自己用了也要驗證啊,直接用結果. 27.53.224.162 05/29 10:02
wizyu: 笑了... 27.53.224.162 05/29 10:02
cmcmcmcm2: Gpt真的話一本正經胡說八道無誤xDDD 218.164.1.246 05/29 11:31

💬 八卦 Gossiping 版:熱門文章

💬 八卦 Gossiping 版:更多文章