





推 StarTouching: 強! 12/19 02:03
推 NX9999: 充滿希望@@ 12/19 02:50
推 lyrelyre: 推 12/19 02:58
推 e2720pjk: 推個,另外分享一下Google有辦個短期黑客松 12/19 03:08
→ e2720pjk: 裡面作品也都是快速靠Gemini3建的 12/19 03:08
→ e2720pjk: www.kaggle.com/competitions/gemini-3 12/19 03:08
謝謝分享!
推 togs: 聖誕快樂,好厲害:) 12/19 03:55
推 j147589: 下次試試看色色遊戲 比較好賺 12/19 04:35
推 sasox03: 偵=>幀(ㄓㄥˋ) 12/19 05:06
謝謝 原來是四聲
推 h73o1012: wow 12/19 05:09
推 conqueror507: 厲害 12/19 05:20
推 gm3252: 推 12/19 06:11
→ qwe78971: 其實這玩意 GitHub 就有 Ai只是抄下來 然後丟給你 12/19 06:52
→ qwe78971: 差別是傳統 自己找 clone 之後修改 現在是 LLM 數據一 12/19 06:53
→ qwe78971: 坨 你問幾個小時 他東丟西丟 你靠著 複製貼上 做出來 12/19 06:53
→ qwe78971: 覺得這玩意有用 就這樣 12/19 06:53
有點太過狹隘了
LLM 生成的回答都是計算後的結果 只是他的計算力 或是用的訓練集大小差異不同
就像我問 AI 今天吃飽沒
AI 會透過計算之後 得出這個時候要回答我吃飽了或是關你屁事的答案
而Gemini 3.0 目前的回答可以說到了優秀的地步
最明顯的差異就是 我丟上來的程式碼是給 AI 重構過兩遍的
原本這 70 次左右的來來往往 因為是想到什麼功能就加什麼功能上去 程式碼是很雜亂的
於是我把雜亂的程式碼給 AI 並請他重構 才會有這樣乾淨整齊且遵循物件導向的寫法
如果照你的說法 要把原有的程式碼給重構 光靠把 GitHub 的東西複製貼上是否能完成?
當然 GitHub 的東西絕對是被當去做訓練的資料沒有錯
但這跟問 AI 然後 AI 只是把資料庫裡 GitHub 的資料東丟西丟還是有本質上的差異的
推 n0029480300: 推 12/19 06:57
→ p3398530: 查有沒有人做過+複製貼上本來就是開發流程常發生的事啊 12/19 07:25
→ p3398530: 就算不用AI你也不會每一行都自己打 12/19 07:25
→ p3398530: 他幫你找+整理 結果省了時間那就是有用 12/19 07:30
推 MrJB: 推文老兄,時間就是金錢...對有心人,如果能省下時間拿去打 12/19 07:35
→ MrJB: 磨更細的東西不是更好? 12/19 07:35
確實 真的省下了很多時間
從好幾個星期縮到只剩下三天左右 這省下的時間我可以好好體驗我的遊戲成果
可以思考怎麼讓他更好玩
→ spfy: 照這說法程式開發領域的ai不都大多這樣嗎... 12/19 07:36
→ spfy: 同事維護的專案有COBOL 問他AI成效如何 他:呵呵 我來教你吧 12/19 07:38
推 ltsart0515: 厲害 12/19 07:45
推 erik777: 用github的src做版權沒問題嗎 12/19 07:47
推 gigu5498: 好強 12/19 07:48
推 KAGOD: 強喔 12/19 07:52
推 XFarter: 基本上LLM不是像@qwe 那樣講的運作的 頂多說訓練的時候有 12/19 08:00
→ XFarter: 用到資料集 12/19 08:00
推 tsubasawolfy: LLM本質是語言模型 人造更有邏輯的程式語言比自然 12/19 08:08
→ tsubasawolfy: 語言更好上手 12/19 08:08
推 afking: 基本上LLM不會這樣處理除非你特別叫他抄某個專案吧 12/19 08:11
推 kaj1983: 就訓練過才會寫出來吧 12/19 08:11
→ afking: 但確實他會呼叫套件的API 12/19 08:14
推 XFarter: 總之它的訓練基本上還是機率跟統計計算權重 除非你下出直 12/19 08:16
→ XFarter: 接讀寫特定專案的要求 不然基本上很難完全生出一模一樣的 12/19 08:16
→ XFarter: 程式 12/19 08:16
→ XFarter: DOOM-LIKE 的東西則更不用談 原Po的東西也跟原本的 Doom 12/19 08:16
→ XFarter: 的程式結構及粒子運算有落差 12/19 08:16
推 avans: 推推 遊戲開發系列文章 12/19 08:17
推 h0103661: 2026了還有人覺得ai是copy paste 12/19 08:18
※ 編輯: jeremy7986 (118.167.225.105 臺灣), 12/19/2025 08:32:56
※ error405:轉錄至看板 AI_Art 12/19 08:20
再次謝謝大家的推文
祝大家聖誕佳節快樂~
※ 編輯: jeremy7986 (118.167.225.105 臺灣), 12/19/2025 08:33:36
※ 編輯: jeremy7986 (118.167.225.105 臺灣), 12/19/2025 08:38:16
→ spfy: 但你原本就會寫程式吧? 才有辦法幾天就搞出這個? 12/19 08:39
是的 本職是寫程式的 之前也有開發過遊戲
#1W1gGEgc (C_Chat)
※ 編輯: jeremy7986 (118.167.225.105 臺灣), 12/19/2025 08:44:07
推 XFarter: 發現忙著吐槽但忘記幫原Po推一下了 推 12/19 08:44
推 KTFGU: 好厲害喔,謝謝分享。這感覺都可以拿來當大學生期末專題發 12/19 08:49
→ KTFGU: 表等級了。 12/19 08:49
推 KTFGU: 不知道未來能否進化到 完全不懂程式語言也不用自己編譯也 12/19 08:51
→ KTFGU: 能做出遊戲的AI 12/19 08:51
以後一定會有
但以我的經驗 最好自己還是多少懂一些
才能驗證 AI 吐出來的東西是不是正確的
※ 編輯: jeremy7986 (118.167.225.105 臺灣), 12/19/2025 08:58:48
推 jupto: LLM本質上是抽獎 它本身沒在做“思考”這個動作而是根據你 12/19 08:59
→ jupto: 的輸入調整回答的卡池 然後意外的是這樣一個單純說你愛聽 12/19 08:59
→ jupto: 的回答的鸚鵡可以解決你很多的事 12/19 08:59
是的 回答就是計算後的結果
目前的 LLM 仍然是弱 AI
跟我們想像中有自我意識可以思考的那種強 AI 還是有一大段差距
但即使如此 光這樣的弱 AI 可以透過計算來得到我們想要的答案已經是非常厲害了
※ 編輯: jeremy7986 (118.167.225.105 臺灣), 12/19/2025 09:02:58
推 h0103661: 老早就不是單純抽獎的鸚鵡了,思考模型就是自己審計就 12/19 09:09
→ h0103661: 自己的輸出 12/19 09:09
推 NicoNeco: 帥 畢竟AI懂電腦語言是理所當然的 (才不是 12/19 09:37
推 rex7788: 吹太大了,我讓他改編我的程式碼,第一手就把我重製,問 12/19 09:42
→ rex7788: 題就很多,改編還要再進化一下 12/19 09:42
你的提示詞有沒有加上請不要更動原有的設計 我只需要重構程式碼就好
我說過了現在 AI 還是有瞎掰等通病 我也不是一次就到位 也有重骰好幾次
所以我不覺得有過於吹大什麼的
推 zader: 這才是AI開發的意義啊,有些煩瑣復雜的工作真的很累人 12/19 09:43
※ 編輯: jeremy7986 (118.167.225.105 臺灣), 12/19/2025 09:45:50
→ rex7788: 我提示詞開始就說是改編了,但還是要Roll,還有一個問題 12/19 10:04
→ rex7788: 就是token和對話長度到一個程度就有幻覺。我是覺得拿來 12/19 10:04
→ rex7788: 整理和標註很有用 12/19 10:04
推 n0029480300: 被重製的那位 你可以試試看用vs code+裡面的copilo 12/19 10:06
→ n0029480300: t 12/19 10:06
推 ponponbear: 太猛了! 12/19 10:31
推 jupto: 目前阻止不了AI胡扯 因為本質上它還是在猜你想聽啥並沒有 12/19 10:34
→ jupto: 對回答做出合理性判斷 12/19 10:34
→ jupto: 如果一個胡扯的回答接受度很高(或是其他認真的回答接受度也 12/19 10:36
→ jupto: 不怎麼高)它就會開始胡扯 12/19 10:36
忘記看過哪篇的報導
語言模型在進行跑分測試時 會用瞎掰或是胡扯的模型分數會比較高
就跟我們在寫考卷時 用猜題的分數通常會比較高是一樣的道理
除非跑分測試有加入答錯倒扣等條件 不然瞎掰AI大概都會比較佔優勢
※ 編輯: jeremy7986 (211.75.187.47 臺灣), 12/19/2025 10:51:37