→ guogu: 不過我也不知道它怎麼練的 只有約100張圖的角色11/24 22:25
→ guogu: 它也可以畫的很精準 只知道v3是基於sdxl11/24 22:25
昨天本來想講,只不過用推文講有點麻煩 ==
其實這也算是一個常見的誤解:
就是AI要將一個人物「學得像」需要大量、精緻的圖片作為資料。
但是實際上,如果只是要「學得像」那其實只要不到10張圖片就能辦到了。
而且圖片不用特別精緻,或者說某些特別精緻的圖片反而會有反效果。
對AI來說,要學習一個人物比較需要的是能精確呈現角色特徵,
用色和線條分明的圖片。
最符合以上需求的圖片是什麼?
對,動畫的截圖。
我舉個比較極端的例子來講:
https://i.imgur.com/RUAphDb.jpg











→ as3366700: 斷頭台的翼龍4ni? 11/25 22:48
→ Sessyoin: 請給我更多AI色圖 我要做研究 11/25 22:49
推 SunnyBrian: 請問收現金袋嗎? 11/25 22:50
推 Lisanity: 太認真了吧 XD 推 11/25 22:52
→ spfy: 早坂愛:???????? 11/25 22:52
推 weiyilan: 然後發現自己喜歡的冷門角有人做AI色圖是蠻開心的XDD 11/25 22:53
推 lsd25968: 翼龍你data set太小的話有試過data argument嗎? 11/25 22:54
→ Satoman: 我通常是手動處理去轉轉翻翻,讓他圖片看起來是不同張 11/25 22:56
推 lsd25968: 有很多可以弄 DL的時候水平翻轉 旋轉 alpha值 伸縮 剪裁 11/25 22:57
→ lsd25968: 啥的 11/25 22:57
→ Satoman: 我沒試過,主要還是dataset每幾張的話自己手動調就好了 11/25 22:58
→ Satoman: 像是全身圖我通常會順手裁成三到四張圖 11/25 22:59
推 lsd25968: 哦哦 數量少所以乾脆手動就是了 11/25 23:00
→ Satoman: 對啊,本來就沒幾張整理的時候順便調一下就好 11/25 23:00
推 lsd25968: 畢竟資料集太小造成的overfitting 最直觀解法就是擴大資 11/25 23:02
→ lsd25968: 料集(`・ω・′) 11/25 23:02
→ Satoman: 斷頭法其實很好用,看到服裝類似但是用TAG區分的也可以用 11/25 23:03
→ lsd25968: 只是湊一腳談談 沒實際玩過AI產圖就是 11/25 23:03
→ Satoman: stable diffusion的webui有內建一個翻轉功能 11/25 23:04
→ Satoman: 我自己是沒用直接用過,因為還是有人物左右不對稱的問題 11/25 23:04
推 lsd25968: 原來如此(′・ω・`) 11/25 23:05
推 lolicat: 難怪最近阿烏拉的圖大量發生... 11/25 23:16
推 jeff666: 斷頭學習法 11/25 23:21
推 AirForce00: 推講解 11/25 23:29
推 tim19131: 人為了色色,其利斷金 11/25 23:33
推 JohnShao: 斷頭法學習的身體如果畫風差異仍然偏大不會污染嗎 11/25 23:37
→ bluejark: LORA就是把大模型沒有的東西加上去啊 11/25 23:40
→ g9591410: 這不是接頭霸王嗎XD 11/25 23:40
→ bluejark: 但所謂學得像還是蠻主觀的 圖提供的資訊少姿勢一變就歪 11/25 23:42
→ bluejark: 衣服到現在訓練有完整重現的嗎 好像還是會是微妙的不同 11/25 23:47
→ Satoman: 嚴格來講不是加,是在過程中汙染就是了 11/25 23:50
→ Satoman: 完整重現就看本身衣服複雜度和抽卡數量 11/25 23:51
推 guogu: 我的意思是如果只有100張的圖他們都特地練出來 11/26 00:09
→ guogu: 那樣總共需要的工程量未免也太大了 11/26 00:10
→ Satoman: 現在一堆人用腳本和AI再練AI,其實還好 11/26 00:10
→ Satoman: CIV上也有一堆用AI練AI產生的模型,人類從頭到尾不用介入 11/26 00:11
推 roseritter: 真是好研究~~~~推推 11/26 00:46
推 roseritter: 阿烏拉也是為了研究AI才成為斷頭台的阿烏拉 11/26 00:48
推 aquacake: 喜歡的冷門角色能自己產真的挺開心的 11/26 01:55
推 WeiMinChen: 就叫你阿烏拉吧 11/26 02:04
推 Innofance: 老哥,如果我想要訓練某個畫風的模型要多少圖才夠 11/26 02:37
→ Satoman: 不一定,大部分的人都是能多少就丟多少,再看情況調整 11/26 02:53
→ Satoman: 通常是選看起來差異性比較大的圖片,除非你有想搞腳色包 11/26 02:53
推 iamnotgm: 推 11/26 03:05
推 naya7415963: 原來翼龍大有在玩AI 11/26 04:12
推 v86861062: 推推 11/26 04:59
推 Wangdy: 貌強只推 11/26 06:38
推 alpho: 原來還有這種方法 感謝分享 11/26 06:46
推 Gjerry: 資料原則上越多越好,多還可以想怎麼調整,少就比較麻煩 11/26 06:56
推 jeffguoft: 推專業,學到了 11/26 07:03
推 louner: 推 能自己畫冷門角色的圖真的棒 但之前試的感覺是用文字 11/26 07:31
→ louner: 還是很難控制圖的內容 controlnet+使用者有繪畫底子才能 11/26 07:31
→ louner: 真的釋放這類model的潛力 11/26 07:31
→ louner: 另外砍頭那召真有趣XD 搞不好之後會有人釋放砍頭數據集 11/26 07:32
推 ddd852: 瑟瑟! 11/26 08:20
推 y124421473: 感謝為世界和平貢獻 11/26 08:51
→ bnn: 確實是接頭霸王 但AI會幫你P的還把接頭醫治好一致性 11/26 11:04
推 longlyeagle: 厲害厲害 11/26 11:55
推 timmy999: 好奇那個txt檔是什麼? 11/26 11:56
推 jude187031: 真厲害 11/26 11:58
推 nisioisin: 曹賊大喜 11/26 12:13
推 sk3s: 推 11/26 12:20
→ Satoman: txt就標籤,告訴ai這張圖片有什麼要素 11/26 13:10
→ Satoman: 之後產圖的時候咒語就是那些標籤 11/26 13:10
推 saces: Novelai自己就有訓練能力,現在一堆SD模型都參了一部分當 11/26 13:28
→ saces: 初洩漏的Novelai模型,v3會這麼強單純只是用了SDXL,不是 11/26 13:28
→ saces: 什麼LORA,SDXL訓練的需求太高,所以雖然推出很久,民間模 11/26 13:29
→ saces: 型的完成度還是沒有很高 11/26 13:29
推 ap9xxx: 大師 11/26 21:45