如同先前Veo能看懂Markup,GPT的Image 2被發現能夠給出分層(Layers)的PSD,也是馬上引起使用者的注意,附帶 "we are so cooked!",或"設計師完了"之類的句子。
我今天也測試了這個功能,它不穩定,雖說OpenAI和Adobe是有明確的合作的,但實際使用起來,似乎GPT還不是很掌握這個功能,有時可以有時失敗 (但有了一次的成功,就讓我確信它之後會變得非常明確)
我沒有使用目前流傳的超長超嚇人提示,而是用自然語言,用引導的 (我對AI非常有耐心,比對人有耐心,因為#它只是個孩子啊,而且我還會擔心傷到它的心,從不會對AI疾言厲色,總是用正面表述:嗯,很不錯!不過你好像忘了我說要維持原始比例對吧?)
在幾次的嘗試後,真的得到了原生的PSD的檔案 (如附影片),不過我還是有更細緻的修了白邊,以及調整略為跑掉的比例。
但是,*以下才是我要說的*
我完成了測試以後,我忽然有了"其實好像不需要這麼作"的想法
因為其實我們已經進入了一個新的時代,不需要再用新工具套回老路線,也就是說,以後我們可能未必需要PSD或是3D模型來作為所謂的原始檔。
你看哦,我們現在要求/期待AI給出PSD或3D有兩個原因,第一,你要用AI修圖,但AI可能不夠精確,難以將字移到你要的位置或大小,或是將圖中沙發挪到哪個角度。
第二,AI改圖雖然方便,但是品質會在多次來回中下降,越改品質越差,這是因為你雖然要求AI改一個局部,但AI是整張重繪,然後在重繪的過程中順便將你要的東西加上,而重繪這個過程就會丟失細節。
可是就像開頭提到的,從去年到現在,給AI markup已經很成熟,所以關於移動位置改變局部這件事,我可以在圖上紅筆標註,而當前的AI模型都能理解得很好,之後那就更不用說了。
而重繪這件事,我也確信,之後會是"像素等級的重繪",AI模型的眼力將好到明察秋毫的程度,你的原圖的每一個像素顏色都會被安放回原來的位置,整張圖分毫不差,除了你要改的地方。
那時候,手握PSD檔或是3D模型,為了可以之後調整,就不是那麼必要了,因為workflow不再是線性的,就像現在的AI生成圖像,它其實跳過了3D modeling、lighting、texture和render,
或是2D、清圖、描邊、上色、上陰影...這些步驟,直接從需求一歩跨到完稿,省略了中間的步驟,因為那是你人類才需要的,AI不需要,只要它能明確知道你的需求,而這需求又是在數位世界裡能生出來的。
如果我的手掌就能憑空生出火焰,我就不會需要依照生火的步驟來鑽木取火。
我要求它依據圖面深度,拆分出建築主體(並補全遮檔)、道路、樹木及其陰影、車輛及其陰影。
它作得很不錯 (在經過三次失敗之後) 但似乎它是"現學"的,我看著它去搜尋並考慮利用Python來創建層,使用psd-tools來簡化PSD製作,失敗後又考慮使用ImageMagick來進行操作,看看是否可以將分開的PNG轉換為多層次的PSD檔案...
也就是說,雖然現在大家都在嘗試生成PSD,但每次送出的要求對GPT來說都是全新的任務,顯然它沒有完全掌握Photoshop,而是藉由強大的思考模式,在接到任務後自己學的。


留言
張貼留言
在此輸入您的留言,以及使用電子郵件訂閱後續意見至您的信箱