iPhone 攝影時代 | 計算攝影之個人心得 - 為什麼評測以直出為主而不後製 (AI後製) |
所以在聊直出比較之前,我們先來聊目前的後製。
攝影版很多人喜歡用後製去評比一台相機,但評論相機我依舊是強調以直出為主。
本身不喜歡討論後製,雖然我怎麼後製都會了,但我不喜歡去談的原因還是說一下吧,
用實例來說明比較清楚,為什麼評測文要用直出比較為主。
現在好像很多人喜歡用PS的AI後製功能,強調電腦要有多好,後製有多強。
還有來源相片要有多好。
其實,要用AI後製的來源相片根本不用好,要用AI去後製的電腦也不用多好。
使用雲端AI時,電腦性能不用多好,因為走雲端。家裡電腦性能一定好不過雲端。
來源相片也不用單眼拍的,隨便一台爛手機前鏡頭拍的就可以。
頭髮也不用根根分明,因為AI會幫忙算出來。
眼睛一團黑也沒關係,AI幫忙算出細節。
那我這邊就以手機前鏡頭在光線不充足的室內拍攝的來給AI去做解析度補強。
拿來處理這張照片的電腦用的是九年前4GB記憶體的平板Surface Pro 3。
寫這段文章也是用裝上Win11專業版且螢幕有校色的Surface Pro 3
拿這樣子的配備以AI處理低解析的前鏡頭照片,就讓照片有不錯的解析度。
要多少像素輸出都沒太大問題。
這裡就用切半的方式去分享照片就好。
左邊是手機前鏡頭的模糊照片,右邊是經過AI去處理的。
(為了左右分割演示,這張非演算後高像素原圖)
難不成我可以用AI後製的說,這是手機前鏡頭拍的照片?
這就是為什麼我根本不想討論以PS AI後製這件事情。而都用純直出來做對比。
牽涉到後製..我實在不知道想比較的是什麼 ?
右臉眼睛後製細節。
可以拿後製過後的照片說是手機前鏡頭拍的嗎 ? 但這的確是手機前鏡頭拍攝的照片 。
所以看任何比較或評測文章,最好還是以直出為主。
如果喜歡玩AI後製的,要更認真看我這句話 " 拍的到比拍得清楚更重要 "
1:1去在乎手機畫質細節少相機那麼一點是不必要的。
這些都可以用AI去彌補。
要在乎的是所有動態範圍是否有記錄下來了。
拍的到,AI可以幫忙正確補強。拍不到,AI就是瞎猜亂補。
例如單眼拍攝當下無法確認照片有沒有哪些部分超過動態範圍導致沒有細節,
但iPhone當下是可以確認全部動態範圍細節有沒有拍成功的,iPhone的螢幕就可以完整檢視動態範圍。
單眼很多時候拿回家去拉細節,才發現根本沒保留住。
如果連動態細節都拉不出來,AI對於景色可非人臉的判斷那麼精準,
那些原本就超出動態範圍沒細節的部分,AI是很難猜正確的。
我來以風景舉例吧...
環境是景觀餐廳,人很多,沒地方架腳架,只能手持拍攝。連開閃光燈都會閃到別人被瞪眼。
RF 16mm F2.8 沒防手震,1/8s,ISO6400。
已經手肘夾緊,半按快門閉呼吸拍攝了。
(手機拍攝為高動態照片,上傳後會掉色階,請忽略色階的斷裂感)
那來看一下裁切比較。
前面R50跟iphone 15的裁切對照圖就直接拿來用,
我把這張圖交給AI處理...看看能夠補強到什麼程度
可以點小圖看大圖,
我把AI處理的稍微縮圖方便併在一起看。因為處理前原圖是64萬像素,AI處理後變成419萬像素。
不把AI處理的縮成64萬像素無法同大小合併在一起。
這張是裁切照片,AI都可以補強了。
但可以看出來,AI可以補強,但無法順利猜測成功。所以最好是直接拍攝高動態照片讓AI去做加強。
這樣應該大致可以理解我要表達的意思 ?
對於風景而言,高動態的呈現很重要,AI對於能理解的它能夠加強,
對於沒有資訊無法理解的,它就亂補,甚至不補了。
這當然可以下更多咒語讓AI去做接近正確性補強,但這就太費工夫了,除非職業原本就是 "AI溝通師"。
所以拍的到比拍的畫質清晰更為重要,動態範圍最好是當下就確認都有拍清楚。
這樣事後要用AI補強,都會更為正確。
當然後製的照片,這個自然不能拿來當作評比相機的一個基準照片,這並不公平也不精準。
我想這邊應該可以看出來為什麼我都不拿後製相片來評斷一台相機了。