在我們的印象中,智能手機的 "AI 相機 " 這一概念,最早差不多出現在驍龍 820 時代。也就是說,它距今已有差不多 10 年左右的時間了。
但時間一長,對于這種 "AI 相機 " 的批判、甚至嘲笑就開始多了起來,畢竟它拍出的顏色實在是 " 太假 "。所以到了后來,廠商們對于手機 AI 相機的研發方向,開始逐漸轉向了所謂的 " 場景優化 ",也就是 AI 先要認出來拍的 " 是什么 ",然后再對不同的畫面施加不同的色彩和紋理增強算法。
比如在識別出是食物時,就略微強化對比度,并對焦外施加虛化;識別出是人像,就調用美顏算法;識別出拍的是建筑和天空,就專門增強天空的藍色調等等。
然而這樣的 "AI 相機 ",其實也存在著一個很大的問題,那就是在現實世界里拍照時,對象往往并沒有那么 " 單一 "。比如一張風景照片可能前方是花朵、后方有建筑,再遠處還有藍天;又比如在大多數的人像拍攝場景中,被攝對象未必就會距離背景那么 " 遠 "。
那在這樣的情況下,如果 "AI 相機 " 只識別出了畫面的單一主體,只調用了一種算法,就可能會出現畫面里的其他部分被套用了錯誤算法,從而出現奇怪觀感的問題。
但這還沒完。畢竟智能手機的相機在硬件層面相比專業相機,無論在傳感器尺寸還是鏡頭的光學素質上,都還存在不小的差距。因此直接使用 AI 大模型 " 畫 " 出更多的細節,特別是增強超高倍率望遠照片的銳度和清晰度,就成為了近年來手機 "AI 相機 " 最流行的功能。
當然,"AI 望遠增強 " 其實槽點也不少。一是 AI 畫圖的過程多少帶點猜的意味,遇到復雜紋理或細小文字之類的情況,"AI 算法 " 就可能會猜錯,從而形成滑稽的效果。二是在目前的手機上,AI 增強算法不一定全都運行在手機的端側。一旦遇到那些嚴重依賴云端算力的機型,不僅就意味著拍照本身會消耗流量,而且萬一沒網了,所生成式的增強效果就可能就會大打折扣,甚至 " 原形畢露 "。
但是有經驗的朋友都知道,僅僅只是 " 色彩好看 "、" 虛化明顯 " 或 " 細節清晰 ",并不足以稱之為一張好的照片。因為攝影藝術還需要用戶有對空間感的正確把握、能準確地找到最合適的構圖角度,甚至是為了傳達特定的畫面氛圍,而刻意去強調、扭曲某些色彩風格和光影關系。
然而以上這些,對于此前的手機 "AI 相機 " 而言,基本上都是無法做到的。說得更簡單一點,假如一位毫無攝影技巧的用戶,在拍照時胡亂構圖、亂加濾鏡,那么 AI 能給 " 救回來 " 嗎?顯然不能,因為這些 "AI 相機 " 并不能主動干涉用戶拍照的人為操作流程,它們的算法基本都是發生在用戶按下快門之后。如此一來,這實際上就會變成一種 " 屎上雕花 " 的尷尬情況。
看到這里,可能有朋友會想到過去一些機型(比如三星)上很早就出現的 " 構圖助手 " 功能。但那更多僅僅只是識別出了畫面里最容易對上焦、占畫面比例最大的物體中心在哪,實際上并沒有涉及到真正的 " 攝影科學 ",而且也缺乏對用戶的詳細指導。相比之下,谷歌這次帶來的新功能,很有可能是智能手機上首次出現真正具備交互能力、旨在 " 教用戶拍好照 " 的解決方案。
當然,站在用戶的角度來說,倒也未必所有人都會喜歡這個方案。因為不能否認,還是會有一部分用戶就是不想學習,只愿意隨便怎么按快門,剩下的一切都交給 AI。但對于目前的手機行業來說,當有越來越多的廠商開始主張他們的影像旗艦機型 " 具有專業屬性、能夠作為生產力設備 " 時,至少對于這類產品來說,能夠真正提升用戶的拍照水準,顯然會是一個相當有意義的賣點。
打個比方,就好比不是所有的駕駛者都會愿意智能汽車教自己怎么遵守交通規則,但哪個性能車的用戶會拒絕一套能讓你在賽道里開得更快的 AI 教練呢?
【本文部分圖片來自網絡】