2.手機空間有限,只有性能因為每年製成提升可以快速進步
所以為了壓榨出更多畫質,才採用了HDR+之類的即時多框強化技術
3.這種強化技術絕對有利於所有攝影器材
但先決條件很多,所以很難要求相機廠跟上
不過時機到了該來的還是會來
舉個例子,最早HDR照片合成軟體出現在PC上,運算很費時
但時至今日幾乎每台相機都機身內建HDR合成功能
其他像是全景模式、縮時攝影、美肌等等,也都是一家有、其他家跟著有
手機上的夜拍模式也是一家有、其他家跟著有
HDR+由Google先搞出來
然後HTC仿了個HDR Boost、Apple又仿了個智慧型HDR
雖然這技術門檻較高,但DXO分數證明不用HDR+也能有高分
華為、三星、小米都是靠別的方式拿高分
相機有大感光元件、鏡頭較無空間限制的優勢
但有些東西則不如手機,像是CPU、RAM、ROM、網路能力等等
有些東西如果能搬手機的來用,或許可以省下研發費用
但也不是那麼簡單,成本跟銷量會限制產品研發的自由度
一堆照片放在電腦裡,螢幕卻還是8 bit的人一堆。
多數的消費者喜歡拍照即時分享,
等到回家Raw檔調完,PS修完,火都熄了。
相機廠商若要去跟手機,應該要先裝上iOS或Android,
第三方海量App才是威力所在,但為什麼沒甚麼相機廠這樣做?
因為她可能必須讓相機能插Sim卡,然後搞超高規硬體性能。
那她們乾脆改行做手機就好了呀!
所以或許這就是為什麼,相機大廠們也都看的到未來的趨勢,
但她們除了繼續放大感光元件、衝畫質跟做好鏡頭之外,
能著墨的其實不多,只能坐視江山被吞食,不然能怎麼辦?
對我來說,相機只有認真想拍拍東西的時候會帶,
隨身帶著的反而是哀鳳Xs Max,照片也多是她拍的。
小葉叔叔 wrote:
早在2010年SONY的A33跟A55就有內建所謂多框降躁
簡單講就是HDR疊圖
手機HDR應該在那之後3-4年才逐漸普及
Sony多框降躁是疊圖運算沒錯,但跟HDR無關,而且會變模糊
HDR是另外一個模式,兩者分開且無法合用
手機的HDR模式一開始也是跟相機一樣
至少3次不同曝光,得到3種亮度素材來疊圖合成
但Google的HDR+才是真正集大成並全面強化,相當於:
1.多框降噪
2.HDR合成
3.提升解析
4.提升色彩還原
另外HDR+也是首次採用高速連拍素材達成HDR
並在拍攝預覽畫面時就持續背景疊圖
加上手機CPU夠強,所以可以按下拍攝瞬間就完成運算
我曾經提過Sony RX100系列的HDR運算比單眼系列強一些
當時我手中的是NEX-3、NEX-5N,HDR合成會造成對比度大降
而且疊圖似乎不會剔除鬼影,造成拍攝出來幾乎都不可用
RX100從第一代就比較強,對比度正常,鬼影出現機率也少很多
色彩也有些微提升、雜訊些微下降,清晰度維持得差不多
然後歷經每代提升處理器速度,合成速度也一直加快
到我換成RX100M6,HDR處理速度已經非常短暫,不太會影響拍攝節奏
多框降噪模式也可以選擇連拍更多張(以前最多6連拍,現在可以10幾連拍)
但如果想要最大寬容度需要調成HDR 6ev,此時疊圖鬼影出現機率會變得很高
所以HDR Auto拍攝成功率高、但寬容度提升很小
HDR 6ev寬容度提升大、但拍攝成功率很低...跟手機比還差很多
且跟HDR+比起來還需要把各項分開的演算法總合才行
另外還有一項不只Sony,包含三星手機也還學不來的就是疊圖同時提升解析
這點Apple也學來了,還有更一步的Deep Fusion(深度融合)
(不過Deep Fusion拍的人臉很恐怖,簡直是反美顏效果)
Google還藉同樣概念(這算法中翻超級解析度)推出Super RES Zoom
https://ccc.technews.tw/2018/10/17/see-better-and-further-with-super-res-zoom-on-the-pixel-3/
我認為要討論手機HDR+一定要深入了解技術原理,而且要知道不是每家都有
各家都有各自發展的不同HDR強化技術,如同電視的補插功能大家都有,但實作方式不同
但只有HDR+需要獨立出來,因為裡面包含太多東西,她不是最強,也有缺點
不過我認為技術原理卻最值得探討,也是各家學習的榜樣
包含後續的Super RES Zoom又是一大數位變焦跨時代進步
讓等效焦段50mm的Pixel 4望遠能力,接近等效125mm的華為P30 Pro
要是能廣泛應用在所有相機,讓望遠端都能再提升一倍並且非常可用
會是所有消費者之福
關閉廣告