若是相機能引入手機那種運算HDR/Noise reduce等等功能,才是真的進步

就一句话,图都没有
對呀!
要知道 Sony RX100 舊款也是可以裝 APP 的,千萬不要看不起相機!
雖然第六代拿掉了這功能
然後第七代也拿掉了
但...但總有一天會裝回去的!
若您發現偶無回應就是我去山上拍照囉!
1.手機市場大,廠商才能一直投入成本研發最新技術

2.手機空間有限,只有性能因為每年製成提升可以快速進步
所以為了壓榨出更多畫質,才採用了HDR+之類的即時多框強化技術

3.這種強化技術絕對有利於所有攝影器材
但先決條件很多,所以很難要求相機廠跟上
不過時機到了該來的還是會來

舉個例子,最早HDR照片合成軟體出現在PC上,運算很費時
但時至今日幾乎每台相機都機身內建HDR合成功能
其他像是全景模式、縮時攝影、美肌等等,也都是一家有、其他家跟著有

手機上的夜拍模式也是一家有、其他家跟著有

HDR+由Google先搞出來
然後HTC仿了個HDR Boost、Apple又仿了個智慧型HDR
雖然這技術門檻較高,但DXO分數證明不用HDR+也能有高分
華為、三星、小米都是靠別的方式拿高分

相機有大感光元件、鏡頭較無空間限制的優勢
但有些東西則不如手機,像是CPU、RAM、ROM、網路能力等等
有些東西如果能搬手機的來用,或許可以省下研發費用
但也不是那麼簡單,成本跟銷量會限制產品研發的自由度
多數的消費者其實用不到單眼的14 bit,
一堆照片放在電腦裡,螢幕卻還是8 bit的人一堆。

多數的消費者喜歡拍照即時分享,
等到回家Raw檔調完,PS修完,火都熄了。

相機廠商若要去跟手機,應該要先裝上iOS或Android,
第三方海量App才是威力所在,但為什麼沒甚麼相機廠這樣做?
因為她可能必須讓相機能插Sim卡,然後搞超高規硬體性能。

那她們乾脆改行做手機就好了呀!

所以或許這就是為什麼,相機大廠們也都看的到未來的趨勢,
但她們除了繼續放大感光元件、衝畫質跟做好鏡頭之外,
能著墨的其實不多,只能坐視江山被吞食,不然能怎麼辦?

對我來說,相機只有認真想拍拍東西的時候會帶,
隨身帶著的反而是哀鳳Xs Max,照片也多是她拍的。
AI運算在那裡?
目前為止地球上還沒有已經到商用程度的AI影像處理
連演算法都還沒有,怎麼有人的手機相機已經有AI了
y2kplus wrote:
若是相機能引入手機那(恕刪)

早在2010年SONY的A33跟A55就有內建所謂多框降躁
簡單講就是HDR疊圖
手機HDR應該在那之後3-4年才逐漸普及
featheringer wrote:
手機算12bit,相(恕刪)


所以慣用相機的人和慣用手機的就是兩種人,一種圖方便木眼,一種喜歡100%數毛。
這也是為什麼手機和相機愛好者時常吵,兩個不同標準的相比,一個要輕要快,反正不會放大看。
一種要畫質好,在暗的地方拍也要畫質好,就是要放大也高畫質。
需求不同,產品愛好自然不同
我記得三星發表過一款android 相機,叫:SAMSUNG GALAXY Camera ,
那時候標題主打:智慧型相機,外觀還滿好看的,概念也吸引人,
但不知道為甚麼之後就不了了之...
小葉叔叔 wrote:
早在2010年SONY的A33跟A55就有內建所謂多框降躁
簡單講就是HDR疊圖
手機HDR應該在那之後3-4年才逐漸普及

Sony多框降躁是疊圖運算沒錯,但跟HDR無關,而且會變模糊
HDR是另外一個模式,兩者分開且無法合用

手機的HDR模式一開始也是跟相機一樣
至少3次不同曝光,得到3種亮度素材來疊圖合成

但Google的HDR+才是真正集大成並全面強化,相當於:
1.多框降噪
2.HDR合成
3.提升解析
4.提升色彩還原

另外HDR+也是首次採用高速連拍素材達成HDR
並在拍攝預覽畫面時就持續背景疊圖
加上手機CPU夠強,所以可以按下拍攝瞬間就完成運算

我曾經提過Sony RX100系列的HDR運算比單眼系列強一些
當時我手中的是NEX-3、NEX-5N,HDR合成會造成對比度大降
而且疊圖似乎不會剔除鬼影,造成拍攝出來幾乎都不可用

RX100從第一代就比較強,對比度正常,鬼影出現機率也少很多
色彩也有些微提升、雜訊些微下降,清晰度維持得差不多
然後歷經每代提升處理器速度,合成速度也一直加快
到我換成RX100M6,HDR處理速度已經非常短暫,不太會影響拍攝節奏
多框降噪模式也可以選擇連拍更多張(以前最多6連拍,現在可以10幾連拍)

但如果想要最大寬容度需要調成HDR 6ev,此時疊圖鬼影出現機率會變得很高
所以HDR Auto拍攝成功率高、但寬容度提升很小
HDR 6ev寬容度提升大、但拍攝成功率很低...跟手機比還差很多
且跟HDR+比起來還需要把各項分開的演算法總合才行

另外還有一項不只Sony,包含三星手機也還學不來的就是疊圖同時提升解析
這點Apple也學來了,還有更一步的Deep Fusion(深度融合)
(不過Deep Fusion拍的人臉很恐怖,簡直是反美顏效果)
Google還藉同樣概念(這算法中翻超級解析度)推出Super RES Zoom
https://ccc.technews.tw/2018/10/17/see-better-and-further-with-super-res-zoom-on-the-pixel-3/

我認為要討論手機HDR+一定要深入了解技術原理,而且要知道不是每家都有
各家都有各自發展的不同HDR強化技術,如同電視的補插功能大家都有,但實作方式不同
但只有HDR+需要獨立出來,因為裡面包含太多東西,她不是最強,也有缺點
不過我認為技術原理卻最值得探討,也是各家學習的榜樣

包含後續的Super RES Zoom又是一大數位變焦跨時代進步
讓等效焦段50mm的Pixel 4望遠能力,接近等效125mm的華為P30 Pro
要是能廣泛應用在所有相機,讓望遠端都能再提升一倍並且非常可用
會是所有消費者之福
有一大票的人要求相機要直出,才能評估相機的優劣,上PC軟體調整就不算,這算直出還是加工?
關閉廣告
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!