Re: [問題] 「差補點」與「動態估測」的用處?
看板Electronics作者Maddulin (what else do u focus?)時間18年前 (2007/07/03 12:25)推噓2(2推 0噓 6→)留言8則, 2人參與討論串2/2 (看更多)
※ 引述《deo2000 ()》之銘言:
: 標題: [問題] 「差補點」與「動態估測」的用處?
: 時間: Tue Jul 3 01:14:47 2007
: 一些市面上的國產數位相機,很喜歡強調所謂的「差補點到XXX畫素」,
: 但是,有在玩相機或是錄影機,玩得比較深入的人就會知道,
: 所謂的「差補點到XXX畫素」,幾乎都無濟於事,
: 因為根本無法增加畫面所捕捉到的細節。
:
: 但是學術界似乎很熱衷於所謂「差補點」或「動態估測」之類的技術?!
: 「動態估測」或許可以替動態畫面減少檔案大小,
: 但是我對於「差補點」的用處非常存疑,
: 就連Fujifilm最引以為傲的「SuperCCD」我都非常的懷疑實用性。
:
: 或許是小弟見識淺薄,
: 我個人認為,這些使用軟體,試圖讓畫面更細緻的方法,
: 只是將資訊無中生有,頂多是看起來更順眼,但是畫面細節卻少了很多。
你指的"差補點"應該是以數學手段內插 pixel 增加解析度
既然以數學的方法就不可能提升畫面的細節, 如同你所說這只是"無中生有"的預測
當對於非常細節的畫面預測必然產生 alaising
所以你會發現"畫面細節卻少了很多"
另一個主要的issue, 即使理論或以軟體實能有 satisfactory visual quality
對於硬體來說卻是困難重重, 硬體實現本身就有諸多對於 complexity 的限制
加上硬體設計的難度比軟體的門坎高出太多,而 designer 的素質又普遍不足
目前為止這些比較高階的商業應用的硬體設計仍處在不成熟的階段
但我認為這樣的 trend 不會改變多少, 軟體/硬體實現的 gap 可能難以彌補
至於你說的 motion estimation 為 motion-conpensated prediction 相關技術,
用於動態影像編碼, 但編碼動態影像必然為 lossy,
因為它所重視的是 "Rate-Distortion" performance, 若你只完全在乎畫面品質
那又何必使用 compression technique 呢?
而學術界熱衷的原因就更簡單了, 因為他簡單, 好設計 (not guaranteed quality)
很容易就是一篇論文, 但這種研究通常沒有太多的學術價值
同時這些設計的方法離軟體 (e.g., JM) 依然具備明顯的落差
當然學術論文非常容易造假,有些宣稱達到某種程度的表現,往往是做弊的
有設計經驗的人 從他選用的演算法到架構的設計就大概清楚 RD 表現為何,
總而言之,這類研究大部分是在"充論文數",因為主要的研究在1,20年前就已結束(h/w)
:
: 像我最近使用JVC的HDD錄影機,雖然號稱解析度有多高(好像是以H.264壓縮),
: 但是,由於我的用途是科學研究,
: 所以很容易就發現畫面細節的保留比起用DV少了很多很多,就算轉成DVD以後還是DV樂勝,
: 而且我們都是用最高畫質在錄。
:
: 這種細節的差異,尤其在擷取畫面後更明顯,擷取下來的幾乎不可用。
question 1: lossy vs lossless
question 2: h.264 to mpeg2 (transicoding) vs lossless to mpeg2
所以你上面的比較呈現相反的結果,才會讓人感到意外
此外,如同前述,目前以硬體實現的 H.264 codec 在 RD 表現上仍落後軟體太多
以 JM 而言, 它所發展的主要目的是在提供 predominant RD quality,
發展初期當然不會考慮過多 complexity 的問題,然而後續 competitions 卻自限格局
開始朝向low-cost low complextiy, 但畢竟主要架構已定, 達到的效果並不顯著
JM 實現的方向基本就與硬體相異,要求h/w 能有 JM 的品質無異緣木求魚
也許你看過一些相關的研究提供與JM RD 比較,宣稱它們的表現近似
例如某T大某lab蠻喜歡做這類研究,但如同我說的,數據的可靠度非常讓人質疑
因為太多軟體演算法的技巧,搬到硬體的成本完全讓人敬而遠之,
除非你能有 powerful 的硬體補嘗技術,
但對全硬體 designer 而言,通常於理論的深度而言仍然相對薄弱,
至少我見過這類發表的論文, 硬體設計者畢竟還是硬體設計者
簡言之,以目前硬體設計的技術與成本考量,你應當調整對這些 lossy 裝置的期待
它們會有這樣的差強人意的表現也不足為奇,但假若某些天賦異稟的 designer
慢慢出現在該領域,也許未來的發展又會是不同的路
: --
: ※ 發信站: 批踢踢實業坊(ptt.cc)
: ◆ From: 140.122.36.150
: ※ 編輯: deo2000 來自: 140.122.36.150 (07/03 01:15)
: 推 Aragom:拿lossless和lossy比會不會太不公平了 07/03 04:36
: → Aragom:視訊壓縮的目的就是在有限的頻寬下希望達到最好的畫質 07/03 04:37
: → Aragom:當你連bitrate都不在意的時候當然是用無失真壓縮 07/03 04:37
: → Aragom:所以DLSR通常都會支援raw未壓縮的影像格式保留最真的畫面 07/03 04:38
: → Aragom:說了半天好像沒回答到原po問題, 插補點(interpolation) 07/03 04:58
: → Aragom:這技術基本上是用在motion estimation上的 07/03 04:59
: → Aragom:由於移動的物體並非1/30秒就會以整數像素點的移動量移動 07/03 04:59
: → Aragom:因此half-pixel ME以及quarter-pixel ME就具有其必要性 07/03 05:00
: → Aragom:原po有興趣可以去下載H.264 JM code玩玩 07/03 05:02
: → Aragom:比較開啟sub-pixel interpolation和不開啟的差異 07/03 05:03
: → Aragom:至於數位變焦的像素插補基本上和我以上說的技術無關 07/03 05:04
: → Aragom:純粹只是要打腫臉子充胖子 XD 07/03 05:05
他所稱的 interpolation 顯然不是用於 motion video coding
因為考慮影像編碼技術, 實在沒有必要先提升解析度再編碼,(何苦脫褲子放屁呢?)
而 (sub-pel) interpolation, 主要原因是它能有效降低 MC 預測之 DFD
(displaced-frame diff.), (以 objects displacing 觀點解釋並不適當)
residual下降, entropy當然下降, 同時降低 T/Q 失真, 也就提升了 RD 表現
開不開 sub-pel interpolation, RD 表現的差距應該是顯而易見的
但若對於視覺感知而言, 如同前述,若只在乎畫面品質, 那何必在乎編碼技術?
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 220.141.232.39
推
07/03 15:11, , 1F
07/03 15:11, 1F
→
07/03 15:12, , 2F
07/03 15:12, 2F
→
07/03 15:15, , 3F
07/03 15:15, 3F
→
07/03 15:16, , 4F
07/03 15:16, 4F
推
07/03 17:42, , 5F
07/03 17:42, 5F
→
07/03 17:43, , 6F
07/03 17:43, 6F
→
07/03 17:44, , 7F
07/03 17:44, 7F
→
07/03 17:50, , 8F
07/03 17:50, 8F
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 2 之 2 篇):