Re: [問題] 「差補點」與「動態估測」的用處?

看板Electronics作者 (what else do u focus?)時間18年前 (2007/07/03 12:25), 編輯推噓2(206)
留言8則, 2人參與, 最新討論串2/2 (看更多)
※ 引述《deo2000 ()》之銘言: : 標題: [問題] 「差補點」與「動態估測」的用處? : 時間: Tue Jul 3 01:14:47 2007 : 一些市面上的國產數位相機,很喜歡強調所謂的「差補點到XXX畫素」, : 但是,有在玩相機或是錄影機,玩得比較深入的人就會知道, : 所謂的「差補點到XXX畫素」,幾乎都無濟於事, : 因為根本無法增加畫面所捕捉到的細節。 : : 但是學術界似乎很熱衷於所謂「差補點」或「動態估測」之類的技術?! : 「動態估測」或許可以替動態畫面減少檔案大小, : 但是我對於「差補點」的用處非常存疑, : 就連Fujifilm最引以為傲的「SuperCCD」我都非常的懷疑實用性。 : : 或許是小弟見識淺薄, : 我個人認為,這些使用軟體,試圖讓畫面更細緻的方法, : 只是將資訊無中生有,頂多是看起來更順眼,但是畫面細節卻少了很多。 你指的"差補點"應該是以數學手段內插 pixel 增加解析度 既然以數學的方法就不可能提升畫面的細節, 如同你所說這只是"無中生有"的預測 當對於非常細節的畫面預測必然產生 alaising 所以你會發現"畫面細節卻少了很多" 另一個主要的issue, 即使理論或以軟體實能有 satisfactory visual quality 對於硬體來說卻是困難重重, 硬體實現本身就有諸多對於 complexity 的限制 加上硬體設計的難度比軟體的門坎高出太多,而 designer 的素質又普遍不足 目前為止這些比較高階的商業應用的硬體設計仍處在不成熟的階段 但我認為這樣的 trend 不會改變多少, 軟體/硬體實現的 gap 可能難以彌補 至於你說的 motion estimation 為 motion-conpensated prediction 相關技術, 用於動態影像編碼, 但編碼動態影像必然為 lossy, 因為它所重視的是 "Rate-Distortion" performance, 若你只完全在乎畫面品質 那又何必使用 compression technique 呢? 而學術界熱衷的原因就更簡單了, 因為他簡單, 好設計 (not guaranteed quality) 很容易就是一篇論文, 但這種研究通常沒有太多的學術價值 同時這些設計的方法離軟體 (e.g., JM) 依然具備明顯的落差 當然學術論文非常容易造假,有些宣稱達到某種程度的表現,往往是做弊的 有設計經驗的人 從他選用的演算法到架構的設計就大概清楚 RD 表現為何, 總而言之,這類研究大部分是在"充論文數",因為主要的研究在1,20年前就已結束(h/w) : : 像我最近使用JVC的HDD錄影機,雖然號稱解析度有多高(好像是以H.264壓縮), : 但是,由於我的用途是科學研究, : 所以很容易就發現畫面細節的保留比起用DV少了很多很多,就算轉成DVD以後還是DV樂勝, : 而且我們都是用最高畫質在錄。 : : 這種細節的差異,尤其在擷取畫面後更明顯,擷取下來的幾乎不可用。 question 1: lossy vs lossless question 2: h.264 to mpeg2 (transicoding) vs lossless to mpeg2 所以你上面的比較呈現相反的結果,才會讓人感到意外 此外,如同前述,目前以硬體實現的 H.264 codec 在 RD 表現上仍落後軟體太多 以 JM 而言, 它所發展的主要目的是在提供 predominant RD quality, 發展初期當然不會考慮過多 complexity 的問題,然而後續 competitions 卻自限格局 開始朝向low-cost low complextiy, 但畢竟主要架構已定, 達到的效果並不顯著 JM 實現的方向基本就與硬體相異,要求h/w 能有 JM 的品質無異緣木求魚 也許你看過一些相關的研究提供與JM RD 比較,宣稱它們的表現近似 例如某T大某lab蠻喜歡做這類研究,但如同我說的,數據的可靠度非常讓人質疑 因為太多軟體演算法的技巧,搬到硬體的成本完全讓人敬而遠之, 除非你能有 powerful 的硬體補嘗技術, 但對全硬體 designer 而言,通常於理論的深度而言仍然相對薄弱, 至少我見過這類發表的論文, 硬體設計者畢竟還是硬體設計者 簡言之,以目前硬體設計的技術與成本考量,你應當調整對這些 lossy 裝置的期待 它們會有這樣的差強人意的表現也不足為奇,但假若某些天賦異稟的 designer 慢慢出現在該領域,也許未來的發展又會是不同的路 : -- : ※ 發信站: 批踢踢實業坊(ptt.cc) : ◆ From: 140.122.36.150 : ※ 編輯: deo2000 來自: 140.122.36.150 (07/03 01:15) : 推 Aragom:拿lossless和lossy比會不會太不公平了 07/03 04:36 : → Aragom:視訊壓縮的目的就是在有限的頻寬下希望達到最好的畫質 07/03 04:37 : → Aragom:當你連bitrate都不在意的時候當然是用無失真壓縮 07/03 04:37 : → Aragom:所以DLSR通常都會支援raw未壓縮的影像格式保留最真的畫面 07/03 04:38 : → Aragom:說了半天好像沒回答到原po問題, 插補點(interpolation) 07/03 04:58 : → Aragom:這技術基本上是用在motion estimation上的 07/03 04:59 : → Aragom:由於移動的物體並非1/30秒就會以整數像素點的移動量移動 07/03 04:59 : → Aragom:因此half-pixel ME以及quarter-pixel ME就具有其必要性 07/03 05:00 : → Aragom:原po有興趣可以去下載H.264 JM code玩玩 07/03 05:02 : → Aragom:比較開啟sub-pixel interpolation和不開啟的差異 07/03 05:03 : → Aragom:至於數位變焦的像素插補基本上和我以上說的技術無關 07/03 05:04 : → Aragom:純粹只是要打腫臉子充胖子 XD 07/03 05:05 他所稱的 interpolation 顯然不是用於 motion video coding 因為考慮影像編碼技術, 實在沒有必要先提升解析度再編碼,(何苦脫褲子放屁呢?) 而 (sub-pel) interpolation, 主要原因是它能有效降低 MC 預測之 DFD (displaced-frame diff.), (以 objects displacing 觀點解釋並不適當) residual下降, entropy當然下降, 同時降低 T/Q 失真, 也就提升了 RD 表現 開不開 sub-pel interpolation, RD 表現的差距應該是顯而易見的 但若對於視覺感知而言, 如同前述,若只在乎畫面品質, 那何必在乎編碼技術? -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 220.141.232.39

07/03 15:11, , 1F
我想M大誤解了我的意思, sub-pel確實目的是降低預測誤差
07/03 15:11, 1F

07/03 15:12, , 2F
提昇RD的表現, 然而, 我所要表達的是sub-pel其物理意義是
07/03 15:12, 2F

07/03 15:15, , 3F
real motion isn't exactly described by steps of one pel
07/03 15:15, 3F

07/03 15:16, , 4F
因此透過half-pel&quarter-pel來提高coding efficiency
07/03 15:16, 4F

07/03 17:42, , 5F
其實要反駁這樣的說法也蠻容易的, object motion 難道
07/03 17:42, 5F

07/03 17:43, , 6F
剛好 "exactly" displacing n-pels? 當然這樣的說法
07/03 17:43, 6F

07/03 17:44, , 7F
非常簡俗而概念的解釋, 但我個人較喜好具有啟發性的原理
07/03 17:44, 7F

07/03 17:50, , 8F
還請你不要介意 :)
07/03 17:50, 8F
文章代碼(AID): #16YS-teX (Electronics)
文章代碼(AID): #16YS-teX (Electronics)