[討論] 如何能完全騙過Google Camera

看板MobileComm作者 (Jasper)時間8年前 (2017/11/18 23:15), 8年前編輯推噓6(6044)
留言50則, 6人參與, 8年前最新討論串1/1
手上U11,來向大家請益: 目前最新的app 只剩下慢動作(這個似乎要刷機)還有人像模式沒有解封,升到8.0連動態模式都可以用了 版本: 5.1.016.174405463 另外我看到XDA上面的高手表示,這是讓app誤以為在PIXEL或Nexus上運作才能使用HDR+的前提下去破解 那有沒有辦法都騙過它去實現人像模式啊 還是這個演算跟親兒子那顆Visual Core有關係? 會這樣問因為目前主要發文者好像是用小米還有1+3T去做的,感覺有DPAF的S8和U11被忽視了 另外google camera是不是不能存成鏡像自拍照? 感恩各位 讚歎各位 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.166.148.70 ※ 文章網址: https://www.ptt.cc/bbs/MobileComm/M.1511018102.A.5FC.html

11/18 23:18, 8年前 , 1F
現在還沒有被移植出來
11/18 23:18, 1F

11/18 23:27, 8年前 , 2F
所謂騙 其實就是修改APK將App檢查機型時把它寫死誤
11/18 23:27, 2F

11/18 23:27, 8年前 , 3F
導 或者乾脆把檢查代碼整個刪掉
11/18 23:27, 3F

11/18 23:31, 8年前 , 4F
但擺脫不了硬體限制 如沒有hexagon DSP的機型
11/18 23:31, 4F

11/18 23:31, 8年前 , 5F
你只能跑跑nexus的CPU演算法 有hexagon的機型 因為
11/18 23:31, 5F

11/18 23:31, 8年前 , 6F
高通有把呼叫這硬體的API統一 所以移植後在這一點不
11/18 23:31, 6F
所的是純粹還沒有被解封嗎

11/18 23:31, 8年前 , 7F
會遭遇硬體用不了的困擾
11/18 23:31, 7F
※ 編輯: Jasperrr (118.166.148.70), 11/18/2017 23:34:41

11/18 23:42, 8年前 , 8F
不過我是有在紅米Note 4X上成功啟用ZSL啦,覺得神奇
11/18 23:42, 8F

11/18 23:44, 8年前 , 9F
參數要選Pixel 2017(fablet) -> Pixel Exp features
11/18 23:44, 9F

11/18 23:45, 8年前 , 10F
HDR+ Parameters我設Super High也能過
11/18 23:45, 10F
最新的版本作者表示exp feature 不能用??? ※ 編輯: Jasperrr (118.166.148.70), 11/18/2017 23:48:04

11/19 00:08, 8年前 , 11F
嗯?我用BSG 5.1.014_v1.5h
11/19 00:08, 11F

11/19 00:12, 8年前 , 12F
VC不是要8.1才能啟動,所以pixel2的人像應該無關VC
11/19 00:12, 12F

11/19 00:12, 8年前 , 13F
11/19 00:12, 13F

11/19 00:21, 8年前 , 14F
人像模式就甭想了 機率不太高
11/19 00:21, 14F

11/19 00:21, 8年前 , 15F
雖然不太清楚細節 但大概會是這兩種情形之一
11/19 00:21, 15F

11/19 00:37, 8年前 , 16F
一. DPAF硬體讀來的資料根本沒有外露 畢竟它只是多
11/19 00:37, 16F

11/19 00:37, 8年前 , 17F
款對焦解決方案之一 設計上將它encapsulate獨立隔開
11/19 00:37, 17F

11/19 00:37, 8年前 , 18F
比較合適 由感光元件廠商如索尼寫的韌體內部就已將
11/19 00:37, 18F

11/19 00:37, 8年前 , 19F
資料分析並處理完畢 沒步出韌體就已有能力挑好對焦
11/19 00:37, 19F

11/19 00:37, 8年前 , 20F
對象 通常是瞄準中心點自動把焦距喬好 上層軟體頂多
11/19 00:37, 20F

11/19 00:37, 8年前 , 21F
就是靠影像資料指示它要跟蹤某方位物件
11/19 00:37, 21F

11/19 00:37, 8年前 , 22F
在這情境下 谷歌這一回便是有特意要求索尼做了一版
11/19 00:37, 22F

11/19 00:37, 8年前 , 23F
能把對焦像素資料輸出的韌體 這情況下別家廠就算用
11/19 00:37, 23F

11/19 00:37, 8年前 , 24F
了同一顆感光元件 你移植APK也是徒然 因為別家手機
11/19 00:37, 24F

11/19 00:37, 8年前 , 25F
上同顆感光元件的韌體少了輸出DPAF資料的能力 上層
11/19 00:37, 25F

11/19 00:37, 8年前 , 26F
軟體根本要不到資料
11/19 00:37, 26F

11/19 00:37, 8年前 , 27F
再來還得考量索尼韌體輸出的DPAF資料有沒有經過初步
11/19 00:37, 27F

11/19 00:37, 8年前 , 28F
處理成公開格式 例如每台相機的raw都是那顆感光獨家
11/19 00:37, 28F

11/19 00:37, 8年前 , 29F
語言 這原始資料沒人讀得懂 你拿去電腦也要有它的pr
11/19 00:37, 29F

11/19 00:37, 8年前 , 30F
ofile 軟體才能看得懂 所以那DPAF資料至少要已經經
11/19 00:37, 30F

11/19 00:37, 8年前 , 31F
過初步成像DNG那樣子的格式才行 若是raw那谷歌相機
11/19 00:37, 31F

11/19 00:37, 8年前 , 32F
就是專門寫來分析這一顆的DPAF資料 遇上另一顆感光
11/19 00:37, 32F

11/19 00:37, 8年前 , 33F
元件就算成功取得DPAF資料也無法解讀 反之則好辦事
11/19 00:37, 33F

11/19 00:45, 8年前 , 34F
二. 韌體本來就會將DPAF資料換成統一格式再來判讀對
11/19 00:45, 34F

11/19 00:45, 8年前 , 35F
焦對象 並且支持輸出這資料 所以上層軟體本來就能藉
11/19 00:45, 35F

11/19 00:45, 8年前 , 36F
著這共同格式來判讀depth map 再告訴下層韌體對焦對
11/19 00:45, 36F

11/19 00:45, 8年前 , 37F
象方位由下方韌體完成對焦 若是這情況就好辦事 因為
11/19 00:45, 37F

11/19 00:45, 8年前 , 38F
不論是現今那家出產的支援DPAF的感光元件 在上層的
11/19 00:45, 38F

11/19 00:45, 8年前 , 39F
相機軟體都已能讀到它的depth map 這情境下要移植人
11/19 00:45, 39F

11/19 00:45, 8年前 , 40F
像模式只要把大水管駁好就能成功了
11/19 00:45, 40F

11/19 00:45, 8年前 , 41F
大概就這樣吧
11/19 00:45, 41F

11/19 00:50, 8年前 , 42F
對了 前面說的是後鏡頭DPAF版本的人像模式
11/19 00:50, 42F

11/19 00:50, 8年前 , 43F
然而 前鏡頭的人像模式和華為方案一樣 完全另一回事
11/19 00:50, 43F

11/19 00:57, 8年前 , 44F
前鏡頭的方案是machine learning學習一堆照片後 在
11/19 00:57, 44F

11/19 00:57, 8年前 , 45F
手機上靠AI生出來的depth map 我想谷歌用的應該就是
11/19 00:57, 45F

11/19 00:57, 8年前 , 46F
8.1新增的機器學習API來完成 所以要移植給由官方升
11/19 00:57, 46F

11/19 00:57, 8年前 , 47F
級到8.1的手機應該都不是問題 只是速度落差會很大
11/19 00:57, 47F

11/19 05:43, 8年前 , 48F
是說小米note2我還沒試到有任何一個版本能用..感覺
11/19 05:43, 48F

11/19 05:43, 8年前 , 49F
這隻c2api有問題
11/19 05:43, 49F

11/19 09:24, 8年前 , 50F
太專業了自己回一篇啦
11/19 09:24, 50F
文章代碼(AID): #1Q44vsNy (MobileComm)