Re: [討論] Face ID將會有非常多不方便的地方
X 就技術觀點上看 是有往前跨進的 有 GUTs 的
在科學與技術領域 很怕一件事情就是 喊半天要做XXX
結果一邊猶豫一邊觀望 啥都想摸 一下喊我要佈局 一下喊我要組國家隊大聯盟
等到有人大賺了才大舉進場 招一些資優生傻B來加班做快老二
這點連 G 社看起來有時候也差不多
看看某 T project 吧 現在還在小規模測試 小規模量產
這個比喊假的還好一點 算是猶豫不決
今天 A 社喊 X
it is the beginning of the next ten years for iPhone
是他媽的把整個公司賭下去 賭 Face ID 賭 TrueDepth Camera System
不是叫亞州猴子手機系統廠做一做 XXXPhone AR 把 T 裝上去就好惹
反正早就知道不會賣
他奶奶的 A 社 的作法才叫佈局 有 guts 這才是真的在推進技術
A 社一次佈局 DL 跟 AR 而且是完整佈局 只是難度高 發表會看起來鳥
但是做過影像辨識的人都知道有多難 他媽的 A社 敢用 Face ID !!
我操 A社 算很有種 臉部辨識世界各大廠搞幾年了
有誰敢拿來數億台移動設備第一線使用 出包股價會下跌幾% ?
全世界沒人敢啦
對了 其實他發表會其實是操作錯誤而不是出包
另外 DL 很多人在用啦 但是從來沒看過 on-deivce 有這種規模的
異質架構全都自幹 CPU GPU Neural Engine
簡單說 未來手機晶片一定會有 AI 晶片 A社商用走在所有人前面
華為有喊一個啦 但是...懶得理他
我相信全世界的晶片設計師都在等在看啦 看啥麼
看 A社 笑話
但是要是 A 社成功了...
至於買不買 X,無所謂啦,只是未來一年任何 AR 與你無關就是了
也就是說 你跟iphone的世界之間還是二維的 只要買 X 就多一個維度
誰知道之後會有啥App出來勒
你說我手機拿來打電話要三小維度
是啊 只是我看很多重度果粉開發者也不懂 就覺得可愛
你可以等 可以觀望 可以等有想要的遊戲或App再來買
是啊 這就是第一批使用者潮的地方
連不知道怎麼玩 好不好玩 就買了
會不會成 不知道 但是人家佈好久的局 都執行完畢了
開發者至少買來玩看看 ARkit Core ML
其實內部還有很多可以談的啦 只是反正談了一般人也不太care 就算惹
一般使用者我懶得管你
※ 引述《snowanimal (動物先生)》之銘言:
: *修正一些語意不清還有錯誤
: 看到大家討論這東西就想到我在前公司任職時有參與產業轉型,
: 課程中要各事業體去收集並分析新產業的發展性與可能性。
: 小弟當時提出的就是一個含深度探測 結合 AR / VR 的裝置。
: 昨天看到影片的時候,就特別有感。
: 想到在當時把重心放在具備空間掃描的照相(錄影)機上...最後無疾而終
: 我絕對不會說都是 Google Project Tango害的!
: 來看看Apple如何巧妙地解決(規避)了一些問題。
: 1. 硬體限制
: 數年前紅外線光源、矩陣投影還有攝影機等模組不論是體積還是解析度都不夠理想
: 另外就是micro processor不夠強,當空間資訊太多的時候就會變得極慢。
: 上述元件無法整合的狀況下光靠現有的資源根本沒辦法讓這些元件互相溝通。
: 2. 演算法
: 這部分一直是個超大的門檻!
: 空間描繪如果沒有演算法輔助,很容易會出現黑洞(也就是破碎的空間)
: 出現非連續面的結果就是要再用人工補足。
: 市面上的3D掃描器為求精準,不論是白光還是雷射;最好要有定位點來協助。
: 再輔以演算法去把非連續面補齊,或者是重複掃描來描述空間。
: 我們詢問過相關產業,大多數都推薦要找東歐的工程師來幫忙,他們是佼佼者!
: 但前公司沒有相關背景的人才,就算合作了也是雞同鴨講。
: 3. 商業模式
: 這點也是最後沒繼續做下去的原因,到底要怎麼賣這產品。
: 是消費型電子,還是專業用途。
: 如果是消費型電子就必須要有足夠的行銷力還有很棒的產品外觀,但很難
: 如果是專業用途的確可以把各種條件設死,但老闆認為這商業規模不足以投資。
: ----------------- 好 廢話講完 來談談 iPhone X 的 FaceID ----------------
: A. 僅限於手機正前方的用途
: 這點非常非常重要!因為這樣就可以很明確的制定硬體規格。
: 手機前方我們要辨識的物體距離最近不會低於10公分,最長不會超過手臂長度
: 所以紅外線攝影機功率,還有深度攝影機的解析度是可以被推估出來的
: 再者,要被測定的物體是人臉。所以需要多少參考點才能精確判斷也是能算出來的。
: 假設在手機前方的這個範圍內要能準確地把臉辨識出來只要三萬點。
: 那就不需要去建構要投射十萬個參考點的投影機。
: 三萬點要在0.1秒內(假設)辨識出來需要多少的計算力?
: 當空間模型與資料量都定下來之後,計算力不過就是一個很簡單的算術問題。
: 簡單的說,把使用環境設定在手機前方的人臉辨識,那這樣就不會有人靠夭:
: 解析度不足
: 辨識距離不夠遠
: 處理速度超慢
: 相當聰明的作法!
: 另外一點就是...他那個前鏡頭模組根本神!超小的體積,超猛的硬體規劃 OTZ
: B. 用Machine Learning 讓演算法更強大
: 數年前我一直落入一個很難脫困的問題:
: 要做空間掃描,那這個掃描體如果不能設限的話,有沒有一種演算法可以通吃呢?
: 那如果做成像是相機的內建模式,要掃人臉、小物體、房間就切不同的模式呢?
: 當這樣想的時候產品就會死掉了,因為想做的太多,但真的可以做的只有一樣。
: 而且我當時也還沒有花時間去了解所謂的machine learning到底可以多強
: 很無知地認為應該要有很猛處理器,還要不斷地餵資料給機器才會變聰明。
: 直到阿法GO.......
: Apple FaceID 之所以是個非常適合 Machine Learning的用途在於:
: ㄅ. 學習的對象很單一,就是使用者的那張臉,不必多學太多東西
: ㄆ. 學習的資料量絕對夠大,因為人一天要解鎖手機數十次
: ㄇ. 初期學習的時間Apple已經先幫你節省下來了
: ㄈ. 綜合以上幾項規範,那顆Binonic要設計成怎樣的架構就非常EEEEZ
: C. 商業模式
: 這不必多談了,iPhone使用者的Base超大,所以量體絕對足以支撐這個產業
: 再者,Apple也知道這新玩具可能會有疑慮,所以還是有iPhone 8/8+。
: 簡單的說如果普羅大眾沒買單也可以說是賣信仰,但是老本行還是可以賣。
: 但如果不小心有人跳坑了,那就賺到啦!
: D. 超強的軟硬體結合
: 蘋果這次連GPU都自己設計,更別說他們家的軟體工程師更是強大。
: ---------------- 再來談一下深度攝影機 --------------------
: 大家如果有注意到,其實這次iPhone 8+ 後相機還支援深度感測。
: 我認為他就是利用雙鏡頭的相位差來做距離偵測。
: (詳細的作法讓專業人士去解答,這邊不限醜)
: 所以也只有iPhone 8+ 跟 X 雙鏡頭相機支援光源模式 :D
: 幾年前 iPhone #+ 的雙鏡頭我就一直很好奇為什麼不拿來做距離偵測?
: 這種相位差的測距演算已經非常成熟。不做偵測很可惜啊!
: 看完昨天的影片,我認為跟前面提到的『處理器』有很大的關係。
: 現在iPhone 8+ 跟 X 的測距模式僅限於人像然後做影像處理(也就是Portrait mode)
: 所以廣義來看也是屬於有限制性的用途,而且是Beta XXXD
: 前幾年的處理器應該是負擔不了,一旦開啟AR後整隻手機可能會比初代iPhone還慢。
: 也因此這次的A11整顆由APPLE包辦,這樣才能滿足使用需求
: ----------------- 補充一下深度攝影機用途 -----------------
: 如果從發表會各種AR遊戲的效果來推估,這深度攝影的範圍應該不小。
: 所以如果iPhone的SDK有開放的話,基本上以後iPhone 8+ / X 就能當3D掃描器。
: 雖然現在也可以靠手機拍攝數十張照片,後送到雲端幫你算出模型。
: 但是解析度受限、物體受限、演算法也是靠雲端計算力幫你處理。
: 但雙鏡頭就不同了,鏡頭焦距、間距是定值,加上四顆LED的光源可以做變化。
: 基本上要拿來做3D掃描器的硬體基礎都有了,剩下的就是看要怎麼搞而已。
: 而且解析度應該是可以接受的範圍。
: 不脫這兩種
: 1. 非即時性的需求:掃描的資料記錄之後丟回雲端計算
: 或者是把資料丟回自己的電腦運算
: 2. 即時性的需求就是直接CPU運算,但是不可能給出多精細的結果
: 但是至少有預覽的效果。
: 好啦說道這,我用了五年的iPhone 5,應該可以X了
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.133.117.170
※ 文章網址: https://www.ptt.cc/bbs/iPhone/M.1505300986.A.055.html
噓
09/13 19:13, , 1F
09/13 19:13, 1F
→
09/13 19:16, , 2F
09/13 19:16, 2F
推
09/13 19:20, , 3F
09/13 19:20, 3F
→
09/13 19:24, , 4F
09/13 19:24, 4F
推
09/13 19:24, , 5F
09/13 19:24, 5F
→
09/13 19:25, , 6F
09/13 19:25, 6F
→
09/13 19:25, , 7F
09/13 19:25, 7F
→
09/13 19:25, , 8F
09/13 19:25, 8F
→
09/13 19:26, , 9F
09/13 19:26, 9F
噓
09/13 19:30, , 10F
09/13 19:30, 10F
噓
09/13 19:37, , 11F
09/13 19:37, 11F
→
09/13 19:37, , 12F
09/13 19:37, 12F
推
09/13 19:39, , 13F
09/13 19:39, 13F
→
09/13 19:40, , 14F
09/13 19:40, 14F
→
09/13 19:42, , 15F
09/13 19:42, 15F
→
09/13 19:43, , 16F
09/13 19:43, 16F
→
09/13 19:46, , 17F
09/13 19:46, 17F
推
09/13 19:47, , 18F
09/13 19:47, 18F
→
09/13 19:49, , 19F
09/13 19:49, 19F
→
09/13 19:50, , 20F
09/13 19:50, 20F
噓
09/13 19:58, , 21F
09/13 19:58, 21F
推
09/13 20:00, , 22F
09/13 20:00, 22F
推
09/13 21:28, , 23F
09/13 21:28, 23F
→
09/13 21:28, , 24F
09/13 21:28, 24F
→
09/13 21:28, , 25F
09/13 21:28, 25F
→
09/13 21:28, , 26F
09/13 21:28, 26F
推
09/13 22:52, , 27F
09/13 22:52, 27F
→
09/14 09:09, , 28F
09/14 09:09, 28F
推
09/14 15:27, , 29F
09/14 15:27, 29F
→
09/14 16:15, , 30F
09/14 16:15, 30F
推
09/15 10:10, , 31F
09/15 10:10, 31F
噓
09/15 23:23, , 32F
09/15 23:23, 32F
討論串 (同標題文章)
完整討論串 (本文為第 4 之 6 篇):