[情報] 蘋果新的照片審查機制

看板iOS作者 (UBC)時間2年前 (2021/08/06 09:42), 編輯推噓20(21129)
留言51則, 27人參與, 2年前最新討論串1/3 (看更多)
請問蘋果利用iCloud 來檢查iPhone 使用者是否 持有兒童暴力相關照片(性暴力或是虐待),這樣不會違反他們的初衷嗎? 蘋果一直以來都給人一種顧客隱私終於一切的感覺,而且這個審查機制難保不會無限上綱到別的領域,例如手機偷拍或是一些外流影片等等。此外文中有提到這個技術不是掃描整台手機,而是他們有個資料庫會自動配對兒童暴力的照片,但我是滿好奇在技術上是怎麼做到這點的XD 原文:https://edition.cnn.com/2021/08/05/tech/apple-photos-child-abuse-imagery/index.html?utm_content=2021-08-06T00%3A31%3A14&utm_source=fbCNN&utm_medium=social&utm_term=link&fbclid=IwAR3WKxVEgloYfpoyR38IhbDL92tv9hia7J_fRKjCgNo5Fr5GNA24G4AuwlY ----- Sent from JPTT on my iPhone -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.137.219.141 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/iOS/M.1628214149.A.796.html

08/06 09:43, 2年前 , 1F
不要問....很恐怖......
08/06 09:43, 1F

08/06 09:45, 2年前 , 2F
沒記錯的話google早就有對雲端掃照片了
08/06 09:45, 2F

08/06 09:48, 2年前 , 3F
當然是找一堆兒童色情照來training (x
08/06 09:48, 3F

08/06 09:51, 2年前 , 4F
我也覺得是欸 因為要建立database首先就要找到那些兒童
08/06 09:51, 4F

08/06 09:51, 2年前 , 5F
色情照片XD
08/06 09:51, 5F

08/06 10:09, 2年前 , 6F
不知道二次元的算不算
08/06 10:09, 6F

08/06 10:31, 2年前 , 7F
技術上哪有甚麼問題 就圖樣辨識阿
08/06 10:31, 7F

08/06 10:47, 2年前 , 8F
08/06 10:47, 8F

08/06 10:47, 2年前 , 9F
???
08/06 10:47, 9F

08/06 10:48, 2年前 , 10F
還以為蘋果一直是站在隱私至上的立場
08/06 10:48, 10F

08/06 11:01, 2年前 , 11F
這要跟我百度雲上的h漫被刪掉一樣了
08/06 11:01, 11F

08/06 11:47, 2年前 , 12F
08/06 11:47, 12F

08/06 11:47, 2年前 , 13F
可以參考官方技術文件,蘋果並不是單純的用影像辨識的方
08/06 11:47, 13F

08/06 11:47, 2年前 , 14F
式來偵測,而是在本機取得圖片的 NeuralHash 值後再跟資
08/06 11:47, 14F

08/06 11:47, 2年前 , 15F
料庫中的 hash 值比對,且比對的動作也是在本機執行。比
08/06 11:47, 15F

08/06 11:47, 2年前 , 16F
對的結果也會經過加密後才會上傳到 iCloud,直到達到一
08/06 11:47, 16F

08/06 11:47, 2年前 , 17F
定的閥值後蘋果才會解密並回報給 NCMEC。
08/06 11:47, 17F

08/06 11:47, 2年前 , 18F

08/06 11:52, 2年前 , 19F
自拍影片怕怕
08/06 11:52, 19F

08/06 11:54, 2年前 , 20F
看起來是只針對上傳到雲端的照片檢查?Google倒是先部署
08/06 11:54, 20F

08/06 11:54, 2年前 , 21F
這個功能了
08/06 11:54, 21F

08/06 11:54, 2年前 , 22F
08/06 11:54, 22F

08/06 11:54, 2年前 , 23F
一樣阿 影像辨識原理也是取出特徵再做比對
08/06 11:54, 23F

08/06 12:33, 2年前 , 24F

08/06 12:38, 2年前 , 25F
美國法規的規定吧
08/06 12:38, 25F

08/06 15:41, 2年前 , 26F
為了極少數的犯罪分子 監控全使用者
08/06 15:41, 26F

08/06 15:41, 2年前 , 27F
既環保之後 隱私也變笑話了
08/06 15:41, 27F

08/06 16:17, 2年前 , 28F
影像辨識技術越來越強大了
08/06 16:17, 28F

08/06 17:18, 2年前 , 29F
這就影像辨識的其中一種...
08/06 17:18, 29F

08/06 18:27, 2年前 , 30F
只差在圖片不會被真的上傳
08/06 18:27, 30F

08/06 18:34, 2年前 , 31F
笑了 還主打隱私
08/06 18:34, 31F

08/06 18:47, 2年前 , 32F
看個本子就出事了
08/06 18:47, 32F

08/06 19:21, 2年前 , 33F
跟中國網盤刪掉我的A片庫87%像。
08/06 19:21, 33F

08/06 21:42, 2年前 , 34F
跟google雲端一樣吧
08/06 21:42, 34F

08/06 21:56, 2年前 , 35F
推Pop
08/06 21:56, 35F

08/06 22:20, 2年前 , 36F
不是 要怎麼知到是不是兒童的?
08/06 22:20, 36F

08/06 22:41, 2年前 , 37F
先用一堆兒童犯罪圖片讓它學習就知道了
08/06 22:41, 37F

08/06 23:45, 2年前 , 38F
回36樓,這點就是差別之一,蘋果並不是用分類模型來判斷
08/06 23:45, 38F

08/06 23:45, 2年前 , 39F
圖片「像不像」兒童色情,神經網路只是用來提取圖片特徵
08/06 23:45, 39F

08/06 23:45, 2年前 , 40F
值,再經過雜湊之後與「已知的」非法圖片進行比對,所以
08/06 23:45, 40F

08/06 23:45, 2年前 , 41F
判斷的方式是看有無與已知的圖片「近乎相似」。它的概念
08/06 23:45, 41F

08/06 23:45, 2年前 , 42F
比較類似以圖搜圖,而不 google 相簿的場景辨識。故重點
08/06 23:45, 42F

08/06 23:45, 2年前 , 43F
在於已知的資料庫內容,理論上要明確被列入資料庫的非法
08/06 23:45, 43F

08/06 23:45, 2年前 , 44F
照片才會觸發閥值。
08/06 23:45, 44F

08/07 00:53, 2年前 , 45F
需要好好了解一下蘋果和google照片辨識的差異
08/07 00:53, 45F

08/07 06:14, 2年前 , 46F
結果一堆家長拍小孩游泳被誤報就好笑了。
08/07 06:14, 46F

08/07 07:54, 2年前 , 47F
隨便加個浮水印或裁一下邊,照片Hash值應該就變了,無法
08/07 07:54, 47F

08/07 07:54, 2年前 , 48F
辨識了吧?
08/07 07:54, 48F

08/09 05:33, 2年前 , 49F
這真的有點難,隱私與兒童安全的拿捏
08/09 05:33, 49F

08/09 05:43, 2年前 , 50F
但應該可以用不一樣的方法維護兒童安全,不應這樣侵害
08/09 05:43, 50F

08/09 05:43, 2年前 , 51F
隱私
08/09 05:43, 51F
文章代碼(AID): #1X39E5UM (iOS)
文章代碼(AID): #1X39E5UM (iOS)