蘋果將偵測兒童色情影像 用戶上傳iCloud - 手機討論

Poppy avatar
By Poppy
at 2021-08-08T01:09

Table of Contents

: - Hash 值: 每個檔案都有一個唯一的 Hash 值 (指紋的概念) 科學家用數學保證他幾乎不會重複
: 每個雲端空間基本上都會在你上傳檔案的時候計算 Hash 值
: 為了要避免他們儲存太多重複的檔案
: 有兩個用戶上傳一樣hash的檔案可以只存一份就好
: (例如 lol.exe 一百個用戶上傳到自己的帳號 存一百份根本是浪費空間)

用檔案 hash 比對圖片實在太不可靠了,改個 1 bit 資料就可以讓 hash 不同

我覺得蘋果不會做這種智障系統,否則這系統根本沒用

所以去翻了一下相關文件

https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf

看起來是用蘋果自己開發的新演算法 NeuralHash

看名字就知道一定跟神經網路有關

大意是說用一個神經網路訓練過的模型,去計算照片的描述特徵

最後再把特徵用 locality-sensitive hash (LSH) 算出雜湊值

LSH 與一般 hash 算法不同的地方在於普通 hash 會將差異最大化

以避免相似的資料產生一樣的 hash

LSH 則否,越相似的資料產生相同 hash 的機率越高

以上述文件的範例來說,直接把照片灰階化處理也可以得到一樣的 NerualHash

是很厲害的技術

--

至於在哪裡計算與比對、以及如何找出異常,都有超級複雜的處理方式

算是可以看出蘋果對用戶隱私的用心啦

至於有沒有用、使用者買不買單就是另外一回事囉

--
Tags: 手機

All Comments

Elma avatar
By Elma
at 2021-08-08T14:08
https://i.imgur.com/Iyu9H9B.png
Ina avatar
By Ina
at 2021-08-09T03:08
誤判的後續處理是否會侵害隱私呢?或是擾民?
Ida avatar
By Ida
at 2021-08-09T16:08
樓上 他有一個 threshold number
Ula avatar
By Ula
at 2021-08-10T05:07
基本上你要iCloud裡面有一堆這種類型的照片超過那個 threshold number 他才會轉人工檢測一張兩張 有可能是誤判 可是你有100張都被確診那就合理懷疑你是有問題的100只是我隨便設一個 threshold number
Bethany avatar
By Bethany
at 2021-08-10T18:07
白皮書裡面有說 他們不會去學習不在那個資料庫內的特徵很大程度要去降誤差帶來的問題
Gilbert avatar
By Gilbert
at 2021-08-11T07:07
你的兒童色情圖片不在 CSAM 資料庫中在蘋果這套偵測機制下 是不會被抓出來的
Lydia avatar
By Lydia
at 2021-08-11T20:06
所以在訓練這個模型的同時他們也有大量的兒童色情資料囉
Adele avatar
By Adele
at 2021-08-12T09:06
如果只是單純訓練模型的話,不用用有問題的圖片下去
Gilbert avatar
By Gilbert
at 2021-08-12T22:06
訓練。那個只是要取圖片特徵,所以大概是比較廣泛的資料下去訓練的
Adele avatar
By Adele
at 2021-08-13T11:05
白皮書裡面有寫 誤判率大概是 1 in 1 trillion
Hedy avatar
By Hedy
at 2021-08-14T00:05
不是用有色情去訓練,那我今天拍兒女的生活照片,是不是也會被抓兒童色情拿去人工審核呢,隱私呢?
Elizabeth avatar
By Elizabeth
at 2021-08-14T13:05
你是要談模型訓練還是比對?模型已經訓練好了當然不會拿你的照片下去訓練,至於比對是一定會做的,不爽不要用
Sierra Rose avatar
By Sierra Rose
at 2021-08-15T02:04
他有說不會訓練 CSAM 提供以外的CSAM 資料庫基本上就是一個兒童色情犯罪的檔案庫你女兒的裸照並不會無緣無故被拿去訓練
Emily avatar
By Emily
at 2021-08-15T15:04
除非你兒女的裸照曾經被用於犯罪用途才有機會被列進去 CSAM 資料庫
Agatha avatar
By Agatha
at 2021-08-16T04:04
更正是 NCMEC 資料庫然後 NCMEC 提供的貌似也只有 hashes 值而已所以很有可能 Apple 也碰不到原始圖片
Jake avatar
By Jake
at 2021-08-16T17:03
using a database of known CSAM image hashes provided by NCMEC and other child-safety organizatio
Poppy avatar
By Poppy
at 2021-08-17T06:03
當然可以不爽不要用啊,我就是對他們的訓練跟審核方式提出質疑啊,訓練方式樓上解答了,這部分就沒有疑問了,那審核呢,你蘋果說懷疑就懷疑,直接就可以翻別人的資料再轉給司法部門甚至是第三人?當然你合約可以這樣定,但是否過度擴權或是與法律保障的權利抵觸。不過確實在這篇討論這件事跟你本文離題了,本來應該只聚焦在訓練模型的方式上,拍謝拍謝
Steve avatar
By Steve
at 2021-08-17T19:03
把幾個熱門名詞結合在一起就能當新的feature出來賣
Frederic avatar
By Frederic
at 2021-08-18T08:02
這個應該最合理 可是這個hash是在客戶端計算?
Frederic avatar
By Frederic
at 2021-08-18T21:02
他們應該是用FBI提供數據來訓練吧
Noah avatar
By Noah
at 2021-08-19T10:02
美國就爛啊 長臂管轄 侵害個人自由但一般人又能拿他怎麼辦 真的只能不爽不要用
Noah avatar
By Noah
at 2021-08-19T23:01
不過這樣看起來不也跟Google用AI去辨認沒兩樣嗎
Rebecca avatar
By Rebecca
at 2021-08-20T12:01
一樣都是讓模型去讀取照片 哪裡比Google好了
Brianna avatar
By Brianna
at 2021-08-21T01:01
Barb Cronin avatar
By Barb Cronin
at 2021-08-21T14:00
這篇正解
Quanna avatar
By Quanna
at 2021-08-22T03:00
如果是這篇寫的這樣,似乎對人權和隱私的侵犯就有降到最低限度?並且不至於將非兒童色情誤報為兒童色情,必須高度符合特徵,才會被判定並得到通報?例如色情內容但不確定是否未成年,或未成年但不確定是否色情,這個系統頂多通報交由人工複查?
Liam avatar
By Liam
at 2021-08-22T16:00
但一切還是要當事企業自己說明清楚,否則只能期望歐盟出手,依GDPR展開調查。
Isabella avatar
By Isabella
at 2021-08-23T04:59
樓上 他不會去「判定」色情內容跟是否成年
Aaliyah avatar
By Aaliyah
at 2021-08-23T17:59
他一切都以NCMEC提供的圖片特徵碼為主
Charlie avatar
By Charlie
at 2021-08-24T06:59
你就算偷拍一千張蘿莉(比喻),只要沒有散出去被NCMEC資料庫(通常是被當犯罪資料送進去),在這
Ophelia avatar
By Ophelia
at 2021-08-24T19:58
機制下是不會被糾出來的
Caroline avatar
By Caroline
at 2021-08-25T08:58
也就是說這些照片就是已經通報失蹤或受虐的兒童啊
Jessica avatar
By Jessica
at 2021-08-25T21:58
那icloud滿了還會傳嗎?

GSMArena 評測 POCO X3 GT

Skylar Davis avatar
By Skylar Davis
at 2021-08-07T23:58
Poco X3 GT review https://www.gsmarena.com/poco_x3_gt-review-2296.php Poco最近推出 X3(中東、亞洲)和 F3(印度獨有) 事實上Poco X3 GT 就是中國紅米Note 10 Pro(5G)國際版 F3 GT是 中 ...

10K出頭的安卓機

Mia avatar
By Mia
at 2021-08-07T23:29
1.預算範圍/考慮機種: 10~15K安卓機 目前選手: SHARP AQUOS sense 5G Samsung Galaxy A52 5G SONY XPERIA 10 III Google Pixel 4a 5G 2.使用需求(螢幕尺寸/拍照/效能/續航力/防水/記憶卡...等): 我的手機只拿來收發 ...

iPhone照片如何不同步

Xanthe avatar
By Xanthe
at 2021-08-07T23:03
各位前輩好,事情是這樣的,由於我朋友最近手機壞了,在他修理的這段時間,我把我 之前使用的iphone 6s借給他使用,但是很奇怪的是,我所拍攝的照片或是截圖都會自動 跑到那支6s,他使用時也會發生一樣的情形,也就是我們的相簿同步了,請問各位前輩, 我該怎麼解決這個問題呢?麻煩大家了,謝謝! - ...

蘋果將偵測兒童色情影像 用戶上傳iCloud

Hamiltion avatar
By Hamiltion
at 2021-08-07T22:51
美國司法部的官網對兒童色情有簡要說明,最好去看一看,免得惹上大麻煩: https://0rz.tw/L5P2T 有幾點特別值得注意的: 1. 美國聯邦定義的「兒童」指的是18足歲以下。 2. 明確的性行為的法律定義並不要求一張圖片描述一個孩子正在進行性活動。 如果一張裸體兒童的照片具有足夠的性暗示,就 ...

播報來電者-藍牙耳機

Olga avatar
By Olga
at 2021-08-07T22:40
聽妹妹說 他的iphone 搭airpods line跟電話來電都會通知來電者是誰, 想請問android有沒有這個功能呢? 還是要特定藍牙耳機or特定版本才可以? - ...