在iOS15、iPadOS15及其macOSMonterey作業系統中,蘋果手機添加了1項新功能模組,准許蘋果手機自行掃描客戶的相簿圖片,以分辨是不是存有虐童主要內容(CSAM)。
詳細一點來講,iOS15等作業系統中融合了一種能檢測裝置內少年兒童的不雅照片,包含虐童、有色製品等主要內容的本地演算法,以限定相關內容的散播。
儘管這一個功能模組有利於維護少年兒童,可是蘋果掃描客戶相簿圖片的行為引起了客戶的不滿意及擔憂,擔憂隱私洩露等問題。
蘋果手機則解釋說其演算法並不會侵犯使用者隱私,由於蘋果手機在這個全程中,都不會知道客戶相簿圖片中圖片的具體資訊,只不過是本地演算法在經過核對後,會告知蘋果手機這部手機中很有可能有相關內容。
可是蘋果手機的解釋並沒有獲得消費者的認同,這一個功能模組引起了大量的批評,9月份的過程中蘋果手機正式宣佈新功能模組推遲上線,緊接著也沒有了響動。
近日有人發現蘋果手機在官網上早已刪除了這一個功能模組的介紹,這代表著蘋果手機早已認輸,不會再發布這一個功能模組,客戶也不用擔心蘋果掃描相簿圖片會洩露隱私的問題了。