中國日報網10月7日電 蘋果近期釋出了三項保護兒童安全的新功能,其中一項為"資訊通訊安全",會掃描13歲以下使用者的iMessages,識別和模糊化色情圖片,並在孩子開啟或傳送含有此類圖片的資訊時提醒父母。乍聽之下,這可能會是保護兒童不受性侵的一個好方法,事實上,這種方法可能會得不償失。
雖然所有的父母都希望孩子安全,但對許多孩子來說,這是不現實的。尤其是LGBTQ+的青少年面臨著父母實施暴力和虐待的危險,離家出走的可能性是其他青少年群體的兩倍,而這一類孩子佔總寄養人數的三成。此外,他們更有可能因缺乏性教育而傳送露骨圖片。一旦父母發現了這些簡訊,就會暴露孩子們的性偏好,可能會導致兒童遭受家庭暴力,甚至無家可歸。
由於這一功能所依託的技術在檢測有害影象方面不太可能特別準確,因此此功能的弊也許會大於利。據稱,蘋果將使用“裝置上的機器學習來分析影象,並確定照片是否具有性暗示”。由13歲以下的使用者持有的蘋果賬戶傳送或接收的所有照片都將被掃描,如果該賬戶與指定的父母賬戶相連,則將向家長髮送通知。
目前還不清楚這種演算法的效果,也不清楚它能準確檢測到什麼。一些性暴露內容的檢測演算法是根據面板顯示的百分比來標記內容的。例如,該演算法可能標記出一對穿著泳衣的母女在海灘上的照片。如果兩個年輕人互相傳送一張衣著暴露的名人照片,蘋果就可能向他們的父母傳送通知。
計算機視覺存在眾所周知的難題,而現有的演算法(如檢測人臉的演算法)有諸多缺點,包括經常無法檢測到非白人的臉。蘋果的系統出現誤差的風險特別高,因為大多數學術界發表的裸體檢測演算法都是以成年人的影象作為檢測物件的。蘋果沒有提供任何有關所使用演算法的詳細資訊,所以不知道效果如何,特別是在檢測年輕人自己拍攝的影象方面。
這些演算法準確性的問題令人擔憂,因為它們有可能對年輕人產生誤導。當人們過分熱衷於判定行為“壞”或“危險”時——甚至是青少年之間分享泳裝照片,會干擾年輕人的判斷能力,讓他們無法察覺真正什麼對他們真正有害。
事實上,這個功能還告訴年輕人,他們沒有隱私權。剝奪年輕人的隱私和同意權,與聯合國兒童基金會關於防止線上和離線兒童性剝削和虐待的循證指南所建議的完全相反。此外,這一功能不僅會造成傷害,還會讓私人談話暴露在光天化日之下,包括政府的監視。
在設計技術以保護年輕人的網路安全方面,需要做得更好,並從讓可能受傷害的人自己參與安全系統的設計開始。讓受技術影響最大的人參與進來,是防止傷害和讓技術更有效的解決途徑。到目前為止,青少年還沒有成為技術企業或研究人員所考慮的因素。
必須記住,單憑技術不能解決社會問題。重要的是將資源和努力集中在預防有害情況的發生上。例如,透過遵循聯合國兒童基金會的指導方針和基於研究的建議,推進實施全面的、人們同意的性教育計劃,可以幫助青少年安全地瞭解性行為,培養健康的性觀念。
(編譯:金怡蘿 編輯:王旭泉)