力保隱私安全,這很 iPhone。
蘋果是這么說的,確實也是這么做的。只是,當「隱私」和「道德」 被放在天平的兩端時,即便是蘋果,也會面臨進退維谷的難題。
據 9to5mac 報道,蘋果在 iOS 26 的開發者預覽版中,推出了 FaceTime 的裸露檢測功能,意在檢測視頻通話中的不當裸露內容。
據悉,蘋果將通過設備端側的 AI 算法來實時識別通話中的裸露內容,當系統識別出可能的裸露畫面時,它會立即暫停視頻通話并顯示警告。
蘋果表示,該功能的設計初衷,是為了在兒童賬戶上應用,給青少年提供一個更加安全的數字社交環境。
該功能源自于蘋果在幾年前推行的 CSAM(兒童性虐待材料)掃描計劃。但不知道出于什么考慮,這項功能在 iOS 26 開發者版本中被擴大到覆蓋所有年齡的用戶。也就是說,成人用戶也被「保護」起來了。
盡管蘋果強調所有識別工作都在設備本地處理,數據不會上傳至云端,但年齡覆蓋擴大的情況還是在社交媒體上引發廣泛爭議。一位名為 krazygreekguy 的用戶在 9to5mac 上評論道:
我理解背后的想法,但他們無權對成年人實施這種控制。沒有任何組織有權侵犯人們的隱私。
換言之,人們擔心這種年齡覆蓋的擴大是一種蘋果獨有權力的擴張,以至于到了過度干預私人生活的境地,甚至可能擴大到和色情意圖完全無關的場景。
試想一下,你正在和家里的小孩視頻通話,只是因為光著膀子或者調整衣物,就可能會被系統誤判為不當裸露,而導致視頻被攔截:
難道我的 iPhone 認為我是個變態?
事實上,FaceTime 已經問世 14 年,作為蘋果生態的「元老級」功能,這也不是它首次引起爭議。2019 年,FaceTime 就曾因為技術漏洞,讓用戶在未接通的情況下聽到對方通話的聲音。雖然蘋果迅速修復了漏洞,這也讓很多人對蘋果的隱私宣傳話術之下的真實保護能力,產生了疑慮。
長期關注蘋果的人,可能會對 2015 年蘋果硬剛 FBI 的事件記憶猶新——當年,在加州圣貝納迪諾槍擊案后,FBI 為了獲取恐怖活動信息,要求解鎖涉案兇手使用的 iPhone,但遭到蘋果拒絕。當時,蘋果 CEO 蒂姆 · 庫克表示:后門一旦開了,就關不上了,將會危及所有用戶的安全與隱私。
但即便如此,蘋果也曾因隱私問題引發不小一些爭議。比如前面提到的 CSAM 掃描計劃,在推出時同樣備受批評。
從 2021 年的 iOS 15 開始,蘋果通過本地設備上的 NeuralHash 技術,將用戶上傳到 iCloud 的照片與美國權威機構維護的 CSAM 數據庫進行哈希值比對,當超過預設閾值的情況發生,蘋果就會解密相關數據并進行人工審核,確認后將禁用賬戶,并向美國國家失蹤和受虐兒童中心(NCMEC)舉報。
蘋果聲稱這一功能的用意是發現和揪出兒童性犯罪者,在技術上最大限度保護用戶隱私,避免誤判和濫用。
但各路隱私保護組織和安全專家質疑蘋果是否會背離其一貫的隱私保護承諾,畢竟 CSAM 掃描究其根本還是識別了用戶上傳的隱私信息。面對壓力,蘋果宣布推遲該功能的發布,轉而推出其他兒童保護措施,如信息通信安全和 Siri 搜索干預功能。
對于蘋果來說,「道德」與「隱私」也會出現不可兼得的情況。
但另一方面,這種 「自動干預」 的邊界在哪里,仍然是一個重要的問題。
當公共道德和個人隱私被擺在天平的兩端時,如何權衡利弊,并做出「正確」的決策。這或許會在未來很長一段時間里,都困擾著蘋果。
本文作者:周芊彤、肖欽鵬