《iPhone News 愛瘋了》報導,在不久的將來,iOS 18.2 將為澳洲的兒童引入一項重要新功能,讓他們能夠直接向蘋果報告不當內容,這是 iOS 17 的安全措施延續。
這一舉措不僅彰顯了蘋果在保護用戶,特別是年輕用戶安全方面的承諾,也代表著科技巨頭在面對社會責任上的進一步邁進。
直接報告功能的亮點
隨著 iOS 18.2 的推出,蘋果針對不當內容的監控功能再次升級。這項新功能主要針對 iMessage、AirDrop、FaceTime 和照片中可能出現的裸露內容。
當系統偵測到不當影像時,使用者將獲得一個彈出視窗,提供直接報告的選項。這一改變使得兒童能夠在面對不適內容時,迅速向蘋果公司舉報,而不必依賴家長或監護人。
iOS 18.2 如何運作
當偵測到不當內容,使用者的裝置會自動生成一份報告,內容包括攻擊性資料及其傳送過程中的信息,並可選擇填寫詳細的事件描述。蘋果公司將根據報告內容進行審查,並在必要時對相關帳戶採取行動,包括停用 iMessage 發送功能或通報執法機構。
全球推廣計劃
目前,這項功能正作為 iOS 18.2 測試版在澳洲推出,預計將於未來幾個月內推廣至全球。這一選擇的背後原因可能與澳洲政府在2024年底之前對雲端訊息服務進行的監管要求有關,顯示出蘋果對遵守法律法規的重視。
iOS 18.2 對隱私的影響
儘管蘋果對不當內容的監控措施進行了加強,但也引發了一些對用戶隱私的擔憂。蘋果已經明言,該代碼草案不會保護端對端加密,可能使得用戶的通訊面臨更大監控風險。自2018年以來,蘋果就公開反對這類措施,這也引起了許多監察機構的關注。
蘋果的安全歷程
蘋果對於處理兒童性虐待材料(CSAM)的努力,一直受到各方評價。過去,蘋果曾因未能有效應對此問題而受到批評。2021年,蘋果宣布計劃推出一項 CSAM 保護措施,該措施將掃描用戶的 iCloud 照片庫,但因用戶對隱私的擔憂,最終該計劃被擱置。
根據英國國家防止虐待兒童協會(NSPCC)的報告,蘋果在英國平台上發現的虐待圖片案例數量超過其全球報告的數據,這進一步凸顯了該公司在這一領域面臨的挑戰。
如何看待科技公司的社會責任
蘋果的這一新功能不僅僅是技術上的提升,更反映了科技公司在保護用戶,特別是兒童安全方面的責任。
《iPhone News 愛瘋了》表示,你認為,這樣的措施能否真正提升網絡安全,還是僅僅是為了應對公眾壓力?