Instagram

不請自來的裸露照片一直是社交網絡的大毒瘤,但據報 Instagram 正在開發一個針對這個問題的工具。一張來自逆向工程師 Alessandro Paluzzi 在 Twitter 上分享的截圖顯示,Instagram裡藏有的「裸露保護」技術可以在對話中遮蓋「有可能包含裸露內容」的照片,並讓用家自行決定是否查看該照片。Instagram 母公司 Meta 亦向 The Verge 承認上述功能正於此開發階段。

Meta 指這個行為的目的是為了防止用戶受到裸露照片或其他不請自來訊息的滋擾,作為進一步的保護,Meta 本身亦無法查看訊息當中的圖片,同時更無法將內容分享給第三方。Meta 一位發言人指:「我們正與專家們合作,確保新功能可以保護人們的隱私,同時讓他們自行控制接收到的訊息。」並表示會於未來數週公佈更多測試數據。

Meta 指新功能其實與去年推出的「隱藏文字」(hidden words)工具有些相似,該功能可以讓用戶基於關鍵字過濾不想收到的私訊。如果訊息中包括被過濾的字詞,它們就會被會自動移至一個隱藏的資料夾當中,用戶可以選擇永遠不要去打開它。

「裸露保護」是社群期待已久的功能,討厭的裸露照片長久以來未受社交網絡公司的重視,在 2020 年時一個來自倫敦大學學院的研究發現, 在 150 個 12 到 18 歲的青少年當中,有 75.8% 有受到過這類不請自來的裸露照片。

「網路暴露」(Cyberflashing)也就是向其他用戶發放討厭的裸照這一行為,已經被多地的司法機構當成目標,包括美國加州以及英國,若後者的《網路安全法》草案一經國會通過,「網路暴露」就會在當地被視為犯法行為。加州在這方面就相對走得比較慢,但在上月當地的州議會以及參議院都一致通過,讓收到裸露照片或是色情圖片等滋擾的受害者向對方進行起訴。