Instagram 強化青少年帳戶安全功能 主動通知家長自殘相關搜尋行為

instagram 1

Meta 旗下 Instagram 宣佈推出全新的青少年保護措施,旨在隱私保護與使用者安全之間取得平衡。當青少年用戶在短時間內重複搜尋與自殺或自殘相關的詞彙時,系統將主動通知家長,協助家長及時介入並提供支援。這項功能預計在未來幾週內正式推行,成為 Instagram 青少年帳戶與家長監督功能的最新防護層。

多元渠道通知機制強化監控效能

根據 Meta 的說明,這項警示系統將透過電子郵件、簡訊或 WhatsApp 發送給家長,同時也會在應用程式內推送通知。家長點擊通知後,會看到詳細的說明訊息,解釋其子女在短期內重複嘗試搜尋敏感內容的行為。此外,Instagram 也將提供專家資源,協助家長學習如何與青少年開啟這類敏感話題的對話。

封鎖敏感內容並導向專業諮詢資源

雖然絕大多數青少年不會在 Instagram 上搜尋自殘內容,但平台已建立嚴格的過濾機制。當用戶搜尋此類詞彙時,系統會直接封鎖搜尋結果,並將其引導至專業的諮詢與協助資源。從下週開始,Instagram 會預先通知家長與青少年用戶,告知重複搜尋敏感詞彙將觸發通知機制,確保所有使用者瞭解這項安全政策的運作方式。

導入 AI 技術預測潛在風險

Instagram 表示,這些安全措施是與專家共同開發的,旨在現有的保護機制基礎上進行擴展。Meta 計劃在 2026 年進一步利用 AI 技術,更精準地識別可能代表心理健康風險的行為模式。這項更新體現了社交媒體平台在保護未成年人心理健康方面的持續投入,並透過賦予家長更多權限,強化家庭防護網絡的有效性。

Instagram

加入本站 WhatsApp 頻道最新限免情報立即知。

全新本站官方《限時情報王》 iOS 版 登場。限免已完結?不想錯過重大限免應用,可到本站追蹤 Telegram 頻道FacebookThreads