持續治理網絡生態 未成年人網絡保護更應關注社交軟件安全
隨著移動互聯網的發展,網絡社交產品已成青少年社交生活的重要一環,面對虛假信息、網絡暴力以及低俗惡俗信息的涌現,特別是保護青少年成長的問題,已成網絡運營企業、家長、媒體共同關注的話題。
未成年人利用手機接觸網絡的時間和頻率都在增加,而移動社交平台的“不設防”也讓孩子們接觸有害信息的幾率大大增加。調查發現,一些移動社交平台搭建的內容系統中充斥著大量傳播低俗、色情、獵奇信息的自媒體內容。目前,我國在網絡游戲、網絡視頻領域均施行了防沉迷舉措,但針對網絡社交、網絡文學等方面的防沉迷手段較少,相關領域也成了監管的真空地帶。
對於網絡服務提供者來說,應該如何具體落實對未成年人的保護?對此,Soul App管理人員表示,“社交平台是一個記錄生活和情緒,表達自我的平台。它鼓勵真實表達,促成人與人之間的深度交流,以讓用戶降低孤獨感,獲得幸福感。”據介紹,在制度上,Soul App專設青少年安全與體驗問題的產品經理,實時監控社交平台系統中未成年人保護機制運行及未成年用戶內容過濾流程的運轉情況。
在准入機制方面,年齡為18歲以下的存量用戶自動進入“青少年模式”,不可自行設置退出。若需退出該模式,用戶需上傳本人手持身份証照片,再由平台人工審核查看年齡是否達到18歲。通過此舉措,Soul App避免了未成年用戶借用他人身份信息更改個人年齡的可能。
在用戶分層管理上,Soul對未成年用戶與成年用戶進行嚴格分割,規避成年用戶騷擾未成年的可能。包括不對未成年用戶開放“戀愛鈴”、“臉基尼匹配”等的入口,僅保留“靈魂匹配”及“語音匹配”功能,且在具體功能中設定未成年僅能匹配到未成年用戶。
在用戶內容發布層面,未成年發布的內容除需經過系統過濾,還要由經過“未成年人保護”相關內容培訓的審核人員進行單獨審核。(牛廣文)
分享讓更多人看到
推薦閱讀
相關新聞
- 評論
- 關注