> 消息 > Roblox引入自拍AI年齡驗證強化安全機制

Roblox引入自拍AI年齡驗證強化安全機制

作者:Kristen 更新:Dec 29,2025

Roblox Introduces Enhanced Safety Features for Teen Users

Roblox 為13至17歲的青少年用戶推出了創新的保護措施,其中包含突破性的人工智慧年齡驗證技術,該技術透過分析用戶提交的影片自拍照來進行驗證。

平台加強青少年安全措施

新宣布的系統引入了多項針對青少年保護的強化功能。這些升級的核心是一個專門的框架,相比年幼兒童,青少年可獲得更多(儘管仍受監管的)平台使用權限,同時相較於成人帳戶仍維持一定限制。

青少年用戶現在可以在 Roblox 上建立「可信連線」,僅能與預先核准的聯絡人進行不受過濾的聊天。此舉旨在將交流安全地留在 Roblox 受監管的環境中,而非轉移到不受監管的第三方平台。

實施先進驗證系統

建立可信連線需要用戶雙方互相熟悉。值得注意的是,試圖與成年人(18歲以上)建立連線的青少年,必須使用 QR 碼掃描或聯絡人匯入功能作為額外安全措施。

針對有年齡限制的功能,Roblox 不僅提供傳統的政府身份證件驗證,現在還提供另一種人工智慧驅動的流程。用戶可以提交影片自拍照,專有演算法將對照廣泛的人口統計數據集進行分析以估算年齡。

平台還為這些變更補充了額外的控制功能,包括可自訂的線上狀態設定、勿擾功能,以及為連動的監護人帳戶提供的增強版家長監護工具。

持續的安全挑戰

Roblox 在青少年保護措施方面持續受到審查。過往事件包括:

  • 2018年一起涉及與未成年人進行不當虛擬互動的案件
  • 2021年調查指控可能存在勞力剝削問題
  • 2022年至2023年間多起關於內容審核的訴訟

近期報告顯示,平台採取了大量執法行動,僅在2023年,就向當局通報了超過13,000起剝削案件,並協助逮捕了24名掠奪者。

「安全始終是 Roblox 營運的基石,」首席安全官 Matt Kaufman 表示。「我們致力於開創安全、正面的數位體驗,同時不斷提升我們的社群互動標準。」