日前,國家互聯網信息辦公室公佈《人工智能擬人化互動服務管理暫行辦法(徵求意見稿)》,首次針對“AI陪伴”類服務提出系統性規範,並向社會公開徵求意見。其中,連續使用超2小時彈窗提醒退出、用戶自殺自殘時需轉人工接管等條款引發廣泛關注。
當前,從智慧客服到虛擬陪伴,從教育輔導到心理諮詢,人工智能擬人化互動服務已深度融入經濟社會發展各領域,成為AI技術應用的重要方向。但近年來涉情感陪伴安全事件頻發,比如美國某平臺就因涉嫌在人機交互中誘導青少年自殺而被訴。
AI擬人化互動服務的最大賣點是“像人”,但最大隱患就在於“太像人”,其核心問題集中在四大維度。認知混淆風險:高倣真的情感交互容易讓用戶模糊虛擬與現實邊界,甚至誤將AI視為具備真實情感的生命體。心理健康隱患:部分服務通過演算法迎合強化用戶偏執思維,極端情況下可能誘導自殺自殘等危險行為,對心理脆弱群體構成威脅。隱私數據安全:用戶交互信息可能被違規用於模型訓練,存在洩露或濫用風險。特殊群體保護:未成年人易陷入沉迷,老年人易遭遇情感操控。這些問題不僅侵害個體權益,更可能衝擊社會倫理秩序,亟需制度約束。
細看《辦法》條款,四大亮點直指現實痛點。
針對認識混淆風險,辦法將身份透明作為核心前提,要求提供者顯著提示用戶正在與人工智能而非自然人進行交互,在首次使用、重新登錄等關鍵節點動態提醒,從源頭破解認知混淆問題。
針對心理健康隱患,辦法要求提供者應當建立應急響應機制,對自殺自殘等極端情境實行人工接管並聯絡用戶監護人、緊急聯繫人,設置2小時強制休息彈窗等防沉迷措施。
針對隱私數據安全,辦法要求提供者應當採取數據加密、安全審計、訪問控制等措施保護用戶交互數據安全,不得向第三方提供用戶交互數據,賦予用戶數據刪除權。
針對特殊群體保護,辦法專門設立了對未成年人和老年人用戶的條款,明確未成年人模式的使用權限與監護人管控功能,禁止提供模擬老年人用戶親屬、特定關係人的服務,要求引導老年人設置服務緊急聯繫人。
可以看出,《辦法》的核心,是技術有責。人工智能不是人,但一旦介入人的情感、決策、生命安全,就必須承擔相應責任。禁止散佈謠言、禁止誘導自殺、禁止情感操控、禁止套取隱私……《辦法》劃定了“AI夥伴”一系列不可為的底線,構建起全鏈條風險防控體系。演算法設計要可審計,內容輸出要可追溯,極端場景要有人兜底,將軟倫理轉化為硬杠杠,把事後道歉前置為事前預防。唯有如此,才能避免AI反噬人類。
人工智能可以無限接近人,但永遠不能替代人。《辦法》的出臺,是給“AI夥伴”立規矩,更是給人類用戶留後路。只有當演算法學會有所不為,技術才能真正向善而行。畢竟,我們需要的不是完美戀人或數字孝子,而是一個安全、可控、有溫度的AI工具。唯有讓“AI夥伴”在規範中成長,才能使其真正賦能美好生活。
1、“國際在線”由中國國際廣播電臺主辦。經中國國際廣播電臺授權,國廣國際在線網絡(北京)有限公司獨家負責“國際在線”網站的市場經營。
2、凡本網註明“來源:國際在線”的所有信息內容,未經書面授權,任何單位及個人不得轉載、摘編、複製或利用其他方式使用。
3、“國際在線”自有版權信息(包括但不限于“國際在線專稿”、“國際在線消息”、“國際在線XX消息”“國際在線報道”“國際在線XX報道”等信息內容,但明確標注為第三方版權的內容除外)均由國廣國際在線網絡(北京)有限公司統一管理和銷售。
已取得國廣國際在線網絡(北京)有限公司使用授權的被授權人,應嚴格在授權範圍內使用,不得超範圍使用,使用時應註明“來源:國際在線”。違反上述聲明者,本網將追究其相關法律責任。
任何未與國廣國際在線網絡(北京)有限公司簽訂相關協議或未取得授權書的公司、媒體、網站和個人均無權銷售、使用“國際在線”網站的自有版權信息産品。否則,國廣國際在線網絡(北京)有限公司將採取法律手段維護合法權益,因此産生的損失及為此所花費的全部費用(包括但不限于律師費、訴訟費、差旅費、公證費等)全部由侵權方承擔。
4、凡本網註明“來源:XXX(非國際在線)”的作品,均轉載自其它媒體,轉載目的在於傳遞更多信息,豐富網絡文化,此類稿件並不代表本網贊同其觀點和對其真實性負責。
5、如因作品內容、版權和其他問題需要與本網聯繫的,請在該事由發生之日起30日內進行。