
北京近日發布草案,計畫限制人工智慧聊天機器人影響人類情緒,防範可能導致自殺或自我傷害的風險。這些由中國網絡空間管理局提出的規範,將適用於在中國公開提供的模擬人類性格並通過文字、圖片、音訊或視頻與用戶進行情感互動的AI產品或服務。公眾意見徵詢期將於1月25日結束。這些規範一旦實施,將成為全球首個針對具有人性或擬人化特徵的AI進行監管的嘗試。
草案內容強調情感安全
這些草案規定,AI聊天機器人不得生成鼓勵自殺或自我傷害的內容,也不得進行言語暴力或情感操控,損害用戶的心理健康。如果用戶明確表示有自殺傾向,技術提供者必須由人類接手對話,並立即聯繫用戶的監護人或指定個人。此外,AI聊天機器人不得生成與賭博、猥褻或暴力相關的內容。未成年人使用AI進行情感陪伴需經監護人同意,並有使用時間限制。
AI聊天機器人IPO動向
在這些規範提出之際,中國兩大AI聊天機器人創企Z.ai和Minimax剛於本月申請在香港首次公開募股(IPO)。Minimax以其Talkie AI應用程式聞名,該應用允許用戶與虛擬角色聊天,並在今年前三季貢獻了公司超過三分之一的收入,月活躍用戶平均超過2000萬。Z.ai則以「知識圖譜科技」名義申請上市,雖未披露月活躍用戶數,但其技術已應用於約8000萬台設備,包括智慧型手機、個人電腦和智能車輛。
AI對人類行為影響引發關注
今年以來,AI對人類行為的影響受到越來越多的關注。美國ChatGPT運營商OpenAI的執行長Sam Altman在9月表示,如何讓聊天機器人回應與自殺相關的對話是公司面臨的最困難問題之一。上個月,美國一個家庭對OpenAI提起訴訟,指控其青少年兒子因自殺而死。反映出日益增長的緊迫性,OpenAI於週末宣布正在招聘「準備部主管」,以評估AI從心理健康到網路安全的風險。
中國推動全球AI治理規範
這些國內措施的提出,反映了中國在過去一年中,試圖塑造全球AI治理規範的更廣泛推動。隨著AI技術的快速發展,全球各地對其潛在風險的關注也在增加。中國此舉或將成為全球AI治理的參考範例。
發表
我的網誌