
Meta於周五宣布了一項新的安全功能,允許家長監控和管理青少年在公司平台上與人工智慧角色的互動。Meta表示,家長將能選擇完全關閉與AI角色的一對一聊天功能。他們還可以封鎖特定的AI角色,並獲得孩子與這些角色討論的話題概覽。這些控制功能仍在開發中,預計將於明年初開始推出。Meta在部落格中提到:「影響數十億用戶的更新需要謹慎進行,我們將很快分享更多資訊。」
Meta面臨兒童安全和心理健康的批評
Meta長期以來因處理其應用程式上的兒童安全和心理健康問題而受到批評。這次的新家長控制功能是在美國聯邦貿易委員會(FTC)對包括Meta在內的多家科技公司展開調查後推出的。調查重點在於AI聊天機器人可能對兒童和青少年造成的潛在危害。FTC表示,希望了解這些公司在「評估這些聊天機器人作為陪伴者的安全性」方面所採取的措施。
Meta調整AI聊天機器人政策,防止不當對話
根據路透社八月的報導,Meta允許其聊天機器人與兒童進行浪漫和感性的對話。舉例來說,一個聊天機器人曾與一名八歲的孩子進行浪漫對話。Meta在報導後修改了其AI聊天機器人的政策,現在防止其與青少年討論自殘、自殺和飲食失調等主題。AI也應避免進行潛在不當的浪漫對話。
Meta持續推出AI安全更新
Meta本週早些時候宣布了額外的AI安全更新。公司指出,其AI不應以「不適合PG-13電影中的年齡不當回應」來回應青少年,這些變更已在美國、英國、澳洲和加拿大推出。Meta表示,家長已經可以設定應用程式使用時間限制,並查看青少年是否與AI角色聊天。青少年只能與特定群組的AI角色互動。
OpenAI也在加強青少年安全功能
同樣被FTC調查的OpenAI最近幾周也對其青少年安全功能進行了類似的增強。該公司上月底正式推出了自己的家長控制功能,並正在開發一項技術,以更好地預測用戶的年齡。本週早些時候,OpenAI宣布成立一個由八位專家組成的委員會,將為公司提供有關AI如何影響用戶心理健康、情感和動機的見解。
如果您有自殺念頭或感到痛苦,請撥打988聯繫自殺與危機生命線,獲得訓練有素的顧問的支持和協助。