
知名人工智慧新創公司Anthropic(ANTHRO)近期縮減了其核心安全政策中的關鍵承諾,旨在確保公司於激烈的AI軍備競賽中維持競爭力。這家過去以高度重視安全性聞名的公司,原本承諾若無法落實足夠的防護措施,將不會訓練或部署具有「造成災難性危害能力」的AI模型。
然而,根據其更新後的「負責任擴展政策」(Responsible Scaling Policy),公司立場已轉向更為務實的商業考量。新政策指出,除非公司確信自身擁有「顯著領先優勢」,否則即使存在潛在風險,也未必會暫緩AI的開發與部署進程。這意味著若競爭對手採取了類似的風險緩解措施並持續推進,Anthropic(ANTHRO)將不會單方面停下腳步。
政府監管步調緩慢拒絕在對手衝刺時單方面設限
Anthropic(ANTHRO)在說明政策調整原因時指出,儘管過去三年AI能力突飛猛進,但政府在AI安全方面的行動卻相當緩慢。目前的政策環境更傾向於優先考慮AI競爭力和經濟成長,關於安全導向的討論在聯邦層級尚未獲得實質性的進展。
根據TIME雜誌率先報導,Anthropic(ANTHRO)首席科學家Jared Kaplan表示:「隨著AI技術的快速進步,如果競爭對手都在全力衝刺,我們並不認為單方面做出承諾是合理的。」這反映出在缺乏統一監管標準的市場環境下,企業面臨著安全性與市占率之間的兩難抉擇。
遭五角大廈下通牒仍堅持拒絕放寬軍事用途限制
除了商業競爭的壓力,Anthropic(ANTHRO)目前也正陷入與美國國防部(五角大廈)的爭議中。爭議焦點在於公司設置的防護措施,這些措施禁止其技術被用於國內監控或自主武器系統。
美國國防部長彼得·赫格塞斯(Pete Hegseth)已向該公司發出最後通牒,要求在週五晚間之前放寬對其AI模型的軍事使用限制,否則將面臨失去聯邦合約的風險。儘管面臨巨大壓力,據路透社引述消息人士說法,Anthropic(ANTHRO)目前並無意放寬相關限制。
澄清安全政策調整與國防部合約談判無關
針對外界可能將上述兩起事件混為一談,Anthropic(ANTHRO)發言人向華爾街日報澄清,這次「負責任擴展政策」的修改,與公司正在和五角大廈進行的談判完全無關。
這顯示出該公司在面對商業競爭時選擇了策略性調整,但在涉及道德底線的軍事用途限制上,目前仍採取較為強硬的立場。對於關注AI產業發展的投資人而言,這反映了AI企業在追求成長、合規與道德責任之間,正經歷複雜的動態平衡。
發表
我的網誌