
根據華爾街日報報導,隨著AI應用於軍事領域的爭議升溫,五角大廈正考慮採取極端措施,要求所有國防承包商與供應商必須證明其未曾使用Anthropic的Claude模型。這項潛在的禁令源於雙方對於AI工具使用規範的根本分歧,五角大廈堅持必須擁有將AI應用於所有合法用途(包含軍事作戰)的權利,但Anthropic則堅守道德底線,拒絕其技術被用於國內監控及自主致命行動等敏感領域。
OpenAI與Google原則同意無限制軍事用途
為了確保美軍在戰場上的優勢,五角大廈研究與工程副部長Emil Michael強調,軍方必須能夠將任何AI模型用於所有合法的用途,若有公司無法配合將構成問題。相較於Anthropic的堅持,其主要競爭對手包括OpenAI、Alphabet(GOOGL)旗下的Google以及xAI,原則上皆已同意將其AI模型部署於五角大廈所優先考量的各類合法用途中,這使得Anthropic在爭取高達2億美元的國防合約談判中陷入僵局。
Palantir利用Claude協助委內瑞拉行動
雙方關係惡化的導火線之一,涉及數據分析大廠Palantir(PLTR)。據報導,今年一月美方在抓捕委內瑞拉前總統馬杜洛的行動中,Palantir(PLTR)使用了Claude模型協助運作,此事引發了Anthropic內部的擔憂與質疑。隨著爭議擴大,國防部長Pete Hegseth領導的五角大廈開始審查與Anthropic的合作關係,並將這類設有嚴格道德限制的科技公司視為「覺醒」(woke)文化對軍事效率的阻礙。
被貼上覺醒標籤且面臨供應鏈黑名單風險
五角大廈高層官員透露,內部許多人已將Anthropic視為「供應鏈風險」,這種通常僅用於針對外國敵對勢力的定性,如今罕見地被用來評估一家美國本土企業。儘管Anthropic執行長Dario Amodei澄清公司並無政治動機,且近期已延攬前川普政府官員加入董事會試圖緩和關係,但其與民主黨及拜登政府前官員的淵源,加上對AI安全政策的堅持,仍引起川普政府內部部分人士的不滿。
Anthropic強調支持國安但堅守道德底線
面對軍方強硬態度,Anthropic發言人表示,公司致力於利用尖端AI支持美國國家安全,並強調是首家將模型部署於機密網絡的AI公司。然而,目前雙方在「自動化武器目標鎖定」與「國內監控」等關鍵紅線上仍無共識。這家由Amazon(AMZN)和Google資助的AI新創,雖然希望能繼續與國防部進行建設性對話,但若五角大廈落實禁令,恐將衝擊其在政府部門的業務拓展。
發表
我的網誌