美國發布軍用倫理原則,打開了AI軍事化的閘門:心靈契合

時間:2023-12-20 09:33:27 作者:心靈契合 熱度:心靈契合
心靈契合描述::美國發布軍用倫理原則,打開了AI軍事化的閘門 ▲《終結者:黑暗命運》劇照。 11月1日,美國國防部下屬的國防創新委員會推出了最終版的《人工智能倫理道德標準》。其實該標準醞釀已有數年。2018年7月,該委員會提出了標準的草案版本,并通過聽證會接受了上百位業內人士的意見。此次最終版本在委員會投票中得到一致支持。 國防創新委員會是美國國防部2016年成立的新機構,主要目的是組織美國科技界領軍人物對美國國防科技的重大戰略決策提供咨詢意見。由于委員會成員幾乎都是美國業內大咖,其所發布的文件雖然沒有強制約束力,但也在美國社會產生廣泛影響。 倫理原則為人工智能軍事化上“保險絲” 近年來,美國軍方顯著加快了人工智能應用的速度,試圖借助這一新顛覆性技術,徹底改變美軍的作戰模式。早在2019年2月,國防部發布首份美軍人工智能戰略文件,要求利用人工智能促進美國安全與繁榮,將人工智能賦能引入到具體軍事任務中。 美軍快速引入人工智能技術,也在美國內外引起了廣泛擔憂。一些觀察人士開始擔心美軍的步子邁得太快,可能產生新的安全風險。而此次國防創新委員會的倫理道德標準,就是著眼于解決這些潛在風險,明確美軍利用和研發人工智能的限制。 國防創新委員會提出了五項核心標準:即負責、公平、可追蹤、可靠、可控。其中,公平和可控兩條標準的爭議性較大。 委員會所提出的公平是指,美軍在開發和部署人工智能化的裝備時要避免出現意料之外的偏差,而這些偏差會在無意中對人員造成傷害。實現這條標準有很高難度。因為人工智能技術的特性,導致其在應用過程中可能“自我學習”,其中一些“自我保護”行為可能導致違背設計者的初衷。這條標準意味著美軍所應用的人工智能設備,有可能采取“意外發生”的一票否決制。 可控的理念,則試圖給人工智能技術加上“保險絲”。委員會建議美軍在人工智能系統和裝備中設有“自動或手動”停機開關,一旦該設備運轉偏離使用者和設計者初衷,作戰和指揮人員就能立即關閉系統。 這種理念意味著人工智能不能完全替代美軍作戰人員進行判斷,作戰人員需要實時監控人工智能裝備的運行,甚至采用遙控方式做出關鍵性決定。在這種前提下,美軍也很難將強人工智能運用于軍事實踐。 倫理標準解除美國AI軍事化最大禁忌 委員會所提出的倫理道德標準看似嚴苛,但解除了美軍應用人工智能的最大禁忌。 五條倫理標準中既沒有包括禁止美軍將人工智能技術應用于致命性武器,也沒有限制人工智能化武器的攻擊目標。這意味著美國已經徹底放棄了“人工智能非軍事化”理想目標,將其全面引入作戰領域。這也給美軍未來應用人工智能提供了有利的說辭和合法性依據,讓美國社會接納一個人工智能化的美軍。 基于委員會的此份報告,美國很有可能成為全世界首個推出人工智能軍事化倫理標準的國家。 從全球范圍看,倫理標準是人工智能治理的先導性規則。從道德和倫理上探討人工智能,表明該技術的發展和使用可能對人類社會帶來重大的影響,可能改變人類社會的基本形態。人類社會當前所依賴的道德和倫理標準,對人工智能研發者和使用者尚沒有足夠限制,需要基于該技術發展變化提出新的倫理標準。 倫理標準也是國際社會在人工智能治理領域最廣泛談論的內容。谷歌等美國科技巨頭、各國政府、科技界的非政府組織都提出了自己的人工智能倫理。各方在這一問題上的博弈與合作剛剛開始。 美國則在這場人工智能的國際規則之爭中開辟了新的戰場,即人工智能軍事化領域。美國所提出的標準與聯合國致命自主武器系統所倡導的原則有一定差異,也不同于歐盟、中國等反對“人工智能軍事化”的基本立場。 下一階段,美國將會試圖將自己的倫理標準演變為該領域國際規則的根本性原則,獲取人工智能軍事化的“最終解釋權”。 □李崢(中國現代國際關系研究院美國所) 編輯:李冰冰 校對:郭利
站長聲明:以上關於【美國發布軍用倫理原則,打開了AI軍事化的閘門-心靈契合】的內容是由各互聯網用戶貢獻並自行上傳的,我們新聞網站並不擁有所有權的故也不會承擔相關法律責任。如您發現具有涉嫌版權及其它版權的內容,歡迎發送至:1@qq.com 進行相關的舉報,本站人員會在2~3個工作日內親自聯繫您,一經查實我們將立刻刪除相關的涉嫌侵權內容。