當拜登總統在 10 月份宣布嚴格限制向中國出售最先進的計算機芯片時,他出售這些芯片的部分原因是讓美國工業有機會恢復其競爭力。
但在五角大樓和國家安全委員會,還有第二個議程:軍備控制。
該理論認為,如果中國軍方無法獲得芯片,它可能會放慢開發人工智能驅動武器的步伐。 這將使白宮和全世界有時間找出在傳感器、導彈和網絡武器中使用人工智能的一些規則,並最終防範好萊塢製造的一些噩夢——自動殺手機器人和鎖定計算機他們的人類創造者。
現在,圍繞著流行的 ChatGPT 聊天機器人和其他生成式人工智能軟件的恐懼迷霧使得將芯片限制在北京看起來只是一個臨時解決方案。 週四,當拜登先生在白宮拜訪正在努力限制技術風險的技術高管會議時,他的第一條評論是“你們正在做的事情具有巨大的潛力和巨大的危險。”
他的國家安全助手說,這反映了最近的機密簡報,內容涉及新技術有可能顛覆戰爭、網絡衝突,以及——在最極端的情況下——關於使用核武器的決策。
但就在拜登發出警告時,五角大樓官員在技術論壇上表示,他們認為暫停開發下一代 ChatGPT 和類似軟件六個月的想法是個壞主意:中國人不會等等,俄羅斯人也不會。
“如果我們停下來,猜猜誰不會停下來:海外的潛在對手,”五角大樓首席信息官約翰·謝爾曼 (John Sherman) 週三說. “我們必須繼續前進。”
他的直言不諱突顯了當今整個國防界的緊張氣氛。 沒有人真正知道這些新技術在開發和控制武器方面的能力,他們也不知道什麼樣的軍備控制制度(如果有的話)可能奏效。
預感是模糊的,但令人深感擔憂。 ChatGPT 能否授權以前無法輕易獲得破壞性技術的不良行為者? 它會不會加速超級大國之間的對抗,從而使外交和談判的時間所剩無幾?
“這個行業並不愚蠢,你已經看到了自我監管的努力,”谷歌前董事長埃里克施密特說,他曾在 2016 年至 2020 年擔任國防創新委員會首任主席。
“因此,業界現在正在進行一系列非正式對話——所有都是非正式的——關於人工智能安全規則是什麼樣子的,”施密特先生說,他曾與前國務卿亨利基辛格一起寫過, 一系列文章和書籍 關於人工智能顛覆地緣政治的潛力。
任何測試過 ChatGPT 初始迭代的人都清楚將護欄放入系統的初步努力。 這些機器人不會回答有關如何用釀造的藥物傷害某人的問題,例如,或者如何炸毀大壩或削弱核離心機,美國和其他國家在沒有人工智能工具的情況下參與的所有行動.
但是那些行動黑名單只會減緩這些系統的濫用; 很少有人認為他們可以完全阻止這種努力。 總有一些技巧可以繞過安全限制,任何試圖關閉汽車安全帶警告系統緊急蜂鳴聲的人都可以證明這一點。
儘管新軟件讓這個問題變得普遍,但對於五角大樓來說,這並不是什麼新鮮事。 十年前發布了關於開發自主武器的第一條規則。 五角大樓的聯合人工智能中心成立於五年前,旨在探索人工智能在戰鬥中的應用。
一些武器已經在自動駕駛儀上運行。 擊落進入受保護空域的導彈或飛機的愛國者導彈長期以來一直具有“自動”模式。 它使他們能夠在沒有人為乾預的情況下開火,當被傳入的目標淹沒時,速度快於人類的反應。 但它們應該受到人類的監督,人類可以在必要時中止攻擊。
伊朗最高核科學家穆赫森·法赫里扎德 (Mohsen Fakhrizadeh) 的暗殺行動是由以色列的摩薩德 (Mossad) 使用由人工智能輔助的自動機槍進行的,儘管似乎已經進行了高度遙控。 俄羅斯最近表示,它已經開始製造——但尚未部署——其海底波塞冬核魚雷。 如果它不辜負俄羅斯的炒作,這種武器將能夠自主穿越海洋,避開現有的導彈防禦系統,在發射幾天后發射核武器。
到目前為止,還沒有涉及此類自主武器的條約或國際協定。 在軍備控制協議被放棄的速度快於談判速度的時代,達成這樣的協議的希望渺茫。 但 ChatGPT 及其同類產品提出的挑戰類型不同,而且在某些方面更為複雜。
在軍隊中,注入人工智能的系統可以加快戰場決策的速度,以至於它們會產生全新的意外打擊風險,或者根據誤導性或故意錯誤的攻擊警報做出決策。
“人工智能在軍事和國家安全方面的一個核心問題是如何防禦比人類決策速度更快的攻擊,我認為這個問題尚未解決,”施密特先生說。 “換句話說,導彈來得太快了,必須有自動反應。 如果這是一個錯誤的信號會怎樣?”
冷戰期間充斥著錯誤警告的故事——曾經是因為本應用於練習核反應的訓練磁帶不知何故被輸入了錯誤的系統,並引發了蘇聯大規模進攻的警報。 (良好的判斷力導致每個人都下台。)新美國安全中心的保羅沙雷在他 2018 年出版的《無人軍隊》一書中指出,“從 1962 年到 2002 年,至少發生了 13 起近用核事件”,這“這證實了這樣一種觀點,即未遂事件是核武器的正常情況,即使是可怕的情況。”
出於這個原因,當超級大國之間的緊張局勢遠低於今天時,歷任總統都試圖通過談判為各方的核決策留出更多時間,這樣就沒有人會匆忙捲入衝突。 但生成式人工智能有可能將各國推向另一個方向,即加快決策速度。
好消息是大國可能會小心——因為他們知道對手的反應會是什麼樣子。 但到目前為止,還沒有商定的規則。
前國務院官員、現任 Rice、Hadley、Gates and Manuel 諮詢集團負責人的 Anja Manuel 最近寫道,即使中國和俄羅斯還沒有準備好就 AI 進行軍備控制談判,關於該主題的會議將導致討論人工智能的哪些用途被視為“超出範圍”。
當然,五角大樓也會擔心同意許多限制。
計算機科學家丹尼·希利斯 (Danny Hillis) 說:“我非常努力地爭取獲得一項政策,如果你擁有武器的自主元件,就需要一種方法來關閉它們,”他是用於人工智能的並行計算機的先驅。 曾在國防創新委員會任職的希利斯先生說,五角大樓官員反擊說,“如果我們可以關閉它們,敵人也可以關閉它們。”
更大的風險可能來自個體行為者、恐怖分子、勒索軟件組織或擁有先進網絡技能的較小國家(如朝鮮),它們學習如何克隆更小、限制更少的 ChatGPT 版本。 他們可能會發現生成式 AI 軟件非常適合加速網絡攻擊和瞄準虛假信息。
微軟的信任和安全運營負責人湯姆伯特正在加速使用新技術改造其搜索引擎,他在喬治華盛頓大學最近的一個論壇上表示,他認為人工智能係統將幫助防御者比他們更快地檢測異常行為會幫助攻擊者。 其他專家不同意。 但他表示,他擔心人工智能會“加速”有針對性的虛假信息的傳播。
所有這一切都預示著一個新的軍備控制時代。
一些專家表示,由於無法阻止 ChatGPT 和類似軟件的傳播,最好的希望是限制推進該技術所需的專用芯片和其他計算能力。 毫無疑問,這將是未來幾年提出的眾多不同軍備控制計劃之一,而此時主要核大國至少似乎對就舊武器進行談判不感興趣,更不用說新武器了。