清研智庫:美國全球人工智能競賽的新戰略
機器學習迅速跟進,但在21世紀初經歷了一次復興,當時它成為開發AI程序最常用的方法,以至于現在幾乎成為AI的代名詞。機器學習創建了一些算法,讓計算機通過消耗大量數據,利用過去的經驗來指導當前和未來的行動,從而實現改進。這可以通過監督學習來實現,即人類提供正確的答案來教導計算機;無監督學習,即給機器提供未標記的數據,讓它自己尋找模式;強化學習,即程序使用試錯來解決問題,并根據其決定進行獎勵或懲罰。機器學習在過去十年中產生了許多AI領域的驚人進展,如面部識別和自動駕駛技術的大幅改進,并誕生了一種試圖利用類似大腦的生物學方法創建處理數據的系統——深度學習。其特點是通過人工神經網絡,將數據分解,由神經元單獨處理一個特定的問題,并描述其評估的信心,網絡將這些答案匯編成最終評估結果。
但是,盡管自機器學習復興以來,AI取得了進步,其理論應用幾乎是無限的,但它仍然是不透明的、脆弱的、難以發展的。
這種深層次決策問題的傾向,可能只有在開發之后才會變得明顯,對于那些想要嚴重依賴AI的人來說,將被證明是有問題的,特別是涉及國家安全的問題。因為將關鍵功能交給未經測試的機器的內在危險,部署AI程序的計劃不應該主要被視為對其自身質量的反映,而是對一個組織的文化、風險承受能力和目標的反映。
對某種程度不確定性的可接受性也加劇了AI與人類監督整合的困難。一種方案是人類監督融入整個決策過程。另一種是AI保持近乎自主的狀態,只有少量的人類監督。還有一種選擇是讓出人類的監督。選擇將取決于利害關系:軍隊更可能允許機器在沒有人類指導的情況下控制休假計劃,而不是反導彈防御。
同樣,對決策完整性存在疑問,將AI融入決策過程,意味著更大的風險承受能力,但同時也背叛了一種希望付出更多努力來追趕或超越該領域的技術水平的愿望。
因此,僅僅用項目支出的金額作為衡量AI的標準,就很難準確地評估成就。應該把錢看成是花費者價值的反映。項目支出并不是衡量AI發展進度的有效指標,而是衡量一個研究問題對提出這個問題的人有多重要。
但這種重要性提供了一個分析的價值,不管它是否適用于衡量AI競賽:決策過程可以充分說明部署者的優先級、文化、風險承受能力和愿景。具有諷刺意味的是,部署AI的方式遠比技術能力或成熟度更能說明部署AI群體的政治、經濟和社會性質。這樣一來,部署計劃就為其他人提供了有用的信息。這一點在審查政府計劃時尤其有效。
相反,有更好的方法來衡量AI的進展。在技術快速變化的同時,傳統的科學能力衡量標準為衡量AI提供了更細致的基礎,而且更難操縱。最相關的包括:科學家占人口的比例、發表的論文和引用次數、一般的研發支出(而不是專注于特定項目)、大學和STEM學生的數量。衡量任何科學過程自然充滿了危險,因為有可能出現死胡同研究,但從廣義上看,這些指標可以更好地反映一個國家或組織在AI技術方面的創新能力。然而,應該始終使用多種指標;任何專注于某一特定指標(如研究支出)的做法,都會使人們像依賴AI部署一樣,容易對系統進行依賴。這種狹隘的關注也會扭曲對AI格局的看法。例如,考慮到盡管美國在人才、論文引用數量和大學質量方面持續領先,但仍對美國在AI中的地位具有強烈的不安全感。
這些建議在美國常常被忽視,特別是由于美國國內優先事項的激烈政治化,如教育政策(影響大學)、移民政策(影響吸引外國人才)和經濟政策(影響制造和采購)。同時,這不僅僅是提供更多的資金,而且還要精簡流程以提高科學能力。例如,美國接受科研資助的制度繁瑣、耗時、令人窒息,不同的政府機構有重疊的資助責任。努力確保申請補助金不僅更容易,而且能促進更廣泛的科學探索。
在信息時代,新技術的部署及其先進程度已經成為衡量能力和效果的關鍵指標,但這些指標往往存在缺陷。特別是對于AI項目來說,研究預算、任務分配以及相對于人類的角色,幾乎不能證明技術本身的狀態。鑒于部署AI存在許多根本性的問題,風險容忍度和戰略文化在決定如何開展AI方面發揮的作用更大:一個組織的風險容忍度越高,越感受到競爭對手的挑戰,它就越有可能在關鍵職能上采用AI。美國在研究AI部署計劃時,不應該看哪個國家或組織走在前面,應該用它們來研究它們的世界觀和戰略觀,依靠整體科學能力來確定AI競賽中的桿位。