清研智庫:警惕人工智能崛起引致的“算法監獄”
人工智能(AI)的潛在危險非常巨大,以至于我們需要非常謹慎地考慮其功能的強大程度。
AI仍處于起步階段。但這很可能是有史以來最強大的技術。它具有改善健康,提高智力,提高生產力,保護環境以及增強自由與民主的潛力。
但是,隨著智能的不斷提高,以不負責任的方式使用AI的危險也帶來了AI成為社會和文化炸彈的可能性。這項技術可以剝奪我們的自由、權力專制和種族滅絕,規劃我們的行為,將我們變成人類機器,并最終使我們成為奴隸。因此,對于AI的崛起,我們必須非常謹慎,我們不敢犯錯。我們最好的防御可能是將AI置于極端飲食狀態中。
我們已經知道AI的某些威脅屬性。一方面,這項技術的進步將繼續以驚人的速度發展。最近,許多人可能對微軟的聲明感到震驚,即AI被證明比受過訓練的放射線科醫生更擅長閱讀X光片。大多數報紙讀者都不知道他們的日報現在有多少是AI寫的。那是不應該發生的。機器人應該代替體力勞動,而不是專業的腦力勞動。然而,我們現在是:AI正在迅速吞噬整個行業,而這些工作將永遠不會回來。
我們也越來越接近創造出具有人工通用智能的機器,即像人類一樣聰明的機器。我們可能永遠無法完全真正的意識,但是就處理能力、推理、隱喻甚至是后天的智慧而言,很容易想象AI超越人類。20多年前,國際象棋大師加里·卡斯帕羅夫在玩IBM的超級計算機“深藍”時,感覺到了棋盤另一側的想法。如今,全世界有數十萬臺電腦在使用,它們的功能比“深藍”更強大,而且還不包括數百萬臺可以訪問云計算的個人電腦。
我們也知道,利潤動機以及權力和控制的意愿已經推動了大量的反社會應用程序庫的快速增長。同時,在自由世界中,最令人擔憂的威脅是工業界利用AI來剝削我們,特殊利益集團則利用AI來建立和操縱親和力團體,從而使社會日益兩極分化。在像這樣的選舉年代,后一種活動尤其令人震驚。我們還關注執法機構、國稅局和監管機構如何利用這些手段更好地監視可能犯罪、逃稅和犯下其他侵害行為的人。其中一些是必要的,但如果沒有護欄,它可能會導致一個警察國家。
聽起來很極端?想想我們所有人已經被拘留在所謂的“算法監獄”里,這是被違反我們的意愿的,甚至是違背我們的知識。”我們不知道是誰對我們判刑,甚至不知道刑期。我們所知道的是,基于某些AI系統對我們的行為做出的決定(例如低信用評級),我們的選擇受到限制的。我們將對看到的信息進行預先決定:公司是否會查看我們的簡歷,或者我們是否有資格以優惠的利率獲得房屋貸款,如果我們可以租用某套公寓,我們必須支付多少汽車保險(我們的駕駛質量通過連接到引擎計算機的新設備進行監控),我們是否會進入我們選擇的學院以及警察是否應密切監控我們的行為。
展望未來,我們可以肯定的是,這種監視將繼續增長。我們也知道,AI將被團體用來招募成員并影響他們的意見,而外國政府將利用AI來影響選舉。我們還可以確定,隨著AI工具變得越來越強大,以及物聯網的發展,虛擬武器的武庫將變得更加商業化和社會化。
我們需要采取行動。問題是,即使到現在,也很難將馬帶回谷倉。有關AI強大功能的警報已經引起了史蒂芬·霍金和埃隆·馬斯克等人的警告。但是很難從立法上找出該怎么做。在沒有破壞AI的巨大潛在優勢的情況下,我們還沒有看到任何會產生廣泛影響的提議。
歐洲人現在擁有“解釋權”,這要求AI系統做出的所有決策都具有一個人類可讀的理由。當然,這種透明度是可取的,但尚不清楚它能起到多大的作用。畢竟,AI系統是不斷變化的。因此,任何基于發現不公正行為而采取的行動都將像塑造水一樣。AI將采用不同的形狀。
我們認為更好的方法是降低?AI的威力。也就是說,不是要控制AI,而是將其置于極端飲食中。AI會消耗什么?我們的個人信息。
如果AI系統和負責“虛擬監獄”的算法無法掌握這些個人信息,無法滿足他們對這些數據的無限渴望,它們必然會變得不那么具有侵略性和強大功能。