清研智庫:AI的創(chuàng)新迫切需要法律的規(guī)范
近年來,科技公司在推進人工智能(AI)方面取得了長足進步。根據(jù)經(jīng)合組織的數(shù)據(jù),60個國家的300多項政策和戰(zhàn)略舉措都在關(guān)注AI對社會、企業(yè)、政府和地球的影響。為了對這些實體進行監(jiān)管,并幫助更好地制定規(guī)則,需要新的法律框架。
從廣義上講,AI分為兩類–廣義AI(旨在模仿人類智能)和狹義AI(應用于特定領(lǐng)域、定義的任務,如醫(yī)療診斷或汽車導航)。目前,大多數(shù)AI的發(fā)展都集中在狹義AI范疇。許多應用可能會匯聚成廣義AI,但現(xiàn)在技術(shù)上還不可行。比爾·蓋茨、埃隆·馬斯克和物理學家霍金等多位知名人士都對廣義AI的發(fā)展表示擔憂,因為廣義AI有可能超越人類,構(gòu)成生存威脅。因此,AI的發(fā)展往往集中在狹義AI上。
狹義AI包括各種研究子集,如機器學習、自然語言處理、自動化、神經(jīng)網(wǎng)絡和社交智能,幫助虛擬助手與用戶對話。然而,這些系統(tǒng)都是在無人監(jiān)督的情況下通過代碼來執(zhí)行和做出決策的。因此,描述這類程序更準確的術(shù)語是自動化或無監(jiān)督?jīng)Q策系統(tǒng)。
AI算法和系統(tǒng)所做的決定是不可知的,是源于黑匣子中單獨的客觀智能。它可以幫助這些無監(jiān)督的決策承擔更大的責任。但在使用這個定義時,還需要了解這些系統(tǒng)的無監(jiān)督程度,并對它們進行分類。電商網(wǎng)站用于展示廣告的網(wǎng)絡決策與工廠車間管理自動化算法的復雜程度是不一樣的。自動化決策對二者的影響是截然不同的,對用戶的風險也不同。
隨著我們的進步,政府將在無監(jiān)督?jīng)Q策系統(tǒng)中遇到更多棘手的道德問題。例如,在美國已經(jīng)發(fā)生了幾起與自動駕駛汽車相關(guān)的事故和死亡事件。由于不是人而是算法在管理和駕駛這些汽車,因此出現(xiàn)了問責和責任問題。在車禍中,算法能否像人類一樣為自己的行為負責?在Uber的案例中,測試自動駕駛功能的操作者要對橫穿馬路行人的死亡負責,而不是作為公司的Uber。對算法的懲罰性行動會是怎樣的?現(xiàn)有的法律框架能否對其進行規(guī)范?
關(guān)于如何監(jiān)管AI并追究其責任的辯論有很多。機器倫理學領(lǐng)域關(guān)注的是為AI添加道德行為,以確保它以人為本。機器倫理學還質(zhì)疑可以賦予AI什么樣的權(quán)利,以及如何實現(xiàn)它。規(guī)范AI可能需要借鑒過去工業(yè)革命的經(jīng)驗教訓,建立新的法律框架。如果目標是在AI中編碼人類的道德和價值觀,并最終賦予機器一些人權(quán),那么或許值得深入研究公司法,為新框架尋找靈感。
在18世紀和20世紀,公司獲得了法人地位,現(xiàn)在被認為是法人,與個人享有同樣的權(quán)利和責任。與人類一樣,公司被允許擁有財產(chǎn)、舉債、起訴和被起訴、行使人權(quán)并對侵犯這些權(quán)利的行為負責,并被指控犯有欺詐和過失殺人等罪行。
公司的成立,是指一群人或公司為了一個目的而作為一個單一的實體行事。公司的人格與成立公司的個人是分開的。同樣,AI的發(fā)展也涉及到各種參與者,無論是資金還是其他方面??梢哉f,AI的人格是復合的,是獨立于個人出資者的,因此有理由賦予其法人資格。
借鑒公司法對新框架也有好處,因為它提供了注冊各種形式的無監(jiān)督和自主決策系統(tǒng)的結(jié)構(gòu),如成立公司。這將有助于監(jiān)測和評估這些系統(tǒng)的風險,以便更好地進行監(jiān)管。
然而,鑒于該技術(shù)給人類帶來的潛在危險,構(gòu)成公司的一個關(guān)鍵特征有限責任的概念,不應適用于新的AI框架。有限責任制鼓勵企業(yè)家精神,以幫助將大量資金用于實現(xiàn)經(jīng)濟利益的目的,并保護股東免受外部風險。但批評者認為,它也促進了企業(yè)的不負責任和以進一步提高股東利潤的名義誤入歧途。多年來研究公司行為的法學教授Joel Bakan將公司的個性比作精神病患者,經(jīng)常在促進自身利益(利潤)的同時,通過助長對環(huán)境的破壞和無視合法行為的社會規(guī)范來危害員工、客戶和廣大公眾。
AI框架應該比公司享有的有限責任有更高的標準。根據(jù)AI應用所承擔的風險,嚴格責任或絕對責任的原則,一個人對不可預見的活動的后果負有法律責任,即使沒有過錯或犯罪意圖,應適用于新框架。這種責任學說的應用有助于確保無監(jiān)督?jīng)Q策系統(tǒng)的開發(fā)者采取負責任的行為,并在部署這些系統(tǒng)并與人類交互之前盡可能多地考慮到外部因素。
許多開發(fā)AI的科技公司已經(jīng)大膽地公開呼吁負責任地使用AI,以維護人類的權(quán)利和價值。企業(yè)表示,他們正在聘請倫理學家設計道德準則,并建立審查委員會、審計跟蹤和培訓。然而,企業(yè)追求利潤最大化的目標迫使Palantir和Clearview AI等公司將其AI產(chǎn)品賣給國家和執(zhí)法機構(gòu),踐踏了所有用戶的權(quán)利,忽視了對潛在濫用的深層擔憂。在這樣的環(huán)境下,迫切需要建立一個法律框架,迫使公司思考其開發(fā)的AI產(chǎn)品的后果,并就企業(yè)責任展開更廣泛的辯論。
作者SHASHIDHAR KJ,清研智庫李梓涵編譯