清研智庫:如何應對AI帶來的虛假信息?
虛假信息的快速攻擊,目的是立即產生破壞性效果,是數字生態系統中最重大的挑戰之一。
信息泄露的風險
有些形式的虛假信息可以在幾小時甚至幾分鐘內造成傷害。這類虛假信息只要有足夠的時間就很容易被揭穿,但要想迅速揭穿以防止其造成損害卻極為困難。
選舉是許多領域中可能發生這種情況的一個例子。金融市場是另一個例子,它可能會受到短期操縱。外交事務可能會受到影響,因為謠言通過數字平臺迅速傳播到世界各地。社會運動也可能成為目標,因為傳播虛假信息的目的是為了刺激某項事業的支持者或反對者采取行動或作出反應。
當然,旨在造成短期影響的網上虛假信息所帶來的問題并不新鮮。今天,AI可以作為一種力量倍增器進行部署,讓一小部分人創造出更大群體的在線活動水平。
檢測虛假信息
各種形式的虛假信息是社交媒體公司面臨的最棘手的挑戰之一。適用于許多其他領域的假陽性假陰性的權衡同樣適用于虛假信息檢測。如果社交媒體公司對虛假信息的分類過于寬泛,那么他們就有可能讓那些發布重要、及時的準確信息的用戶沉默。如果公司的分類范圍太窄,虛假信息攻擊就可能不被發現。
社交媒體公司深知這種權衡。對于旨在較長時間內采取行動的虛假信息活動,在許多情況下,社交媒體公司的最佳做法是保守地封殺內容;等待確認信息的虛假性后再封殺的危害往往低于無意中封殺傳達準確信息的合法用戶的帖子的危害。換句話說,對于會在較長的時間范圍內造成大部分傷害的虛假信息,社交媒體公司有足夠的時間來調查疑似虛假信息帖子的準確性,同時還保留了在必要時盡早采取行動的選擇,以預先阻止大部分傷害。
虛假信息的快速攻擊尤其難以應對,因為它們不會給社交媒體公司留下時間。
對于不復雜的虛假信息活動,例如那些涉及到從新創建的只有少數追隨者的帳戶中復制和粘貼帖子的活動,檢測和迅速作出反應是很簡單的事情。然而,像上述復雜的攻擊,其行為和表現與合法賬戶活動類似。辨別真假、識別哪些賬戶是善意的,哪些不是,所需的時間遠遠大于虛假信息造成最嚴重損害的時間。
幸運的是,打擊網絡虛假信息的必要性在學術研究人員、民間社會團體和商業部門,特別是在初創企業和成熟的技術公司中得到了越來越多的關注。這導致了越來越多的付費產品和免費在線資源來追蹤虛假信息。解決方案的一部分涉及機器人檢測,因為機器人經常被用來傳播虛假信息。但機器人也被用于許多其他目的,有些是邪惡的,有些是無害的;而且并非所有的虛假信息活動都涉及機器人。越來越多的商業產品旨在檢測和管理機器人。
機器人僅僅只是問題的一部分,因為并非所有使用機器人的虛假信息活動都會被機器人檢測軟件發現。因此,擁有能夠查看可疑內容如何影響更廣泛的生態系統的工具也很重要。
數據標簽的挑戰
以足夠快的時間應對虛假信息的快速攻擊將需要AI。但是,AI并不是魔法;要想有效地應對虛假信息,它需要獲得數據以及使其能夠評估數據準確性的信息。為了進一步探討這個問題,首先考慮如何在沒有任何時間壓力的情況下,使用基于AI的方法來檢測虛假信息,然后解決因需要快速檢測而產生的額外復雜性,是很有幫助的。
當有大量已被準確標記的訓練數據集時,虛假信息最容易被檢測出來。訓練數據是用來讓AI系統學習的,這樣當它看到訓練集里沒有的新數據時,它就知道如何對其進行分類。使用一個已經就感興趣的屬性進行過標注的數據集進行學習。一旦完成了訓練過程,該算法將非常有效地快速將有關該藥物的新社交媒體帖子或新聞報道分類為不準確或準確。
還有一類基于無監督學習的機器學習技術,算法必須在沒有預先存在的標簽的情況下學習識別數據中感興趣的類別。
任何學習算法,無論是有監督的還是無監督的,一個障礙是獲得足夠大的訓練數據集。適合用作訓練數據的特定問題的信息可能需要大量時間在社交媒體上積累。為了AI在系統中檢測虛假信息,數據在許多情況下至少需要在一開始就進行一定程度的人工編碼。但對于需要非常快速地部署虛假信息防御措施的情況來說,它的效果要差得多,在這種情況下,通常會有較少的數據量可以作為算法學習的基礎。
另一個問題,無論是在快速還是在時間限制較少的識別虛假信息的嘗試,都是AI算法在學習過程中所依賴的數據標簽的準確性。標簽不一定準確是機器學習中一個眾所周知的問題。
使用AI識別虛假信息的嘗試很可能需要面對嘈雜的數據,原因很簡單,這其中涉及到有意的欺騙。虛假信息攻擊會與一系列關于網上言論是否真實的矛盾說法聯系在一起。在很短的時間內,算法或者一個人很難知道該相信哪個標簽。因此,要快速回應假消息,就必須解決有限的數據和不可靠的,在某些情況下故意錯誤是數據標簽的雙重障礙。
研究人員已經認識到這些問題,并正在開發新的方法,這些方法不依賴于大量的預先存在的訓練數據集。在解決虛假信息的研究中,一個共同的主題是衡量在線來源的可信度。建立和利用可信度的方法對于在精心設計的虛假信息快速攻擊中快速識別真相至關重要。
同樣重要的是,要認識到AI可完成的極限。期望在不久的將來,任何AI解決方案都能夠快速、明確地識別虛假信息攻擊,那是不合理的。
政策考慮
公共政策將在應對虛假信息快速攻擊的人力和技術方面發揮核心作用。政策考慮也將是人類應對的重要驅動力。對于大多數主題和事件來說,根本沒有資源提供專門的人員來單獨監測可能出現虛假信息的各種情況。特別是考慮到Facebook和Twitter等公司在全球范圍內運營,在近兩百個國家有數十億個賬戶,有可能被用來傳播虛假信息。因此,對于絕大多數虛假信息,社交媒體公司的人工干預必然是在通過算法或人工報告渠道發現問題后才進行。
此外,還需要制定政策來處理AI系統做出確切錯誤決定的情況。由于在虛假信息快速攻擊的早期階段,可用的數據有限,快速做出判斷可能會導致算法顛倒真假,得出虛假信息是準確的結論,試圖揭穿虛假信息本身就是虛假信息攻擊。算法會受到確認偏差效應的影響,通過有選擇地給予支持該結論的輸入更大的權重,導致對錯誤結論的信心增強。特別是考慮到虛假信息快速攻擊的時間很短,這可能會導致算法迅速趨向于一個錯誤的結論,而這個結論需要人的干預來識別和扭轉。
簡而言之,不斷增長的社交媒體生態系統和越來越強大的內容傳播AI工具的可用性相結合,意味著虛假信息快速攻擊將成為一個經常性特征。應對這些攻擊將需要AI的進一步進步,特別是在數據非常有限的情況下快速評估在線來源的可靠性的方法有關。還需要社交媒體公司內部注意確保政策和資源到位,以利用虛假信息檢測技術的能力,輔以人工干預,并最大限度地提高利用其平臺促進而不是破壞獲取準確信息的可能性。
作者John Villasenor,本文原載于布魯斯金學會,清研智庫李梓涵編譯