你有沒有發現,今天的互聯網正在變得“真假難辨”?而未來互聯網的內容可能是由機器人編寫的,這是好事還是壞事?
隨著能力的提升,人工智能可以開始能“生成”整個網絡世界的內容。比如,OpenAI 發布的DALL-E,使用120億參數版本的GPT-3來解釋自然語言輸入,并生成相應的圖像,它不僅可以創建現實中存在的東西,還可以創建現實中不存在的物體的圖像。隨著OpenAI等公司在大眾市場上投放其產品,AI已經能夠創造逼真圖像、模仿音頻和書寫令人信服的人類文字的,而且這些技術現在正越來越多地被用于創建西方網絡平臺上的政治內容。
在某些方面,新創建的內容與多年來頻繁出現的篡改圖片和視頻、誤導性信息以及機器人電話并無太大區別。然而,以前的虛假信息活動總是面臨著一系列的進入障礙——為社交媒體創建個性化的信息非常耗時,對圖片和視頻進行Photoshop處理也是如此。
但現在,生成式人工智能讓任何擁有基本數字技能的人都能制作這類內容,而遏制它們的防護欄或有效監管卻十分有限。生成式人工智能的可供性和可及性,正在降低虛假信息活動的進入門檻。
直到最近,很少有人關注人工智能的潛在惡意應用:在人工智能范圍狹窄、必須為每種應用專門打造的年代里,需要整個的研究團隊來開發用于惡意應用的人工智能工具,因為成本太大,并沒有為惡意行為者提供多少“唾手可得”的應用。
如今,這一切都在改變。隨著人工智能變得更加靈活和通用,人工智能的構建目的與其潛在下游應用之間的聯系幾乎消失了。大型語言模型可以被訓練來執行有價值的任務,比如為寫作提供支持、在不同語言之間轉譯或編寫更好的代碼。可是,一個能寫文章的系統也能寫假新聞,或者為類人文本生成機器人大軍提供動力。
在21世紀第二個十年的末期,我們已經見證了社交媒體的分發革命所引發的虛假信息洪流;機器人(bot)、“噴子水軍”(troll farms)和微定向(microtargeting)技術,會根據特定受眾群體的個人特征和行為向其提供定制內容。2018 年的劍橋分析(Cambridge Analytica)丑聞(指8700萬臉書用戶數據被不當泄露給政治咨詢公司劍橋分析,用于在2016年總統大選時支持美國總統特朗普)與這些現象尤其相關,它涉嫌未經授權收集數百萬臉書用戶的個人數據,以便為了政治目的而實現操縱輿論。
眼下生成式人工智能的出現,則更為直接,可以通過實現自動化內容生產的方式,大大增加操縱輿論的風險。
比如,之前很多人使用網絡自動化機器人來讓他們的觀點看起來更受歡迎,熱度更高,營造互動頻繁的假象。比如,在一些社交平臺上,許多賬戶會在同一時間內發表完全相同的內容,因為用的就是自動化機器人。不過在之前的技術條件之下,為每個虛假賬戶生成唯一的信息既昂貴又耗時,但是現在借助生成式人工智能,可以毫不費力地生成高度個性化的內容,并使之廣播。
又比如,你利用外國的內容農場(content farm),甚至毋需掌握某一門流利外語,就能用目標受眾的語言寫出一篇讀起來十分流暢的文章。你需要做的只是,讓一個語言模型為你“吐”出這篇文章,其中的語法和詞匯都與說本族語的人相差無幾。
已有專家預計,從2025 年到 2030 年,99%以上的互聯網內容將由人工智能生成。自動化創建內容的發展將徹底改變互聯網的面貌,并使人們在海量內容中更難以分辨真假。
人工智能增強的虛假信息,會給整個互聯網帶來生存性的威脅。新的人工智能功能正迅速增加虛假信息操作的數量、速度和病毒毒性。隨著這些功能的不斷改進和擴散,它們進一步威脅到對社會治理的信任,并刺激受眾懷疑公共生活中真相的可能性。
我們正在面臨一個面目全非的互聯網,20多年前那句“在互聯網上你不知道對面的是條狗”,變成了某種詛咒,TA甚至不是一條狗,只是機器,被人為操縱的機器——但愿這只是一種杞人憂天。
來源:澎湃新聞
作者:胡泳