劉誠/文 在人類社會發展的歷史長河中,火的發現、輪子的發明、電力的應用等特殊時刻都曾重塑了人類文明,是歷史發展的關鍵轉折點。如今,我們正接近另一個這樣的時刻——人工智能(AI)的崛起。我們不禁要問:AI會覺醒嗎,人類要如何提前應對?
加速進化的AI
近年來,人工智能進入發展的快車道。2016年阿爾法狗(AlphaGo)戰勝世界圍棋冠軍,ChatGPT和DeepSeek分別在2023年和2025年火爆出圈,成為人工智能的高光時刻,并引領人工智能提升了進化的速度。AI創新的浪潮正促進各企業探索具有成本效益的AI開發和部署方法,加速賦能千行百業。
當前,人工智能具有很強的自主學習的主體性,社會認知大幅提升。以前,機器人只能被動接收由人類轉述的數據和信息,采取的是旁觀學習人類與世界互動知識的方式,可謂“第三人稱智能”。
近年來,隨著人工智能技術的提高,機器擁有感知外界信息的能力,能夠像人一樣與環境交互、自主規劃、決策行動、執行任務,從而轉變為主動學習,積極適應真實世界的復雜環境,即“第一人稱智能”。
在充分掌握了人類現存的知識后,人工智能還可以自主模擬現實世界形成新的認知,從而超出人類的知識邊界。正如埃隆·馬斯克近期在消費電子展(CES)的一次訪談中所說:“2024年人工智能訓練就把人類知識都學完了,現在已進入自己造數據學習的新階段。”
除了學習知識,人工智能還可以學習人類的情感和思維,已具有一定人格化特征。人工智能可以把人類情感因素當成知識進行學習和模仿,還可以進行謀略計算、價值觀計算、社會計算、情感計算等人類思想領域的學習訓練。
“人情練達即文章,世事洞明皆學問”,人工智能看似笨拙的學習,實際上產生了一定的人類情感化內容。譬如,移動機器人化學家可以自主設計實驗,如同化學家一樣“在失敗中吸取教訓”,自主決策及時更新和優選實驗方案。
再比如,當人類向生成式人工智能表達挫敗感等負面情緒時,后者會作出共情式回應“沒關系的,大部分人都可能在此過程中失誤,相信你下次一定可以做得更好”。這表明人工智能懂得人類情感,能夠生成滿足人類心理交互需求的內容。更重要的是,每一次我們與人工智能互動,實際上都是在教導它們如何更好地提高人格化、實現自主性。
此外,人工智能還可以通過互聯網聚合其他機器的數據和算力,形成機器間的互動和團隊協作,使其具有一定的社會性。與人類互動依賴的社會網絡相比,人工智能互動的網絡效應更強。人類在進入人工智能大生產的時代之初,機器的效率不斷提高。當機器和機器間的連接形成系統、進而構成社會化網絡時,人工智能的效率就更為顯著。
難以界定的覺醒標準
當前,人工智能的認知水平已接近甚至超過人類,并產生機械化的人類情感反應和團隊精神,正在自我學習、自我進化,努力使其在與人類交互中讓人滿意(甚至是以人情世故的方式迎合人類心理需要)。
那么,怎么樣的人工智能才算覺醒?
一個理論上的標準是,人工智能可以在沒有人類事先設定的命令和程序前提下,自發形成要做什么的意識:即從機械化模仿人類情感和思維活動,演變為主動表達自我意識,或者流露出無意識或潛意識的直覺行動。
人工智能在掌握人類語言文字基礎上,具有主動學習、邏輯推理和適應環境能力之后,可以進階到人類獨特的智力任務——自我意識,在沒有先驗數據“投喂”之下即可給出判斷甚至具有自己的行為目的。
生物學認為,自我意識是人神經領域的特殊功能,是人區別于動物的根本標志。由數據驅動、大量節點構成的神經網絡或將形成屬于機器的自我意識空間。從而,機器不僅可以學習人類倫理,還可以由神經網絡和大數據建構起智能化思維,形成自己的倫理讓人類遵守,如數據至上、效率優先等。
但這在理論上存在爭議。美國當代哲學家約翰·塞爾(JohnSearle)提出了“弱人工智能”(WeakAI)和“強人工智能”(StrongAI)的區分。
弱人工智能的追隨者認為,機器永遠不可能擁有真正意義上的智能,而是采用人腦工作原理、神經網絡方法來處理信息,永遠只能表現出擁有智能的假象。他們的目標是看上去擁有人類的心靈能力,但實際上并不擁有信息處理的機能。
強人工智能的追隨者認為,機器能夠擁有真正意義上的智能,他們的目標是“人造人”,也就是擁有真實思考能力和意識的機器。有學者認為,目前全球人工智能的發展正處于由弱人工智能向強人工智能過渡的階段。
如果真的實現了強人工智能,機器具有了自我意識,人類如何能及時發現?
有人認為,耗電量激增可能是人工智能覺醒的一個現實信號。因為根據莫拉維克悖論,人工智能在人類獨特的高級智力任務,如邏輯推理,需要的計算資源相對較少,但人類的意識卻需要大量算力。因此,人工智能在產生自我意識的一剎那,可能伴隨電力消耗的激增。
但DeepSeek(深度求索)的出圈也表明:人工智能在訓練過程中不一定需要堆砌算力和電力,也可以通過技術創新,實現低能耗、高訓練的結果。
此外,我們或許不應為人工智能制定過高的覺醒標準。任何試圖以高難度復雜語言區分人工智能與人類的企圖皆屬無效工作,因為大多數人類也不具備此等能力。以“能否寫詩判斷能否思考”的人,不得不面對將“庸人”和機器劃為同類的奇怪結論。從這個意義上說,當前出現的人工智能客服“已讀亂回”等“弱智”表現,不應作為人工智能沒有覺醒的證據,畢竟很多普通人也會犯各種知識性和低情商的錯誤。
強化機器對人的服務
當前,人類與人工智能的競爭已成常態,需要提高風險意識。其中,最大的風險不是人工智能的能力變得更強,而是人工智能覺醒后形成的自我意識與人類的利益相悖。總體上看,競合是出路,為人民服務是目的。
一方面,有人類的思想和創意,人工智能的發展才能持久。2024年芥川文學獎獲獎作品《東京都同情塔》,其中5%的內容是由人工智能直接生成的。
人工智能可以一鍵生成高質量的文本、圖像和視頻。但這種創作往往是遵循一種公式化的方法、生成具有特定風格的一致甚至是同質化的內容,可能缺乏新穎性,難以滿足千差萬別的用戶需求,不利于長期的創新發展。
在某種程度上,人工智能確實能夠幫助研究者進行“理解”,但若要其提煉出更具深度的科學見解,則需要更有引導性的提示指令。換言之,當前的智能技術只能輔助人類快速掌握資料,仍不能自主進行科學式提問、架構設計和理論分析,促使人類的工作重心進一步從掌握資料和記憶知識向更高端的創意思維轉變。同時,人類也要不斷創新發展智能技術,使之從“深度學習”向“深度思考”邁進。
并且,擁有人類的情感因素可以促使人工智能更快地普及和使用。在2025年央視春晚上,舞蹈機器人節目展現了人機協同共同呈現民間藝術的獨特魅力。有學者針對卡車共享平臺上的語音聊天機器人調度員做過一項實驗,當司機知道調度員是人工智能時,其響應調度的概率降低約11%;但通過添加擬人化的功能,如感嘆詞和填充詞,使語音聊天機器人更加人性化,就可以顯著提高響應概率和對話長度。
另一方面,在人工智能覺醒的過程中,要牢牢為其樹立為人類服務的意識,使之成為最高宗旨和自覺行為。早在1942年,科幻作家阿西莫夫就提出了著名的“機器人三定律”:不得傷害人類,也不得因不作為而使人類受到傷害;必須服從人類的命令,除非這些命令與第一定律相沖突;在不與第一或第二定律相沖突時,要保護自己。
誠然,人工智能處理數據的能力和速度已經超過最聰明的個體,但使用人工智能的還是“人”。如何駕馭這些數字,也還是“人”在設計。
人工智能設計師、架構師、耳語者等科研人員和訓練人員,要不斷為人工智能強化服務人類的意識,使人類成為人工智能的精神導師而非其反。
特別還要強化人工智能在幫助弱勢群體方面的具體應用。目前,腦機接口技術取得較大進展,一些人已經裝上腦機接口,這就像給身體裝上了無形的遙控器,可以讓人類用意念玩手機和電腦,讓盲人“重見光明”,助癱瘓者“重新走路”。
但這其中也隱含著是人類控制著機器還是機器控制著人類的精神控制問題,以及人類能否永生的倫理和哲學問題。
展望未來,人工智能的覺醒將帶來前所未有的科技革命和風險。在加快人工智能技術創新及生產生活應用的同時,我們應堅持人類可管控的原則,加強算法透明性和與之相關的“可解釋性”,輔之以影響評估、審計和監察員等前瞻性監管手段,使人工智能更好地為人類服務。
(作者系中國社會科學院財經戰略研究院研究員)
?