国产精品自拍亚洲-国产精品自拍一区-国产精品自拍在线-国产精品自拍在线观看-亚洲爆爽-亚洲不卡一区二区三区在线

如何學習才能不被AI替代

陳永偉2025-02-19 15:45

陳永偉/文 對于中國的AI普及而言,2025年的春節注定是不平凡的。隨著DeepSeek的意外爆火,原本高冷神秘的AI一下子飛入尋常百姓家。一時間,幾乎全國的人都開始使用AI。朋友圈里刷屏的不再是煙花九宮格,而是“我家AI寫的打油詩更押韻”的隔空比拼;家族群里此起彼伏的,是二舅用方言教AI包餃子、三姨讓AI計算年夜飯卡路里的語音消息;就連我70多歲的老父親,也要求我給他補課,教他如何用AI給親朋好友寫拜年詞。

然而,AI的普及不僅帶來了便利,也引發了焦慮。一位資深程序員在試用DeepSeek后感嘆,自己多年積累的編程經驗竟顯得如此脆弱。春節過后,一張上海某公司群聊截圖瘋傳,該公司擬用AI替代大量人工,其中法務部、內容創新中心裁撤比例高達80%。這讓人們驚覺,AI取代的不只是低技能崗位,甚至高學歷、高經驗的職業也難以幸免。

面對AI的迅猛發展,許多人開始質疑學習的意義。如果知識和經驗都能被AI輕易取代,我們該如何調整學習模式,以適應這個新時代?

工作變遷和新的學習要求

我們習以為常的“工作”模式——固定時間、地點、任務——僅存在兩百余年。更早時期,個體需自主分配時間,兼顧耕田、織布、養魚等多種任務。工業革命后,機器重塑生產流程,人們被納入固定崗位,按標準流程操作,逐漸成為社會大機器的一部分。

這一變革也改變了學習方式。工業革命前,工作多元,個體需廣泛涉獵知識,具備跨領域協調與社交交易能力,學習以“博”為核心。而工業革命后,任務高度細分,專精一項技能即可獲得認可,學習目標由“博”轉向“精”,如程序員專注編程,無需關心市場包裝,產品經理關注需求分析,而不涉產品實現。

然而,AI的普及正在改變這一現狀。正如我們所看到的,AI在許多具體任務上的效率已超越人類,尤其是在需要大量知識積累和經驗總結的工作領域,其進步遠超預期。這一趨勢使得人類在工業時代所扮演的“社會大機器的螺絲釘”角色逐漸式微。在更高層次的生產力水平下,工作形式或許將經歷一種“否定之否定”,回歸到工業革命前的狀態。換言之,人們可能需要同時承擔多種不同的任務。例如,一個產品經理不僅要分析市場、設計產品,還需要親自實現這些設計。不同的是,如今人們無需親手完成所有任務,而是可以借助AI工具來高效實現。在這種情況下,人們最需要的能力,已經從單一技能的掌握,轉變為任務拆解與識別能力,以及AI工具的高效使用能力。

與此同時,隨著工作任務和場景的確定性逐步消解,適應變化、根據環境調整知識結構的能力,將成為未來職場的核心競爭力。此外,盡管AI可以代替人類完成許多工作,但至少目前,它仍難以完全取代涉及想象力、創造力和人情味的任務。因此,為了更好地展現人類的獨特價值,人們應更加注重這些能力的培養,尤其是想象力的開發與提升。

基于上述分析,筆者認為,為了適應AI時代的社會分工和組織變革,學習模式的革新應從四個層面展開:

1.工具層面:學會高效使用AI工具,使其成為工作的得力助手。

2.知識層面:掌握與自身工作相關的多樣化知識,確保在為AI分配任務時,能夠清楚如何著手。

3.能力層面:培養跨任務協調能力、資源配置能力,以及應對未知挑戰的能力。

4.超越層面:強化更具人類特質的能力,如情感、想象力和共情能力,尤其是想象力的培養,應成為重中之重。

接下來,我們將分別探討這四個層面的變革方向。

當好AI的蘇格拉底

在現實中,同樣的AI工具,不同的人所能挖掘出的效率卻截然不同。有些人借助AI,可以獨立開發出完整的網站,甚至完成整個項目;而另一些人,卻只會把AI當成陪聊工具或圖片生成器。

為什么會出現這樣的差別?過去,AI的使用門檻較高,要熟練掌握AI,通常需要具備一定的編程技能。因此,人們習慣于將AI使用效率的差異歸結于對編程能力或某些具體技能的掌握程度。然而,如今人們已經可以用自然語言輕松指揮AI完成各種任務,但這種差異仍然存在,甚至比過去更為顯著。究其根本,問題仍然出在思維方式上。

事實上,在ChatGPT爆火之前,市場上已經有一些類似的應用,允許用戶通過自然語言或可視化方式與AI交互,讓AI編寫程序或完成任務。不過,這些應用通常被稱為“低代碼編程”。顧名思義,這些工具雖然降低了編程門檻,但本質上仍屬于編程范疇。要想編寫高效的程序,不僅需要一定的編程技能,還需要良好的編程思維。類似的道理,同樣適用于生成式AI的使用。

那么,使用生成式AI時最重要的技能是什么?就是清晰地表述自己的需求,并引導AI按照自己的指令執行任務。在《美諾篇》中,蘇格拉底為證明“認識是靈魂的回憶”,引導一個毫無幾何基礎的奴隸小孩推導出畢達哥拉斯定理。他未直接教授,而是通過拆解邏輯、反詰和追問,讓小孩自行推演,最終得出正確結論,完成了看似不可能的任務。

這個故事對于我們使用AI模型具有重要的啟發意義。如今的生成式AI在訓練過程中,已經吸收了互聯網上幾乎所有可以獲取的信息。因此,從理論上講,我們所需要的答案早已“存在”于它的“知識體系”中。然而,AI僅僅存儲了海量知識,并不一定能夠自動將這些存量知識與用戶的需求精準匹配——正如奴隸小孩雖然掌握了勾股定理推導的每一步,但在被直接問及該定理時,仍然無法將這些知識串聯起來。在這種情況下,AI的使用者需要扮演蘇格拉底的角色,通過適當的引導,讓AI按照自己的思路完成任務。

正如我們所見,蘇格拉底在啟發人們思考時,通常會遵循固定的對話策略。例如,他會要求對話者首先對相關概念進行明確定義,然后將這些定義一般化,從而推導出一定的結論。接著,他會對這些推論進行反詰,找出其中的矛盾,促使對話者從新的角度進行思考。本質上,蘇格拉底其實是在用自然語言編寫一套“低代碼程序”,以引導對話者逐步接近正確答案。同樣的思維方式,也可以應用于與生成式AI的交互。在學習和實踐中,用戶可以為自己搭建幾套AI交互的“套路”,并積累一些經過實踐檢驗有效的提示詞。這樣,無論遇到何種問題,我們都可以像蘇格拉底一樣,以高效的方式向AI闡明需求,并對AI的行為進行精準引導,從而大幅提升AI的使用效率。

值得注意的是,蘇格拉底式的啟發式對話不僅可以幫助我們提升AI執行任務的效率,反過來,若讓AI用類似的方法向我們提問,也能有效提升我們的學習效率。許多人在學習過程中,往往難以判斷自己對某個知識點的理解是否足夠透徹。如果讓AI扮演蘇格拉底的角色,不斷向我們發問、反詰,就能很好地檢驗我們對知識的掌握程度。不僅如此,這種詰問式學習還能夠激發我們的思維,拓展我們的認知邊界。

以我認識的一位教授為例,自從2023年初接觸ChatGPT以來,他每天都會花上一個多小時與ChatGPT交流。在聊天中,他會向ChatGPT提出自己正在構思的論文寫作思路,然后讓AI扮演潛在的審稿人,幫助他完善論證過程。迄今為止,他已借助這種方法成功發表了多篇高水平論文,取得了令人羨慕的學術成果。

掌握紛亂世界的“目錄”

在周星馳主演的《鹿鼎記》中,有這樣一個橋段:陳近南收韋小寶為徒后,遞給他一本厚厚的書,并叮囑他要多加閱讀,熟悉書中的內容。韋小寶接過書,問道:“師傅,這是你的絕世武功嗎?”陳近南答道:“不,這是絕世武功的目錄。”然后,他指著旁邊的一大堆書說:“那些才是絕世武功。”

初次觀看這部電影時,我曾覺得劇中的陳近南實在迂腐可笑。畢竟,這么多絕世武功,學成一本就足以讓韋小寶行走江湖了,何必浪費時間去看一個沒有實際用處的“目錄”?然而,在AI時代重新回看這一段,卻讓我意識到,掌握“目錄”其實具有極其重要的意義。

我們正處于一個知識爆炸的時代,每時每刻,各個領域都在不斷產生新的知識。對于大多數人而言,即便窮盡一生,也難以遍覽某一領域的所有知識。而如果讓AI來完成同樣的任務,可能只需短短一瞬。在這樣的背景下,人類在知識獲取的數量上已經很難與AI相比,事實上,這種“比拼”也已沒有意義。相比之下,更為明智的策略是將AI作為“外腦”,讓它幫助我們獲取并整理各類知識,而我們在需要時再隨時調用這些知識。

然而,知道在何時指示AI調用哪些知識,本身也是一項重要的技能。很多時候,當人們面對一個新問題時,往往并不清楚自己需要調用哪些知識。例如,如果我們要撰寫一篇探討“谷子經濟”的分析性論文,由于該話題較為新穎,我們可能根本不知道該從哪個角度切入分析。而如果找不到合適的分析角度,即便AI能力再強,我們也難以準確指示它去尋找合適的資料,進而影響工作效率。

在這種情況下,廣博的知識儲備就能起到關鍵作用。假如我們對各個學科都有一定了解,盡管在遇到問題時未必能直接給出答案,但至少可以憑借已有的知識作為“路標”,幫助我們確定查閱的方向。然后,再借助AI的能力,就能更高效地解決問題。

需要強調的是,這里所說的“廣博”并不意味著否定知識的深度。事實上,真正的廣博必須建立在一定的深度基礎之上。一個衡量我們對某類知識是否足夠深入的標準是:當看到關于它的明顯錯誤表述時,我們是否能敏銳地識別出來。這一點在AI時代尤為重要。

至少在目前階段,所有主流AI模型在生成內容時都存在較高比例的“幻覺”(hallucination)。盡管可以通過要求AI注明出處或提供鏈接等方法在一定程度上減少錯誤,但從整體來看,AI“一本正經地胡說八道”的現象仍然十分普遍。隨著AI生成的內容越來越多,人工核查所有AI輸出的信息變得愈發困難。尤其在對某個領域了解不深的情況下,我們的“審核”往往只能局限于復查幾個數據或引用來源,而可能對AI整體表述中的謬誤毫無察覺。在這樣的背景下,盲目信任AI的內容可能會帶來極大的風險。

從這個角度來看,即便有了AI的輔助,人類仍然需要對相關領域的知識達到一定的深度。只有在具備一定的專業判斷力的前提下,我們才能在享受AI帶來的便利時,避免落入其信息誤導的陷阱。

學會用算法思考

在AI時代,“螺絲釘”式的工作將逐漸減少,直至消亡。取而代之的,是越來越多的人憑借AI的力量成立單人企業,成為自己的老板。與過去執行固定任務相比,這些人將更加需要學習和培養規劃、組織,以及處理各種新問題的能力。然而,培養這些能力并非易事,它需要大量的經驗積累作為支撐。不過,從學習的角度來看,涉獵一些算法相關的知識,培養算法思維,可能會對這些能力的形成大有裨益。

所謂算法,指的是解決問題的一系列步驟或指令的集合。在開發AI時,為了讓其高效執行各項任務,人們會為其設定各種算法。然而,算法并不僅僅是AI專屬的工具。事實上,每一個算法都代表著人們對某類特殊問題的解決方案,其背后蘊含著大量前人的智慧。因此,學習算法、培養算法思維,本質上是一種解決問題能力的鍛煉,可以有效提升我們對現實問題的分析和應對能力。

舉個例子:在2024年美國總統大選期間,海外博彩市場Polymarket上,一名神秘押注者豪擲3000萬美元支持特朗普。由于民調普遍顯示哈里斯領先,許多人認為這是一場魯莽的賭博,一些分析人士甚至猜測他是特朗普的金主,意在拉抬選情。

后來,記者發現這名押注者是一家法國量化金融機構的交易員,而他的決定純粹是基于盈利考量。他認為民調存在偏差,因為在不友好的輿論環境下,許多特朗普支持者可能不愿表露真實立場。為更準確預測,他設計了一種巧妙調查法——不直接問受訪者支持誰,而是詢問他們的鄰居傾向,以避免社交壓力影響回答。隨后,他利用“近朱者赤,近墨者黑”的原理推測真實支持率,最終得出特朗普實際支持率遠超預期,果斷下注,并因此狂賺8500萬美元。

這一事件讓人驚嘆于他的精準判斷,而實際上,這正是算法思維的體現。類似于K近鄰回歸(K-NN)算法,他基于鄰近數據點推測整體趨勢。作為一名量化交易員,他自然而然地將這一算法思維應用于選舉預測,從而成功押注。

當然,這只是利用算法思維解決問題的一個案例。在現實中,類似的例子還有很多。例如:借鑒動態規劃算法的思路,可以讓我們更高效地安排工作流程;借鑒支持向量機(SVM)算法中的升維思路,可以幫助我們從更高的視角重新思考問題。

總而言之,在AI時代,多學習一些算法知識,培養算法思維,或許能讓我們的工作和決策事半功倍。

給自己留一些“幻覺”

在DeepSeek爆火之后,我曾對幾位新“入坑”這款AI的朋友進行了一次調查,詢問他們認為這款AI相比其他競品究竟有何過人之處。結果,最多的回答是:“這款AI比其他AI更有人情味,更像個人。”尤其是文科背景的朋友,對DeepSeek這一特征尤為喜愛。例如,一位在某高校中文系執教的朋友在嘗試DeepSeek后激動不已,甚至連夜寫下千字朋友圈,盛贊其文采與想象力。

那么,為什么DeepSeek會比其他AI更具想象力、更富人情味?從技術角度來看,這種特征很可能源于該模型的一個“缺陷”——更高的“幻覺”。眾所周知,在訓練DeepSeek時,開發人員為了提升訓練效率、節約成本,對模型和訓練方法進行了多項優化。例如,為了提升GPU的利用率,他們將計算精度從通常的32位浮點數降低到16位,甚至8位;為了優化解碼效率,他們引入了多Token預測技術;為了減少數據投入,他們廣泛使用了知識蒸餾技術。這些優化手段雖然提高了訓練效率,但同時也不可避免地降低了模型的精確度,從而導致更高的幻覺率。

這一點并非僅僅是理論推測,人工智能公司Vectara近期的研究已經對此進行了驗證。研究表明,DeepSeek-V3模型的幻覺率約為3.9%,而主打推理的 DeepSeek-R1模型幻覺率高達14.3%。相比之下,OpenAI的GPT-4o的幻覺率僅為1.5%,其推理模型GPT-o1的幻覺率約為2.4%。更高的幻覺率無疑會限制AI在某些對準確度要求較高的任務中的應用。例如,在使用AI整理文獻時,我不得不逐一核對其列出的文獻出處,否則容易出現錯誤引用,從而影響工作效率。但與此同時,在更需要創造力的任務中,幻覺反而能帶來意想不到的驚喜。

從根本上看,生成式AI的文字輸出本質上是基于已有文本預測下一個可能出現的文本。如果一個模型的預測精度足夠高,那么它的輸出往往會十分工整、格式化,而如果允許其預測精度稍有下降,反而可能帶來更多變化和新意。舉個例子,如果我對AI說:“我要買一個512G的蘋果”,精度較高、幻覺較少的AI會準確理解我的意思,并推薦合適的蘋果手機,同時提供一系列購買建議。這樣的回答固然正確,但并不會顯得“有人情味”。然而,如果是幻覺較高的AI,它可能會誤以為我指的是水果,并建議:“現在梨子正當季,不如買點梨子嘗嘗鮮吧。”這樣的回答雖然在技術上是錯誤的,但從人類用戶的角度來看,它更具幽默感,也更像是一個會“插科打諢”的人類對話者。

幻覺的價值遠不止于此。例如,在科學研究領域,如果AI僅僅是基于已有資料,精準地預測相應結果,那么它是不可能真正創造新知識的。相比之下,如果允許AI存在一定的幻覺,它就能跳脫出既有框架,啟發新的發現。許多科學家已經意識到了這一點。例如,2024年諾貝爾化學獎得主大衛·貝克(DavidBaker)博士就指出,AI模型的幻覺現象為科學家提供了新的靈感,幫助他們探索原本可能不會想到的思路。

減少AI的幻覺,技術上是可行的。通過提升訓練數據質量、增加算力投入、采用檢索增強生成(RAG)技術等方式,AI開發者可以有效降低幻覺率。事實上,許多AI開發者已經通過這些手段成功降低了產品的幻覺率。然而,相比于AI而言,人類要減少自身的幻覺卻困難得多。在信息檢索技術高度發達的今天,人類即便為了提升表達的精準度,也可能需要花費大量時間記憶和核對知識,而這些精度的提升在實際應用中往往并不那么重要。既然如此,我們倒不如反其道而行之,在學習中適當舍棄對精確記憶的執著,而將更多空間留給想象力的培養,刻意“為自己培養一些幻覺”。

為了培養“有益的幻覺”,我們可以借助多種輔助手段,例如多看科幻題材的影視劇和文學作品,拓展思維邊界;每天留出一定時間進行冥想,培養發散性思維;刻意跳出既定套路的束縛,嘗試新的思考方式。更重要的是,在學習過程中,我們要勇于突破標準化答案的限制。對于那些有確定性答案的問題,除了學習前人的解決方案,還應該思考是否存在其他可能的解法。而對于那些本就沒有標準答案的問題,不應被流行觀點束縛,而應大膽提出自己的見解。

想象力和創造力的培養,在AI時代比以往任何時候都更加重要。既然AI的幻覺可以幫助科學家獲得新的突破,我們也應當借鑒這種思維方式,在日常學習和思考中留出一定的“想象空間”,讓自己能夠跳脫出固有的思維模式,探索更豐富的可能性。

結語

隨著AI的普及,傳統“螺絲釘”式工作正在減少,學習模式必須隨之調整。未來,人與AI的關系不應是替代,而是協作。掌握AI工具、構建知識框架、培養算法思維,能讓我們在新環境中保持競爭力。而更重要的是,我們要強化想象力和創造力,這是AI難以復制的核心能力。唯有不斷適應變化、突破思維局限,才能在AI時代立足并持續成長。

《比較》研究部主管