吳晨/文 復旦大學近日發布的《復旦大學關于在本科畢業論文(設計)中使用AI工具的規定(試行)》(以下簡稱《規范》),被認為是國內的首個“AI禁令”。它試圖為學術研究如何運用AI做出規范。這一規范整體立意很好,因為我們不希望AI成為學術偷懶者的工具,甚至有人利用AI進行學術造假。但是,《規范》中的一些“禁令”條款有值得商榷之處,體現了制定者對AI給學術研究帶來的日益深入的改變仍然缺乏足夠的思考。
在學術研究中應當如何對使用AI做出恰當的規范?在討論這個問題之前,首先,我們需要給AI工具一個明確的定位,AI是比我們之前用過的所有工具都強大得多的工具,能幫助我們處理大量的數據,在模擬實驗和營造真實世界的數字孿生上也大有用武之地。利用AI做一系列的文字工作——從文獻檢索到文本摘要,再到多語言翻譯,AI的能力已經媲美甚至超越普通人。但AI并不具備超越人類研究者的能力,對具體學科也是知其然而不知其所以然,它在科研中能發揮多大功效,很大程度取決于怎么使用它。因此,在學術應用中我們首要原則應該是鼓勵大家多用AI,但需要將這種使用全部披露出來。
其次,我們需要明確AI在科研使用中的基本原則:即發起研究的是人,最終做出結論的也是人,AI可以在具體研究環節中扮演重要角色,但不能替代人的思考。《規定》禁止在研究方案設計等關鍵環節使用AI,即是對這一原則的響應。AI并不懂得我們研究的想法和方向,也不可能替我們想出研究方向,提出研究問題。提問的能力仍然是人類大大超越AI的地方。如果想讓AI 替我們設計研究方案、搭建算法框架,那一定是在偷懶且不可能取得像樣的成績。
第三,我們要杜絕利用AI做學術造假。學術造假是一個頑疾。過去一段時間,在全球范圍內都出現了學術造假的問題,比如,一些研究無法被復制,或者有選擇性地挑選研究結果以支撐此前提出的假設。AI可能會加劇這一現象。所以《規定》強調禁止利用AI生成或改動原始數據等,非常及時和必要。
但是,既然鼓勵使用AI是首要原則,那么我們在進行規范時就需要持開放的心態。《規定》中有三項禁令值得商榷。這三項禁止分別是:禁止直接使用AI工具生成正文文本、致謝或其他組成部分;禁止進行語言潤色和翻譯;禁止答辯委員和評審專家使用AI工具進行評審。
直接使用AI工具生成正文文本應當被明令禁止,因為這違背了“人+機器”協作時人是最終決策者的原則。但致謝或者索引/注釋部分利用AI來整理形成,如果能節約時間且效率更高,我們應該對此持開放的態度。即使是文學作品或翻譯作品,未來也一定會大量使用AI, 一篇文章或文獻經由AI初步翻譯后再由人來精校并非不可,未來或許會成為翻譯的常態。所以,規范的要點應當是使用AI的度,而不是“一刀切”地禁止借助AI進行語言潤色或翻譯。
最后,禁止在評審中使用AI也不夠開放。AI的總結和摘要能力很強,經過訓練的AI還可能在有經驗的評審者的調教下,篩選總結出更為重要的信息。面對眾多論文,指望評審每篇文章都詳細審閱不切實際,如果AI使用得當,能夠幫助評審在節約時間的前提下更好把握每篇論文的特點,其實值得鼓勵。
AI是一把雙刃劍。在樹立規范時,一方面要明確禁區,杜絕學術偷懶和學術造假;另一方面,同樣重要的是引導和鼓勵AI的有效使用,讓AI成為研究和論文寫作中真正能幫上大忙、節約時間的助手。在已知的一些科研應用中,AI已經發揮了重要的作用。比如利用AI閱讀海量醫療文獻,篩選更有價值的制藥方向;或者利用AI創造更逼真的模擬環境,進行初步的實驗等。AI在學術研究中到底該如何使用?在使用過程中會遇到哪些問題?應當鼓勵更多的披露、分享和探討,這樣才能推動AI更廣泛和健康地應用。
(作者為財經作家、晨讀書局創始人)