當我們談論「AI味」,我們在談論什麼?
前幾天,我在維基百科寫的文字,被某編者質疑是用「AI輔助」完成的。雖然這位「AI偵探」聲稱我用了NotebookLM來分析YouTube影片、然後將Gemini的分析結論複製貼上,他自己卻拿不出相應的理據。甚至,他自己也承認,他自己測試了當下的NotebookLM,還沒有那麼「智能」,未能直接讀取YouTube影片。不過,他仍然不打算back down,言之鑿鑿地說我寫的文字「少了一些細膩」……我想,確實,我並非文組,亦無多少文字功底,寫出來的文字讀起來不順、甚至「有股味」,難道還不是我的問題嗎?實在慚愧!
我必須反思檢討,最近讀的書太少,甚至手機刷的中文帖子也少,已經對中文文法不那麼敏感了,竟也愈發沉湎於歐化中文的範式。曝露出的問題,值得檢討。
……不過,說到底,當我們談論「AI味」,我們在談論什麼?
有的人會拿出「AI檢測工具」,比如GPTZero,提供的「AI率」metric。當然,批改學生作業的教授或許會覺得很實用;但網路上又往往能看到許多false positive的例子。有人拿著《獨立宣言》檢出99%「AI率」,也有教授拿著自己十年前的論文,發現有50%或70%為AI創作。凡此種種,質疑聲不絕於耳,教授們也只好作罷。後來,據說不少大學的寫作課開始讓學生用Google Docs一類協作工具來寫作,這樣能看到文檔從頭構建的編輯歷史,溯源起來一目瞭然。這大抵有助於讓學生自證清白,但是,這能防住心思縝密、對著AI稿逐字抄襲的學生嗎?……無論如何,至少寫作課的教授們是和AI對決上了。道高一尺,魔高一丈,這樣的貓鼠遊戲不會完結。
寫到這裡,我們還沒有提到房間裡的大象⸺既然存在「AI味」這個詞,AI生成內容與「人類」的寫作肯定有什麼不同。
自2022年ChatGPT橫空出世,大語言模型層出不窮,而其中大部分的模型的訓練資料又是由其他模型蒸餾而來(即,使用其他模型的生成結果訓練新模型);AI的語言不斷在這樣的訓練過程中被固化、凝結,成為了一套自成體系的說話方式。
這就是「AI味」的由來。
這樣的說話方式、寫作範式,網路上已有很多總結。其中最著名、在AI圈影響最大的總結文,來自維基百科的〈Signs of AI writing〉(AI生成文的特徵)。這篇文章不但被許多媒體、帖文轉載,也成為了Claude等AI agent學習的對象(多麼諷刺!)。
為了講明白「AI味」,讀者不妨跟著我的個人導讀,看看AI寫作範式究竟有哪些值得留意的位面⸺既有助於識別身邊的AI生成帖文,也有助於減少自己文字中的「AI特徵」,以免未來被他人質疑「少了一些細膩」。(笑)
「AI味」的第一大位面,也是網路上「降AI率」工具最無濟於事的位面,是思維方式。
大語言模型(LLM)的本質上仍然是統計學模型;即使湧現出了不亞於人類的智能,它仍然遵循統計學的規律⸺宏大的詞語在語料庫中的詞頻高,而用於記錄瑣碎細節的詞彙在語料庫中的詞頻低。這就導致AI說話的方式也如習主席、川普總統一般,高屋建瓴、宏大敘事而語焉不詳、細節寥寥。在〈AI生成文的特徵〉中,列出了相當多的英文特徵詞彙,包括:形容詞「vital、significant、crucial、pivotal、key」,名詞「role、moment、testament、reminder、insight」,動詞「highlight、underscore、emphasize、ensure、reflect、symbolize、contribute、mark、shape、represent、encompass、resonate」等等。對於中文來說,大抵也無出其外。
如果換個思考方式,這樣的寫作範式其實反而資訊量寥寥⸺所謂「廢話文學」。思考要深入,寫作亦當如是;AI雖然聰明,但也會在思考和寫作上偷懶。如果想要減少「AI味」,還是偷懶不得的。
同樣,由於LLM訓練時所吸收的資訊總歸有個截止日期,許多AI模型都養成了主動查資料的好習慣,尤其對於那些關乎時效性的話題;但反過來,養成了credibility素養的AI模型,開始把知名度、媒體報導掛在嘴邊,以為只要主動強調知名度就能提高寫作的可信度。這便是「AI味」的第二個位面。
「某某人/某某觀點獲得了A、B、C媒體的報導/支持。」以前,我們說這樣寫作的人犯了「訴諸權威」的錯誤;現在,則是「AI味」。或許這樣的寫作方式並非什麼意外⸺許多人寫作都會「訴諸權威」,又怎麼能說這就是「AI味」呢?但是,你我畢竟並非營銷文小編;邏輯謬誤,還是少用為宜。
說到營銷文,網路上媒體的營銷文鋪天蓋地,這也深刻影響了AI的思考和寫作;再加上OpenAI等公司按捺不住在生成結果上加廣告的衝動,AI生成文難免愈發與營銷文相向而行。不過這點也跟提示詞有關;加入了良好的提示詞後,大多數較新的模型都能按照指定的文風寫作,因此此點只對小模型/舊模型適用。
不過,即使是相當高級的solution,也難以完全掌握學術寫作⸺相比於LLM龐大的訓練資料集,學術文章佔比實在過於渺小;當然,也沒有哪個模型有性質把論文寫作當作主動訓練的對象⸺畢竟這就相當於「主動支援學術不端」,不是嗎?因此,對於學術寫作,以及長期效仿學術標準的維基百科的寫作,LLM寫出來的東西仍然大抵是難以成立的。至於什麼時候AI可以獨立做出真正符合學術標準的科研成果,依個人之見,或許不在LLM的未來;至少,應是一個專為邏輯推理而設計的新模型。
說到底,當下的LLM還未能走出「AI泔水」的囹圄,因此,所謂的「AI生成文」仍然無法達到直接發表的標準。即使在「AI網劇」氾濫的當下,這些網劇無論劇情還是選角,仍然沒有脫離人類的控制,AI劇情仍然有「大綱」,AI演員仍然存在「中之人」。⸺這不就是「AI味」的內涵?沒有人類參與、審校,任憑似有還無的邏輯驅使,放飛天馬行空的幻想,這些「AI泔水」,換個角度來看,正是獨屬於AI的浪漫。
……當我們談論「AI味」,我們在談論什麼?
我想,我們在談論的,大概就是目前尚且獨屬於人類的「超長上下文」推理能力吧。
用力思考,用心寫作。