人工智能(AI)已全面滲透到科研活動的各個環(huán)節(jié)。在提升效率的同時,AI也催生了代寫論文、偽造數(shù)據(jù)乃至隱性的“思想抄襲”等新型學(xué)術(shù)不端行為,其手法日益隱蔽,給學(xué)術(shù)誠信帶來全新挑戰(zhàn)??萍计诳瘧?yīng)該如何甄別、應(yīng)對和防范?近日,科技日報記者與《柳葉刀》副主編薩賓娜·克萊納特(Sabine Kleinert)就此進(jìn)行了對話。
記者:對于AI引發(fā)的新型科研不端問題,如同行評審、數(shù)據(jù)核查等傳統(tǒng)的科研誠信評估方法,可能面臨失效的風(fēng)險。科技期刊該如何發(fā)揮“守門人”的作用?
薩賓娜:我認(rèn)為,科研過程中生成式AI的使用程度正與日俱增。目前,我們主要靠作者的“自我聲明”?!读~刀》系列期刊的投稿頁面新設(shè)了一個復(fù)選框,詢問作者是否在其研究成果的任何部分中使用了生成式AI。如果作者選擇了“是”,我們會要求他們詳細(xì)說明具體使用的大語言模型的名稱、版本、確切提示詞、使用目的以及在文章手稿中的位置,并會將這些信息與論文一同發(fā)表。文章手稿的致謝部分也要披露這部分信息。
為確保對編輯、審稿人和讀者的透明度,作者必須恰當(dāng)聲明生成式AI的使用情況,并對其作品的原創(chuàng)性、準(zhǔn)確性和完整性負(fù)最終責(zé)任,否則編輯可能因其不當(dāng)使用AI而拒稿。
記者:這個方法效果怎樣?
薩賓娜:這是一個很大的問題?;仡欉^去,我們發(fā)現(xiàn)只有7%的作者表示,在其投稿的研究中使用過生成式AI。這與一些關(guān)于生成式AI使用的調(diào)查結(jié)果大相徑庭——調(diào)查中超過50%的用戶表示有使用生成式AI。顯然,我們確實(shí)發(fā)現(xiàn)很多作者沒有準(zhǔn)確披露他們使用了生成式AI。
最近,我們注意到一些未聲明的人工智能生成內(nèi)容(AIGC)不恰當(dāng)使用的明顯跡象,主要表現(xiàn)為“幻覺式引用”。我們的編輯會檢查參考文獻(xiàn),發(fā)現(xiàn)一些沒有被標(biāo)記的引用,比如有DOI(數(shù)字對象唯一標(biāo)識符,相當(dāng)于數(shù)字資源的“身份證”)卻無法檢索到對應(yīng)的引用。編輯主動核實(shí)這些引用是否真實(shí)存在后發(fā)現(xiàn),一些論文中有多達(dá)10至15個不存在的引用。
記者:發(fā)現(xiàn)“幻覺式引用”,會如何處理?
薩賓娜:如果一篇論文中大部分內(nèi)容不當(dāng)使用了AI也未予以聲明時,我們即使接收最后也會拒稿。我們會告知作者,這樣的做法是不恰當(dāng)?shù)?。如果這種情況非常普遍,我們可能會與作者所在機(jī)構(gòu)溝通,說明他們需要接受關(guān)于生成式AI合理使用的教育。
記者:因?yàn)檫@種情況拒稿的論文比例是多少?
薩賓娜:很少。過去一個月只發(fā)生幾次。這實(shí)際上是一個非常新的現(xiàn)象,我不知道未來還會看到多少類似的情況。
此外,還有一類情況。我們會拒收沒有任何實(shí)質(zhì)內(nèi)容的通訊投稿。每天我們都能看到約5篇明顯由生成式AI寫的這類稿件,內(nèi)容非常套路、毫無新意,完全沒有實(shí)質(zhì)性科學(xué)發(fā)現(xiàn)。
記者:在科研論文撰寫、審稿和出版過程中,哪些情況是不允許使用AI的?
薩賓娜:《柳葉刀》系列期刊不支持使用AI輔助技術(shù)替代研究人員的工作,如提出科學(xué)見解、分析和解釋數(shù)據(jù)、得出科學(xué)結(jié)論或提出建議。
目前,我們不允許在同行評審過程中使用生成式AI。因?yàn)閷徃迦丝赡軙⑽窗l(fā)表的論文輸入到公共系統(tǒng)中,這會破壞保密性。同樣,在對論文進(jìn)行批判性評價時,甚至評論作者在撰寫研究的相關(guān)評論時,也不能使用生成式AI。在利用生成式Al創(chuàng)建圖形或插圖時,應(yīng)主要用作頭腦風(fēng)暴和提出圖像概念的工具。
記者:什么情況下可以使用生成式AI?
薩賓娜:為提高論文的可讀性,我們支持作者在寫作過程中使用生成式AI改善語法和語言表達(dá),查閱已有的研究成果或?qū)ζ溥M(jìn)行總結(jié),這些都是合理的用途。
我理解一些研究者存有顧慮,可能他們認(rèn)為聲明使用AI會影響他們的論文,但事實(shí)并非如此。我們只希望在提交的研究論文中,誠實(shí)、公開地聲明是否使用了AI。最終,還是要由人類進(jìn)行監(jiān)督、負(fù)責(zé)和承擔(dān)責(zé)任。
記者:科技期刊如何應(yīng)對生成式AI可能帶來的科研誠信危機(jī)?
薩賓娜:我認(rèn)為在這個領(lǐng)域進(jìn)行監(jiān)管非常困難,因?yàn)锳I技術(shù)已經(jīng)普及,大家都在使用。最好的辦法是明確指出哪些情況是不適當(dāng)?shù)?,然后在其他方面保持誠實(shí)和透明,最終由使用者承擔(dān)全部責(zé)任。
《柳葉刀》編輯部內(nèi)部成立了一個研究誠信工作組,主要關(guān)注兩件事:一是緊跟最新政策,團(tuán)隊已經(jīng)制定了《柳葉刀》系列期刊關(guān)于生成式AI的內(nèi)部政策;二是監(jiān)控任何正在進(jìn)行的比較難處理的案例,并觀察采取的適當(dāng)措施。同時,我們也會關(guān)注外部指南的變化。比如最近,國際出版?zhèn)惱砦瘑T會更新了他們的撤稿指南。我們會關(guān)注這些內(nèi)容,并將其納入《柳葉刀》的內(nèi)部流程,依據(jù)最新的指南來指導(dǎo)我們的決策。
《柳葉刀》編輯部正在籌備成立科研誠信委員會,但目前還處于起步階段,計劃在明年二月召開啟動會。生成式AI及其對科研誠信的影響,將會是委員會關(guān)注的重要內(nèi)容之一。
記者:科研人員和編輯在使用生成式AI時,應(yīng)該考慮哪些原則?
薩賓娜:人們應(yīng)當(dāng)將AI更多地視為一種輔助工具。我一直覺得AI這個概念中的“智能”意味著洞察力、洞見,而AI并沒有真正具備這些能力。
研究人員、編輯和出版機(jī)構(gòu)在了解如何最優(yōu)使用生成式AI時,必須謹(jǐn)慎處理一些注意事項(xiàng)和陷阱?;糜X、偏見、種族主義、模型崩潰,以及違反科研誠信的行為都有可能損害公眾對科學(xué)的信任。目前,生成式AI模型產(chǎn)生的內(nèi)容往往在表面上聽起來合理,但實(shí)際上卻缺乏洞察力、新穎性和實(shí)際意義。生成式AI使下一代研究人員面臨著巨大的去技能化風(fēng)險。