針對用ChatGPT寫論文所產生的便捷與風險並存情況,專家表示——
須對AI技術進行制度規范和約束
以ChatGPT為代表的生成式人工智能技術,依靠其強大的文本生成能力,早已經無可避免地滲入到了寫作領域。當人們還在驚嘆於AI文章的流暢結構、精准表達之時,有一部分人已熟練地把ChatGPT當作撰寫學術論文的工具。
日前,江蘇省科技廳監督評估處處長顧俊在做客江蘇廣電總台新聞頻道《政風熱線》時回應稱,將組織開展科技人員公開發表論文的自查和抽查,並開展科技倫理審查,引導科技人員提高誠信意識。
那麼,ChatGPT等生成式人工智能技術究竟能否用於學術論文寫作?如何防范AI技術濫用帶來的學術不端現象?科技日報記者採訪了相關主管部門工作人員和業內學者。
產生的學術不端風險不容忽視
不能否認,ChatGPT能生成連貫的、有邏輯性的文章,並給人們的工作和生活帶來了便利。但是,由此產生的學術不端風險不容忽視。國外已有研究人員發現,ChatGPT所給的回答都是基於它模型訓練的海量數據,有時可能會限制人們的思維,甚至有些回答並不准確,比如隻選擇有利於自己觀點的數據進行佐証,忽視其他數據。
12月1日,《科技倫理審查辦法(試行)》正式實施,記者查詢后並未在其中找到與生成式人工智能技術相關的條款。目前,國內相關部門和科研組織對ChatGPT寫論文的規定還未明確細化,但是不論以何種方式,隻要出現抄襲、剽竊、造假等學術不端行為,都是嚴查重罰的對象。
11月24日,國家自然科學基金委員會公布了2023年第二批不端行為案件的調查處理結果,數量最多的不端行為是抄襲、剽竊、偽造各種信息,總數達15人,佔比62.5%。記者了解到,國內已有省份對科研論文進行有針對性的抽查,重點檢查抄襲、造假和重復發表等學術不端現象,雖然沒有專門針對ChatGPT,但是這些問題都有可能與之相關。
江蘇省科技廳監督評估處相關負責人說,將進一步加強科技倫理審查。同時,要求各單位對所發表的學術論文進行學術不端問題自查和清理,科技部門不定期組織開展主動抽查工作,不斷更新學術不端治理程序和標准。
該負責人表示,防范AI技術濫用帶來的學術不端,將是科技管理部門今后重點監管內容之一。目前,國內已有科研單位在開發相應軟件,用於AI寫論文的查重工作,今后想利用ChatGPT寫論文獲得榮譽獎勵和科研項目將越來越難。
如何面對避無可避的AI技術
南京理工大學教授李千目,長期從事人工智能系統安全、大數據挖掘研究。在他看來,當人們在談論AI技術所產生的負面影響時,更應當看到它們所帶來的便捷與進步。
“AI技術是科研輔助工具之一,它讓我們對某個問題調研更便捷、分析更明確、研判更精細,資料收集和信息反饋更全面和完整,如果我們合理地運用這個工具,對科研成果(包括但不限於論文)的整體提升會有較大作用。”李千目解釋說。
那麼,在實踐中AI技術到底該如何更好地為科研工作服務,而不是成為抄襲造假的工具?
李千目表示,首先要有制度規范,並約束AI技術的使用,比如12月1日起實施的《科技倫理審查辦法(試行)》,它規定了科技工作者及其共同體應恪守的價值觀念、社會責任和行為規范。希望對這些制度、標准進行廣泛地宣貫,讓更多的科研人員去了解、遵循。
其次是提升社會各界對AI技術的認知。李千目認為,在人類社會和科學發展每個階段,抄襲幾乎無法完全避免,利用AI技術進行抄襲、剽竊並謀取某些利益,必須嚴厲打擊。但是,提升人們對AI技術的認知並推廣使用,有助於推動社會進步和技術發展。
“比如利用AI廣泛地採集信息,讓我們的論點和思路更加可行、更加有效,這件事情本身不是壞事。”李千目說,面對海量數據,他們很難全面有效地收集所需信息,而AI工具可以更高效地完成這項工作。
但出於各種原因,很多將AI用於科研論文的作者並不樂於披露這個事實。“我堅持認為,在論文寫作和數據收集中使用到AI技術,必須在參考文獻裡進行標注。”李千目說。
不難看出,AI在當下科研工作中已扮演重要角色。更重要的是,人們似乎也別無選擇——面對AI,不必回避,也避無可避。
目前,國外已有高校宣布解除ChatGPT使用禁令,並推出了詳細的使用原則。因此,多位科研工作者向記者表示,對AI技術在科研工作中的使用不應一刀切地反對,也不能對AI帶來的學術不端行為放任不管。
分享讓更多人看到
- 評論
- 關注