您當前的位置 :頭條 >
新動態:審稿人或難識別AI撰寫的論文摘要
2023-01-17 16:51:54   來源:科技日報  分享 分享到搜狐微博 分享到網易微博


(相關資料圖)

應警惕人工智能論文對科研完整性和準確性的破壞

審稿人或難識別AI撰寫的論文摘要

科技日報北京1月16日電 據近日發表在預印本服務器bioRxiv上的一項研究,人工智能(AI)聊天機器人ChatGPT已可寫出令人信服的假研究論文摘要,甚至連審稿科學家也無法發現。

聊天機器人ChatGPT會根據用戶提示創建逼真文本,它通過消化大量現有的人類生成文本來學習執行任務。美國的軟件公司OpenAI于去年11月發布了該工具,并供用戶免費使用。

自發布以來,研究人員一直在努力解決相關倫理道德問題,因為它大部分輸出可能很難與人類撰寫的文本區分開來。近日美國西北大學的一個研究小組使用ChatGPT生成人工研究論文摘要,以測試科學家是否可辨別它們。

研究人員要求機器人基于發表在《美國醫學會雜志》《新英格蘭醫學雜志》《英國醫學雜志》《柳葉刀》和《自然·醫學》上的50篇研究編寫摘要。然后,他們通過抄襲檢測器和AI輸出檢測器將這些摘要與原始摘要進行比較,并要求一組醫學研究人員找出編造的摘要。

結果,ChatGPT生成的摘要通過了抄襲檢查器,原創性得分中位數為100%,表明沒有檢測到抄襲。人工智能輸出檢測器發現了66%的生成摘要,但人工審稿人只正確識別了68%的生成摘要和86%的真實摘要,他們錯誤地將生成摘要中的32%識別為真實,將14%的真實摘要識別為編造。

研究人員稱,ChatGPT寫出了能騙過人類的科學摘要,如果科學家無法確定研究是否屬實,或會產生“可怕的后果”。

研究人員表示,在虛假信息會危及人們生命安全的醫學等領域,期刊需要采取更嚴格的方法來驗證信息的準確性。而這些問題的解決方案,不應集中在機器人本身,“而是導致這種行為的不正當激勵措施,例如通過論文數量進行招聘和晉升審查,而不考慮其質量或影響”。

(記者張夢然)

關鍵詞: ChatGPT


[責任編輯:ruirui]





關于我們| 客服中心| 廣告服務| 建站服務| 聯系我們
 

中國焦點日報網 版權所有 滬ICP備2022005074號-20,未經授權,請勿轉載或建立鏡像,違者依法必究。