生成式人工智能(AI)工具快速遍及,在學術寫作領域展示爆炸式應用勢頭。採用基于大語言模子(LLM)的生成式AI工具能節儉時間,減少語言障礙,讓論文加運彩版 ptt倍明了暢通。但這些工具的應用也讓剽竊疑問變得更復雜。
英國《天然》網站在近日的報道中指出,對利用AI寫作是否構成剽竊,以及在什麼場合下許可利用AI進行寫作,科研界應充分探討并規定更明確的學術寫作AI採用指南。
AI學術寫作應用增多
德國蒂賓根大學數據科學家德米特里科巴克領導的團隊,解析了學術數據庫PubMed中2024年至2024年6月時期發布的1400萬篇論文摘要。他們估算,2024年上半年,至少有10%的生物醫學論文摘要(約75萬篇)採用了LLM進行寫作,以LLM為根基的寫作助理的出現,對學術界產生了前所未有的陰礙。
同時,有些人以為,AI工具是學術寫作的好幫手。它們可使文本和概念更明晰,減少語言障礙,使科學家能騰出更多時間進行實驗和思索。
剽竊行為很難揪出
2024年的一項研究估算,17%的科學家承認有剽竊行為,30%的科學家熟悉有剽竊行為的同事。
LLM途經培訓,可通過消化大批以前發布的文章來生成文本。因此,採用它們可能會導致雷同剽竊的場合。例如,研究人員將AI生成的論文假冒自己撰寫的論文;或者機械生成的論文與某人的論文極度相近,但沒有注明來歷等等。英國普利茅斯大學生態學家皮特科頓指出,在AI時代,定義學術不誠信或剽竊,以及合乎邏輯採用AI的界線,將變得極度難題。
假如LLM稍微改動一下措辭,那麼其剽竊人類撰寫文本內容的場合很容易被掩蓋。由於人們可給出提示,讓這些AI工具以復雜的方式(如以某個學術期刊的風格)撰寫論文。在2024年對1600名研究人員開展的一項查訪中,68%的受訪者表示,AI將使剽竊更難被發明。
另有一個要點疑問是,採用完全由機械而非人類編寫的未署名內容是否算剽竊。德國柏林應用科學大學專家黛博拉韋伯沃爾夫表示,盡管有的生成式AI生成的文本看起來與人類書寫的內容相差無幾,但不能被視為剽竊。
採用界限急需規定
美國馬里蘭大學可信人工智能實驗室主任索海爾菲茲副教授以為,採用LLM改寫現有論文的內容顯然構成抄襲。但採用LLM來協助表白方法,無論是依據詳細的提示生成文本,還是編制草稿,假如透徹地完工,都不應該遭受懲罰。科學界應該許可研究人員利用LLM,來輕松、明晰地表白他們的方法。
很多期刊目前都規定了相關政策,許可投稿者在一定水平上採用LLM。《科學》雜志于2024年11月更新了其政策,稱作者應該全部披露其在撰寫論文過程中的AI專業採用場合,包含有採用了哪些AI系統,提示詞有哪些等。《天然》雜志也表示,作者應該紀實LLM的採用場合。
一項對100家大型學術出版商和100家排名靠前的期刊開展的解析發明,截至2024年10月,24%的出版商和87%的期刊都規定了採用生成式AI的傳授方針。幾乎所有這些期刊都宣示,AI工具不能被列為作者。
沃爾夫強調,科學家急迫需要更明確的學術寫作AI採用指南。
檢測工具亟待提拔
在一部門科學家利用LLM撰寫學術論文的同時,也有另一部門科學家正在開闢旨在檢測LLM採用場合的工具。盡管一些工具的精確率較高,在某些場合下過份90%,但研究表明,大多數工具名不副實。在上年12月發布的一項研究中,沃爾夫及其同事評估了學術界廣泛採用的14種AI檢測工具。結局顯示,只有5款工具的精確率高于70%,沒有一款工具的得分過份80%。
當研究團隊通過替換同義詞及重排句子次序,對AI生成的文本進行微調后,檢測工具的精確率下降到平均不足50%。假如研究人員讓AI多次改寫由人類撰寫的文本,檢測工具的精確率也會大大減低。
AI檢測工具還面對其他疑問,比如非英語母語者用英語寫作,更有可能被誤以為由AI生成。菲茲指出,AI檢測工具無法可信地域分完全由AI編寫的文本和作者採用AI潤色文本的場合。被過錯地指控濫用AI,可能會對這些學者或學生的信譽造成相當大的妨害。
生成式人工智能(AI)工具快速遍及,在學術寫作領域展示爆炸式應用勢頭。採用基于大語言運彩 世足 怎麼玩模子(LLM)的生成式AI工具能節儉時間,減少語言障礙,讓論文加倍明了暢通。但這些工具的應用也讓剽竊疑問變得更復雜。
英國《天然》網站在近日的報道中指出,對利用AI寫作是否構成剽竊,以及在什麼場合下許可利用AI進行寫作,科研界應充分探討并規定更明確的學術寫作AI採用指南。
AI學術寫作應用增多
德國蒂賓根大學數據科學家德米特里科巴克領導的團隊,解析了學術數據庫PubMed中2024年至2024年6月時期發布的1400萬篇論文摘要。他足球玩運彩們估算,2024年上半年,至少有10%的生物醫學論文摘要(約75萬篇)採用了LLM進行寫作,以LLM為根基的寫作助理的出現,對學術界產生了前所未有的陰礙。
同時,有些人以為,AI工具是學術寫作的好幫手。它們可使文本和概念更明晰,減少語言障礙,使科學家能騰出更多時間進行實驗和思索。
剽竊行為很難揪出
2024年的一項研究估算,17%的科學家承認有剽竊行為,30%的科學家熟悉有剽竊行為的同事。
LLM途經培訓,可通過消化大批以前發布的文章來生成文本。因此,採用它們可能會導致雷同剽竊的場合。例如,研究人員將AI生成的論文假冒自己撰寫的論文;或者機械生成的論文與某人的論文極度相近,但沒有注明來歷等等。英國普利茅斯大學生態學家皮特科頓指出,在AI時代,定義學術不誠信或剽竊,以及合乎邏輯採用AI的界線,將變得極度難題。
假如LLM稍微改動一下措辭,那麼其剽竊人類撰寫文本內容的場合很容易被掩蓋。由於人們可給出提示,讓這些AI工具以復雜的方式(如以某個學術期刊的風格)撰寫論文。在2024年對1600名研究人員開展的一項查訪中,68%的受訪者表示,AI將使剽竊更難被發明。
另有一個要點疑問是,採用完全由機械而非人類編寫的未署名內容是否算剽竊。德國柏林應用科學大學專家黛博拉韋伯沃爾夫表示,盡管有的生成式AI生成的文本看起來與人類書寫的內容相差無幾,但不能被視為剽竊。
採用界限急需規定
美國馬里蘭大學可信人工智能實驗室主任索海爾菲茲副教授以為,採用LLM改寫現有論文的內玩運彩賽事表場中容顯然構成抄襲。但採用LLM來協助表白方法,無論是依據詳細的提示生成文本,還是編制草稿,假如透徹地完工,都不應該遭受懲罰。科學界應該許可研究人員利用LLM,來輕松、明晰地表白他們的方法。
很多期刊目前都規定了相關政策,許可投稿者在一定水平上採用LLM。《科學》雜志于2024年11月更新了其政策,稱作者應該全部披露其在撰寫論文過程中的AI專業採用場合,包含有採用了哪些AI系統,提示詞有哪些等。《天然》雜志也表示,作者應該紀實LLM的採用場合。
一項對100家大型學術出版商和100家排名靠前的期刊開展的解析發明,截至2024年10月,24%的出版商和87%的期刊都規定了採用生成式AI的傳授方針。幾乎所有這些期刊都宣示,AI工具不能被列為作者。
沃爾夫強調,科學家急迫需要更明確的學術寫作AI採用指南。
檢測工具亟待提拔
在一部門科學家利用LLM撰寫學術論文的同時,也有另一部門運彩 不讓分 單場科學家正在開闢旨在檢測LLM採用場合的工具。盡管一些工具的精確率較高,在某些場合下過份90%,但研究表明,大多數工具名不副實。在上年12月發布的一項研究中,沃爾夫及其同事評估了學術界廣泛採用的14種AI檢測工具。結局顯示,只有5款工具的精確率高于70%,沒有一款工具的得分過份80%。
當研究團隊通過替換同義詞及重排句子次序,對AI生成的文本進行微調后,檢測工具的精確率下降到平均不足50%。假如研究人員讓AI多次改寫由人類撰寫的文本,檢測工具的精確率也會大大減低。
AI檢測工具還面對其他疑問,比如非英語母語者用英語寫作,更有可能被誤以為由AI生成。菲茲指出,AI檢測工具無法可信地域分完全由AI編寫的文本和作者採用AI潤色文本的場合。被過錯地指控濫用AI,可能會對這些學者或學生的信譽造成相當大的妨害。