維基百科的編輯者已經採取措施限制人工智慧在平台上的使用,最近更新的政策禁止使用大型語言模型來撰寫或重寫文章。 新指導方針反映出維基百科社群日益關注AI生成文本可能與平台標準相牴觸,尤其是在可驗證性和可靠來源方面。 “由大型語言模型生成的文本常常違反維基百科的多項核心內容政策,”政策更新指出。“因此,除非符合以下例外情況,否則禁止使用LLMs來產生或重寫文章內容。”
政策仍允許有限度使用AI工具,包括建議對自己撰寫內容進行基本校對,只要系統不引入新資訊。然而,建議編輯者仔細審查這些建議。 雖然新政策未提及使用AI生成內容的懲罰,但根據維基百科的披露指南,重複濫用會形成“破壞性編輯的模式”,可能導致封鎖或禁止。維基百科確實提供編輯者申訴後恢復帳號的途徑。 “封鎖可以在封鎖管理員同意下被解除,若封鎖明顯不合理,其他管理員也可以覆核,或在極少數情況下,經仲裁委員會上訴,”維基百科表示。
根據華盛頓大學語言學教授Emily M. Bender的說法,某些在編輯工具中使用語言模型的用途可能是合理的,但在界定編輯與生成文本之間的界線方面可能較為困難。 “例如,你可以用語言模型來建立一個非常好的拼寫檢查器,”Bender告訴_decrypt_。“我認為在對內容進行拼寫檢查時,這是合理的。如果你進一步使用語法檢查器,也可以說是合理的。” Bender指出,當系統超越修正語法,開始改變或生成內容時,挑戰就來了,因為大型語言模型缺乏人類貢獻者在合作知識項目中所帶來的責任感。 “使用大型語言模型來產生合成文本,這些系統的根本特性是沒有責任感,沒有與個人信念或立場的連結,”她說。“我們說話是基於我們的信念和責任,而不是基於某種客觀的真理觀。而大型語言模型並不存在這一點。” Bender表示,廣泛使用AI生成的編輯也可能影響網站的聲譽。 “如果人們只是走捷徑,製作看起來像維基百科編輯或文章的內容,並放在那裡,這會降低整個網站的價值和聲譽,”她說。 研究維基百科文化與治理的東北大學傳播學副教授Joseph Reagle表示,社群的反應反映出對於準確性和來源的長期關注。 “維基百科對AI生成的散文持謹慎態度,”Reagle告訴_decrypt_。“他們非常重視可靠來源對某一主題的準確描述。AI在這方面有嚴重的限制,例如‘幻覺’式的說法和捏造的來源。”
Reagle指出,維基百科的核心政策也影響編輯者對AI工具的看法,許多大型語言模型都是在維基百科內容上訓練出來的。十月,維基媒體基金會表示,隨著搜尋引擎和聊天機器人越來越直接在平台上提供答案,而非引導用戶到網站,維基百科的人工訪問量同比下降約8%。 一月,維基媒體基金會宣布與微軟、谷歌、亞馬遜和Meta等AI公司達成協議,允許它們通過其企業產品使用維基百科內容,這是一項為大規模重用其內容而設的商業服務。 “雖然維基百科的許可證允許使用其內容,但仍有部分維基人對於那些盜用社群內容並對社群提出不必要要求的服務抱有反感,這些要求往往伴隨著大量AI生成的內容,”Reagle說。 儘管禁止使用LLMs,維基百科仍允許AI工具將其他語言版本的文章翻譯成英文,前提是編輯者驗證原始文本。政策也提醒編輯者不要僅依靠寫作風格來辨識AI生成內容,而應專注於內容是否符合維基百科的核心政策以及貢獻者的編輯歷史。 “有些編輯者的寫作風格可能與LLMs相似,”更新內容指出。“除了風格或語言特徵之外,還需要更多證據來證明制裁的合理性,並且最好考慮文本是否符合核心內容政策以及該編輯者的近期編輯情況。”