Gate 广場「創作者認證激勵計畫」優質創作者持續招募中!
立即加入,發布優質內容,參與活動即可瓜分月度 $10,000+ 創作獎勵!
認證申請步驟:
1️⃣ 打開 App 首頁底部【廣場】 → 點擊右上角頭像進入個人首頁
2️⃣ 點擊頭像右下角【申請認證】,提交申請等待審核
立即報名:https://www.gate.com/questionnaire/7159
豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000 的豐厚獎勵等你拿!
活動詳情:https://www.gate.com/announcements/article/47889
AI 在創意產業中的應用:濫用、爭議與以使用為導向的監管推動
簡要摘要
AI濫用引發高調爭議,促使全球監管機構推動以使用為中心的透明度、同意與問責措施,然而關於現行框架是否能跟上快速演變的技術,仍在激烈辯論中。
AI正迅速重塑創作實踐,但其濫用也在同樣快速地擴散。未公開的AI協助寫作、聲音與肖像克隆,以及AI生成圖像在被發表甚至獲獎後層出不窮,引發高調爭議並侵蝕文化機構的信任。
監管機構與平台正忙於應對,採取披露要求、內容標籤建議、來源與水印標準,以及有針對性的執法措施。然而,現行框架仍然零散、緩慢且常不清楚。立法者如何在不扼殺創新之餘,保護創作者與消費者?現有規則是否能跟上快速變化的AI領域?這些問題正是當今科技與創意界最緊迫的辯論核心。
過去幾年最引人注目的AI爭議之一是理·屈丹的《同情塔東京》,該作品獲得2024年芥川賞。作者透露約5%的小說內容——主要是故事中聊天機器人的回應——是使用ChatGPT生成的。此揭露點燃了關於文學中的著作權與透明度的討論。批評者意見分歧:有人讚揚此作為利用AI探索語言與科技的創新之作,也有人認為這挑戰了傳統的原創作者身份與文學完整性。主要媒體報導強調書中的主題——正義、同理心與AI的社會影響——以及將生成模型納入獲獎作品所引發的程序性問題,促使呼籲制定更明確的披露標準與重新審視獎項評選標準。此案已成為更廣泛關於創作自主權、版權與AI在藝術中倫理界限的討論的焦點,對出版社、獎項委員會與作者規範產生深遠影響。
另一個高調事件是莉娜·麥克唐納的《Darkhollow Academy: Year Two》,讀者在第三章發現一個AI提示與編輯註記的意外揭露,顯示作者曾用AI工具模仿另一位作家的風格,立即引發反彈與媒體廣泛報導。此事件凸顯現行出版流程的限制與對AI協助寫作明確規範的需求,也激化了對透明度的呼聲,促使討論編輯監督與品質控制,並在商業小說中引發關於歸屬、風格模仿與智慧財產權風險的更廣泛辯論。
在視覺藝術方面,德國攝影師鮑里斯·埃爾達格森近日引發爭議,他提交給索尼世界攝影大獎的作品被揭露完全由AI生成。該作品最初獲得創意公開類別,激起對AI生成內容與傳統攝影界線的討論。最終,攝影師拒絕領獎,而批評者與業界人士則質疑比賽應如何對待AI協助或AI生成的作品。
監管者應對AI危害:歐盟、美国、英國與意大利推出風險導向框架
AI濫用造成的危害問題——包括創作者將AI生成作品冒充人類創作的案例——已成為迫切議題,新的監管框架也開始著手解決。
歐盟的《AI法》建立了風險導向的法律框架,於2024年生效,分階段規定義務直至2026–2027年。該法要求在特定情境下對生成系統進行透明披露,包括標示AI生成內容、對高風險應用進行風險評估與治理,並授權歐盟AI辦公室與國家監管機構執行合規。這些規定直接針對未披露的AI生成媒體與不透明的模型訓練等挑戰。
各國立法者也在某些領域迅速行動。例如,意大利在2025年推動一部全面的國家AI法,對深偽犯罪等有害用途加重罰則,並規定透明度與人類監督要求,展現地方立法如何補充歐盟層級的規範。歐盟委員會同時在制定非約束性工具與產業行為準則,特別是針對通用AI,但推行過程遭遇延遲與產業阻力,反映出為快速演變的技術制定及時、實用規則的困難。
英國則採取“促進創新”的監管策略,結合政府白皮書、如Ofcom與ICO等監管機構的行業指導,以及強調安全、透明、公平與問責的原則性監督。與其制定類似歐盟的單一規範不同,英國更著重於提供指導並逐步建立監管能力。
在美國,政策制定者採用部門導向、由機構主導的策略,基於2023年10月發布的行政命令14110,協調聯邦在安全、可靠與可信AI方面的行動。此策略強調風險管理、安全測試與有針對性的規則制定,並由美國AI行動計劃等跨部門文件提供指導、標準制定與採購規範,而非單一全面法規。
馬丁·卡薩多倡議以使用為中心的AI監管,保護創作者免於扼殺創新
對創作者與平台而言,實務上的意涵十分明確。監管者正推動更強的披露要求,包括明確標示AI生成內容、聲音與肖像克隆的同意規則、生成媒體的來源與水印標準,以及更嚴格的版權與衍生用途規範。這些措施旨在防止冒充、保護表演者與作者,並提升平台對潛在誤導內容的問責——本質上是實施由Andreessen Horowitz的合夥人馬丁·卡薩多在a16z播客中建議的“以使用為中心”的監管策略。
他認為,政策應優先考量AI的部署方式與其可能造成的具體危害,而非試圖監控AI模型的開發本身,因為這一領域變化迅速、難以界定且容易規避。這位風險投資家警告,過於寬泛、以開發為焦點的規則可能抑制開放研究與創新。
馬丁·卡薩多強調,利用AI進行的非法或有害活動應依現有法律追究責任,規範應首先確保刑事、消費者保護、民權與反壟斷法規得到有效執行。如有漏洞,他主張制定基於實證、針對特定風險的法律,而非廣泛、推測性的規範,以免扼殺技術進步。
專家認為,保持AI開發的開放性,例如支持開源模型,對於長期創新與競爭力至關重要,同時確保監管措施精確、實用,並聚焦於真實的危害。