AI Trong Các Ngành Công Nghiệp Sáng Tạo: Lạm Dụng, Tranh Cãi, Và Áp Lực Đề Xuất Quy Định Tập Trung Vào Việc Sử Dụng

Tóm tắt

Lạm dụng AI đang gây ra các tranh cãi nổi bật, thúc đẩy các cơ quan quản lý trên toàn thế giới theo đuổi các biện pháp minh bạch, đồng thuận và trách nhiệm dựa trên mục đích sử dụng trong khi các cuộc tranh luận vẫn tiếp tục về việc liệu các khung pháp lý hiện tại có thể theo kịp với công nghệ phát triển nhanh chóng hay không.

AI is quickly reshaping creative practice

AI đang nhanh chóng định hình lại thực hành sáng tạo, nhưng việc lạm dụng nó cũng đang gia tăng nhanh chóng. Việc viết lách hỗ trợ AI không được tiết lộ, sao chép giọng nói và hình ảnh giống người, và hình ảnh do AI tạo ra liên tục xuất hiện sau khi được công bố hoặc thậm chí nhận giải thưởng, gây ra các tranh cãi nổi bật và làm suy giảm niềm tin vào các tổ chức văn hóa.

Các cơ quan quản lý và nền tảng đang cố gắng phản ứng bằng cách kết hợp các yêu cầu tiết lộ, đề xuất gắn nhãn nội dung, tiêu chuẩn xác minh nguồn gốc và watermark, cùng với các biện pháp thực thi mục tiêu. Tuy nhiên, khung pháp lý hiện tại vẫn còn rời rạc, chậm chạp và thường không rõ ràng. Làm thế nào các nhà lập pháp có thể bảo vệ các nhà sáng tạo và người tiêu dùng mà không làm nghẽn sự đổi mới? Các quy định hiện tại có đủ khả năng theo kịp với lĩnh vực AI phát triển nhanh không? Những câu hỏi này nằm ở trung tâm của một trong những cuộc tranh luận cấp bách nhất trong lĩnh vực công nghệ và sáng tạo ngày nay.

Trong số các tranh cãi về AI nổi bật trong vài năm gần đây là Sympathy Tower Tokyo của Rie Qudan, người chiến thắng Giải thưởng Akutagawa 2024. Tác giả tiết lộ rằng khoảng 5% của cuốn tiểu thuyết— chủ yếu là phản hồi của chatbot trong truyện—được tạo ra bằng ChatGPT. Tiết lộ này đã thổi bùng tranh luận về quyền tác giả và minh bạch trong văn học. Các nhà phê bình chia rẽ: một số ca ngợi tác phẩm như một cách sáng tạo sử dụng AI để khám phá ngôn ngữ và công nghệ, trong khi những người khác xem đó là một thách thức đối với các chuẩn mực truyền thống về quyền tác giả và tính toàn vẹn của văn học. Các bài báo lớn nhấn mạnh các chủ đề của cuốn sách—công lý, sự cảm thông và tác động xã hội của AI—và các câu hỏi thủ tục do việc tích hợp các mô hình sinh tạo trong tác phẩm đoạt giải đặt ra, thúc đẩy các yêu cầu rõ ràng hơn về tiêu chuẩn tiết lộ và xem xét lại tiêu chí trao giải thưởng. Vụ việc đã trở thành một điểm nhấn trong các cuộc trò chuyện rộng hơn về quyền sáng tạo, bản quyền và giới hạn đạo đức của việc sử dụng AI trong nghệ thuật, với những ảnh hưởng lâu dài đối với nhà xuất bản, ban giám khảo giải thưởng và các chuẩn mực về quyền tác giả.

Một vụ việc nổi bật khác liên quan đến Darkhollow Academy: Year Two của Lena McDonald, nơi độc giả phát hiện ra một đề bài và ghi chú chỉnh sửa AI nhúng trong chương ba. Việc tiết lộ tình cờ này đã tiết lộ rằng tác giả đã sử dụng một công cụ AI để bắt chước phong cách của một nhà văn khác, gây ra phản ứng dữ dội ngay lập tức và được đưa tin rộng rãi. Sự kiện này làm nổi bật giới hạn của quy trình xuất bản hiện tại và nhu cầu về các chuẩn mực rõ ràng về viết lách hỗ trợ AI. Nó đã làm tăng các yêu cầu về minh bạch, kích thích các cuộc thảo luận về giám sát biên tập và kiểm soát chất lượng, đồng thời thúc đẩy các tranh luận rộng hơn về việc ghi nhận nguồn gốc, bắt chước phong cách và rủi ro sở hữu trí tuệ trong văn học thương mại.

Trong lĩnh vực mỹ thuật, nhiếp ảnh gia người Đức Boris Eldagsen gần đây đã gây tranh cãi khi một bức ảnh anh gửi dự thi Giải thưởng Nhiếp ảnh Thế giới Sony được tiết lộ hoàn toàn do AI tạo ra. Tác phẩm ban đầu đã chiến thắng trong hạng mục Sáng tạo Mở, gây ra các tranh luận về ranh giới giữa nội dung do AI tạo ra và nhiếp ảnh truyền thống. Cuối cùng, nhiếp ảnh gia đã từ chối giải thưởng, trong khi các nhà phê bình và các nhân vật trong ngành đặt câu hỏi về cách các cuộc thi nên xử lý các tác phẩm dự thi hỗ trợ hoặc do AI tạo ra.

Ngành công nghiệp âm nhạc cũng đối mặt với những thách thức tương tự. Bản nhạc EDM của Anh “I Run” do Haven thể hiện đã trở thành một tranh cãi nổi bật về AI vào năm 2025 sau khi tiết lộ rằng phần hát chính của bài hát đã được tạo ra bằng công nghệ giọng nói tổng hợp giống như nghệ sĩ thật. Các nền tảng phát trực tuyến lớn đã gỡ bỏ bài hát vì vi phạm các quy tắc về giả mạo và bản quyền, gây ra sự lên án rộng rãi, các yêu cầu mới về đồng thuận rõ ràng và ghi nhận nguồn gốc khi AI bắt chước các nghệ sĩ còn sống, và thúc đẩy các cuộc tranh luận về chính sách và pháp lý về cách các dịch vụ phát trực tuyến, chủ sở hữu quyền và cơ quan quản lý nên quản lý âm nhạc hỗ trợ AI để bảo vệ nghệ sĩ, thực thi bản quyền và duy trì niềm tin vào quyền sáng tạo.

Các cơ quan quản lý đối mặt với thiệt hại do AI: EU, Mỹ, Anh và Ý triển khai các khung dựa trên rủi ro

Vấn đề thiệt hại từ việc sử dụng AI—bao gồm các trường hợp sáng tạo giả mạo tác phẩm của con người—đã trở thành vấn đề cấp bách, và các khung pháp lý mới nổi đang bắt đầu giải quyết vấn đề này.

Luật AI của Liên minh Châu Âu thiết lập một khung pháp lý dựa trên rủi ro, có hiệu lực từ năm 2024, với các nghĩa vụ theo từng giai đoạn kéo dài đến 2026–2027. Luật yêu cầu minh bạch đối với các hệ thống sinh tạo, bao gồm gắn nhãn nội dung do AI tạo ra trong một số bối cảnh, đánh giá rủi ro và quản trị cho các ứng dụng có rủi ro cao, và trao quyền cho Văn phòng AI của EU cùng các cơ quan quản lý quốc gia để thực thi sự tuân thủ. Các quy định này trực tiếp nhắm vào các thách thức như truyền thông do AI tạo ra không tiết lộ và đào tạo mô hình mập mờ.

Các nhà lập pháp quốc gia cũng đang tiến nhanh trong một số lĩnh vực. Ví dụ, Ý đã tiến hành một luật AI toàn diện vào năm 2025, áp dụng các hình phạt nghiêm khắc hơn đối với các hành vi gây hại như tội phạm deepfake, và quy định rõ các yêu cầu về minh bạch và giám sát của con người—cho thấy cách luật địa phương có thể bổ sung các quy tắc cấp EU. Ủy ban EU cùng lúc đang phát triển các công cụ không bắt buộc và các quy tắc thực hành ngành, đặc biệt cho AI Đa Năng, mặc dù việc triển khai đã gặp trì hoãn và phản đối từ ngành, phản ánh khó khăn trong việc đưa ra các quy tắc kịp thời, thực tế cho các công nghệ phát triển nhanh.

Vương quốc Anh đã áp dụng cách tiếp cận quản lý “hỗ trợ đổi mới”, kết hợp các báo cáo trắng của chính phủ, hướng dẫn riêng cho các ngành từ các cơ quan như Ofcom và ICO, cùng các nguyên tắc giám sát nhấn mạnh an toàn, minh bạch, công bằng và trách nhiệm. Thay vì áp dụng một bộ quy tắc kiểu EU, các cơ quan Anh tập trung vào hướng dẫn và xây dựng dần năng lực giám sát.

Tại Hoa Kỳ, các nhà hoạch định chính sách theo đuổi chiến lược theo ngành, do các cơ quan dẫn dắt, dựa trên Lệnh hành pháp 14110 từ tháng 10 năm 2023, nhằm phối hợp hành động liên bang về AI an toàn, an ninh và đáng tin cậy. Cách tiếp cận này nhấn mạnh quản lý rủi ro, thử nghiệm an toàn và xây dựng các quy tắc mục tiêu, với các tài liệu liên ngành như Kế hoạch hành động AI của Mỹ cung cấp hướng dẫn, phát triển tiêu chuẩn và quy tắc mua sắm thay vì một đạo luật toàn diện duy nhất.

Martin Casado ủng hộ quy định AI dựa trên mục đích sử dụng để bảo vệ nhà sáng tạo mà không làm nghẽn đổi mới

Đối với các nhà sáng tạo và nền tảng, các tác động thực tế rõ ràng. Các cơ quan quản lý đang thúc đẩy các yêu cầu tiết lộ mạnh mẽ hơn, bao gồm gắn nhãn rõ ràng nội dung do AI tạo ra, quy tắc đồng thuận cho sao chép giọng nói và hình ảnh, tiêu chuẩn xác minh nguồn gốc và watermark cho nội dung tạo ra, cùng các quy định chặt chẽ hơn về bản quyền và sử dụng phái sinh. Các biện pháp này nhằm ngăn chặn giả mạo, bảo vệ các nghệ sĩ và tác giả, đồng thời nâng cao trách nhiệm của các nền tảng chứa nội dung có thể gây hiểu lầm—về cơ bản thực hiện cách tiếp cận quản lý “dựa trên mục đích sử dụng” được đề xuất bởi Martin Casado, đối tác quản lý của Andreessen Horowitz trong tập podcast a16z.

Ông lập luận rằng chính sách nên ưu tiên cách AI được triển khai và các thiệt hại cụ thể mà nó có thể gây ra, thay vì cố gắng kiểm soát quá trình phát triển mô hình AI, vốn phát triển nhanh, khó định nghĩa và dễ né tránh. Nhà đầu tư mạo hiểm cảnh báo rằng các quy tắc quá rộng, tập trung vào phát triển có thể làm chậm nghiên cứu mở và làm yếu đi đổi mới.

Martin Casado nhấn mạnh rằng các hoạt động bất hợp pháp hoặc có hại sử dụng AI nên vẫn có thể bị truy tố theo luật hiện hành, và rằng quy định nên đảm bảo thi hành hiệu quả các luật hình sự, bảo vệ người tiêu dùng, quyền dân sự và chống độc quyền. Những khoảng trống còn lại, ông đề xuất luật mới dựa trên bằng chứng thực nghiệm và nhắm vào các rủi ro cụ thể, thay vì các quy định rộng rãi, mang tính dự đoán có thể làm nghẽn tiến trình công nghệ.

Theo chuyên gia này, việc duy trì sự cởi mở trong phát triển AI, như hỗ trợ các mô hình mã nguồn mở, là rất quan trọng để bảo vệ đổi mới và khả năng cạnh tranh lâu dài, đồng thời đảm bảo các biện pháp quản lý vẫn chính xác, thực tế và tập trung vào các thiệt hại thực tế.

IN-2,65%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim