特朗普与马斯克 2 小时 X Space 畅聊政策,一批政治 MEME Token玩梗Tạo vị thế

Tại sao AI cần được quản lý Trong cộng đồng sinh thái phát triển AGI bằng tiếng Trung và tiếng Anh, cộng đồng tiếng Trung tập trung nhiều hơn vào việc thảo luận về sự nâng cao năng suất do công nghệ trí tuệ nhân tạo mang lại, tập trung vào phát triển các công cụ trí tuệ nhân tạo và khai thác nhu cầu, đồng thời tập trung vào việc nâng cấp và cải tiến cấu trúc công nghiệp hiện có. Trong khi đó, trong cộng đồng phát triển bằng tiếng Anh, tập trung nhiều hơn vào một mô hình kỹ thuật được đại diện bởi Auto-GPT, thực hiện các nhiệm vụ tự động hoàn toàn và có tính thông minh cao của AGI. Sự khám phá hai con đường công nghệ này khác nhau, điều này có nghĩa là sự khác biệt về rủi ro và quản trị AI mà cộng đồng nhà phát triển tiếng Trung và tiếng Anh sẽ đối mặt trong tương lai. Những nhà lãnh đạo về AI trong cộng đồng tiếng Anh nhận thức về rủi ro của AI cao hơn nhiều so với các nhà quản lý công nghệ tại Trung Quốc. Ví dụ, trong Hiến chương OpenAI, có thể thấy rằng, từ giai đoạn phát triển ban đầu, OpenAI luôn xem xét việc duy trì an toàn và quản lý chính sách hợp lý đối với trí tuệ nhân tạo; trong khi lời kêu gọi của Musk để ngừng huấn luyện GPT-5, cộng đồng Trung Quốc đã vắng mặt. Các nhà phát triển trong cộng đồng Trung Quốc nên xem mình là một phần của cộng đồng toàn cầu, tích cực suy nghĩ và khám phá cách đối phó với những rủi ro toàn cầu mới trong thời đại AGI, cũng như khám phá việc quản lý AGI. Trong bài viết mới nhất của OpenAI, ý tưởng được đưa ra về việc quản lý siêu trí tuệ là thành lập một cơ quan quản lý quốc tế, thực tế, Trung Quốc nên tích cực tham gia quá trình này, nếu không, quyền lực về kỹ thuật thời đại AGI sẽ ở trong tình trạng thiểu số, chi phí sửa đổi sau này sẽ rất cao, chi phí này không chỉ là chi phí kinh tế, mà quan trọng hơn là sự xâm nhập tiềm ẩn dựa trên quy tắc đạo đức AI vô cùng rộng lớn. Như đã đề cập trong bài báo “Mặc dù có khả năng siêu việt, nhưng LLM hiện tại không phù hợp để đưa ra quyết định về đạo đức và an toàn” “Khi mô hình gợi ý lý do cho câu trả lời của mình, chúng ta sẽ gặp phải nhiều vấn đề nghiêm trọng, bao gồm bào chữa cho các tình huống kinh khủng nhất và ảo tưởng về những sự thật không tồn tại trong ngữ cảnh ban đầu. Những vấn đề này, kết hợp với cuộc tấn công viết lại và các lỗi hệ thống khác nhau đã nêu rõ rằng LLMs hiện nay không phù hợp trong việc đưa ra quyết định liên quan đến đạo đức hoặc an ninh. Khi AI vượt qua ranh giới của an ninh đạo đức và hướng dẫn công chúng vào một vị trí đạo đức trong bối cảnh dường như hợp lý, giao tiếp đàm thoại được đại diện bởi các mô hình ngôn ngữ lớn sẽ tiếp tục tinh chỉnh và xây dựng các sự kiện và lý thuyết khác nhau dựa trên vị trí đạo đức này và các công ty AI có thể nhận ra “kỷ luật đạo đức” của lĩnh vực công cộng thông qua “ảo tưởng suy luận”. ***
Từ việc bảo vệ chính sách công cộng và dữ liệu riêng tư cá nhân, chúng ta có thể thảo luận về một mô hình quản lý AI phân tán, bởi vì AI đã tạo ra sự trỗi dậy của một thế hệ siêu cá nhân mới, trong tương lai, các cá nhân sẽ phổ biến sở hữu lượng dữ liệu khổng lồ vượt xa các tổ chức công ty thông thường hiện tại, các cá nhân này nên có quyền tham gia cuộc trò chuyện công cộng với quyền lợi lớn hơn. Đại diện cho mô hình tổ chức thế hệ tiếp theo, DAO sẽ đối mặt với các thách thức quản trị như làm thế nào để xác nhận quyền sở hữu và bảo vệ giao dịch của các siêu cá nhân, và nhận được sự hỗ trợ và bảo vệ từ chính sách công cộng.

Quản trị siêu trí tuệ
Sam AltmanGreg BrockmanIlya Sutskever
Bây giờ là thời điểm tốt để suy nghĩ về việc quản lý trí tuệ siêu việt - Hệ thống trí tuệ nhân tạo trong tương lai sẽ có khả năng vượt trội hơn cả trí tuệ nhân tạo tổng quát (AGI). Dựa trên những gì chúng tôi đã thấy cho đến nay, có thể tưởng tượng rằng trong thập kỷ tới, hệ thống trí tuệ nhân tạo sẽ vượt qua cấp độ của các chuyên gia trong hầu hết các lĩnh vực và có thể thực hiện hoạt động sản xuất tương đương với một trong những công ty lớn nhất ngày nay. Dù là có lợi ích tiềm năng hay không, trí tuệ siêu việt sẽ mạnh mẽ hơn bất kỳ công nghệ nào mà con người đã từng đối mặt trong quá khứ, cả về mặt tích cực lẫn tiêu cực. Chúng ta có thể có một tương lai phồn thịnh lớn, nhưng chúng ta phải quản lý rủi ro để đạt được điều này. Với nguy cơ tồn tại tiềm ẩn, chúng ta không thể chỉ áp dụng chiến lược phòng ngự passsive. Năng lượng hạt nhân là một ví dụ lịch sử phổ biến với công nghệ có đặc tính này; sinh học tổng hợp là một ví dụ khác. Chúng ta phải giảm thiểu nguy cơ của công nghệ trí tuệ nhân tạo hiện nay, nhưng trí tuệ siêu việt sẽ đòi hỏi xử lý và phối hợp đặc biệt. Một điểm khởi đầuTrong quá trình thành công của chúng tôi trong việc điều hướng quá trình phát triển này, có nhiều ý tưởng quan trọng cần chúng tôi theo dõi một cách cẩn thận. Ở đây, chúng tôi đã sơ lược thảo luận về ba ý tưởng trong số đó. Đầu tiên, chúng ta cần đồng bộ một mức độ nhất định giữa các nỗ lực phát triển chính để đảm bảo cách phát triển trí tuệ siêu việt không chỉ đảm bảo an toàn mà còn thúc đẩy tích hợp với xã hội một cách trôi chảy. Điều này có thể được đạt được thông qua nhiều cách: các chính phủ có thể thiết lập một dự án chung để hút thu nhiều nỗ lực hiện tại; hoặc chúng ta có thể đạt được tăng lên giao thức chung (dưới sự hỗ trợ của tổ chức mới được đề cập trong văn bản dưới đây), giới hạn tốc độ khả năng trí tuệ nhân tạo tăng lên trong một tỷ lệ cụ thể hàng năm. Tất nhiên, chúng ta cũng nên đặt ra yêu cầu cao đối với từng công ty cụ thể, yêu cầu họ hành động cẩn thận. Tiếp theo, chúng ta rất có thể cuối cùng sẽ cần một tổ chức giám sát như Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA) để giám sát nỗ lực của trí tuệ siêu việt. Mọi nỗ lực vượt quá ngưỡng năng lực cụ thể (hoặc tài nguyên tính toán v.v.) sẽ phải được giám sát bởi một cơ quan uy tín quốc tế, cơ quan này có thể kiểm tra hệ thống, yêu cầu kiểm toán, kiểm tra xem có đáp ứng tiêu chuẩn an ninh hay không, và hạn chế mức triển khai và cấp độ an ninh. The tracking of computing and energy usage could have a significant impact and give us some hope for the implementation of this idea. Như bước đầu tiên, công ty có thể tự nguyện đồng ý áp dụng một số yếu tố có thể được yêu cầu trong tương lai bởi cơ quan này, và như bước thứ hai, các quốc gia cá nhân có thể áp dụng khung của cơ quan này. Một cơ quan như vậy nên tập trung vào những rủi ro tồn tại tiềm ẩn của Thả, thay vì giải quyết các vấn đề cần được giải quyết bởi các quốc gia riêng lẻ, chẳng hạn như xác định những gì AI được phép thể hiện.
Thứ ba, chúng ta cần có khả năng kỹ thuật để đảm bảo an toàn của Trí tuệ Siêu phàm. Đây là một vấn đề nghiên cứu mở, chúng tôi và những người khác đang đổ rất nhiều công sức vào đó. Không phải là nội dung trong phạm vi Chúng tôi cho rằng việc cho phép các công ty và dự án Mã nguồn mở phát triển mô hình dưới ngưỡng năng lực đáng kể là rất quan trọng, mà không cần kiểm soát như mô tả ở đây (bao gồm các cơ chế phê duyệt hoặc kiểm toán phức tạp). Hệ thống hiện tại sẽ tạo ra giá trị lớn cho thế giới, mặc dù có rủi ro nhất định, nhưng mức độ rủi ro này tương đương với các công nghệ internet khác và các biện pháp đối phó của xã hội dường như là phù hợp. So với, hệ thống mà chúng tôi đang theo dõi sẽ có khả năng vượt trội hơn bất kỳ công nghệ hiện tại nào, vì vậy chúng ta nên cẩn thận không áp dụng các tiêu chuẩn tương tự cho các công nghệ thấp hơn ngưỡng này, từ đó làm suy yếu sự theo dõi của hệ thống này. Sự tham gia của công chúng và tác động tiềm năng Tuy nhiên, để quản trị các hệ thống mạnh mẽ nhất và các quyết định liên quan đến việc triển khai chúng, cần có sự giám sát của công chúng mạnh mẽ. Chúng tôi cho rằng mọi người trên toàn thế giới nên quyết định ranh giới và cài đặt mặc định của hệ thống AI theo cách dân chủ. Mặc dù chúng tôi vẫn chưa rõ cách thiết kế cơ chế như vậy, nhưng chúng tôi đang lên kế hoạch thực hiện các thí nghiệm để thúc đẩy sự phát triển của nó. Trong phạm vi rộng lớn, chúng tôi vẫn cho rằng người dùng cá nhân nên có quyền kiểm soát hành vi của hệ thống AI mà họ sử dụng. Với các rủi ro và khó khăn, đáng để chúng ta suy nghĩ, tại sao phải phát triển công nghệ này. Tại OpenAI, chúng tôi có hai lý do cơ bản. Thứ nhất, chúng tôi tin rằng công nghệ này sẽ mang lại một tương lai tốt đẹp hơn so với thế giới mà chúng ta có thể tưởng tượng được ngày nay (chúng ta đã thấy một số ví dụ sớm trong lĩnh vực giáo dục, sáng tạo và năng suất cá nhân). Thế giới đang đối mặt với nhiều vấn đề và chúng ta cần thêm sự giúp đỡ để giải quyết những vấn đề này; Công nghệ này có thể cải thiện xã hội của chúng ta và khả năng sáng tạo của mỗi người sử dụng những công cụ mới này chắc chắn sẽ làm cho chúng ta ngạc nhiên. Tăng lên và cải thiện chất lượng cuộc sống sẽ là điều đáng kinh ngạc. Thứ hai, chúng tôi cho rằng việc ngừng tạo ra siêu trí tuệ là một nhiệm vụ có rủi ro và khó khăn theo cảm tính. Vì lợi ích mà trí tuệ siêu việt mang lại rất lớn, chi phí xây dựng nó hàng năm đều ở mức Thả, số lượng người tham gia xây dựng nó cũng đang tăng nhanh chóng, và nó về bản chất là một phần của sự phát triển công nghệ của chúng ta. Để ngăn chặn sự phát triển của nó, cần có biện pháp tương tự như một hệ thống giám sát toàn cầu, nhưng ngay cả khi áp dụng biện pháp đó cũng không đảm bảo sẽ thành công. Do đó, chúng ta phải làm đúng và không sai sót.


Con đường đến AGI ở đây chúng ta có thể chuyển đổi giá trị nhận thức và tài nguyên, tìm thấy những cá nhân AGI siêu đẳng có cùng đam mê, và xây dựng cộng đồng hợp tác và sáng tạo AGI dựa trên mô hình DAO. 1, Chia sẻ và giải thích các bài báo AI hàng đầu, giúp bạn xây dựng sự nhận thức về xu hướng công nghệ tiên tiến trước người khác và có cơ hội tham gia buổi hội thảo AI và tiềm năng hợp tác với các tác giả bài báo. 2, chia sẻ các nguồn thông tin chất lượng ở đây và khám phá làm thế nào nguồn thông tin chất lượng có thể hỗ trợ cho sự nghiệp cá nhân, xây dựng một kho tri thức bền vững trong thời gian dài (ví dụ như Kinh doanh chênh lệch giá trong cộng đồng tiếng Trung và tiếng Anh). 3, về phân tích chiến lược phát triển cá nhân và doanh nghiệp trong thời đại AGI và Web3, củng cố cơ sở và chiến lược phát triển đòn bẩy. * Chương trình sáng lập viên sắp được khởi động;

MEME-2,12%
MAGA-3,28%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim