Năm 2024 sắp kết thúc, nhà đầu tư rủi ro Rob Toews từ Radical Ventures đã chia sẻ 10 dự đoán về trí tuệ nhân tạo năm 2025 của ông:
01Meta sẽ bắt đầu tính phí cho mô hình Llama
Meta là biểu tượng trí tuệ nhân tạo mở trên thế giới. Trong một trường hợp nghiên cứu chiến lược doanh nghiệp đáng chú ý, khi các đối thủ cạnh tranh như OpenAI và Google đóng dấu mô hình tiên tiến của họ và thu phí sử dụng, Meta lại chọn cung cấp miễn phí mô hình Llama tiên tiến nhất của họ.
Do đó, tin tức Meta sẽ bắt đầu tính phí cho các công ty sử dụng Llama vào năm tới có thể làm bất ngờ cho nhiều người.
Cần phải rõ ràng rằng: chúng tôi không dự đoán rằng Meta sẽ đóng nguồn mở hoàn toàn Llama, cũng không có nghĩa là người dùng nào sử dụng mô hình Llama cũng phải trả phí cho điều này.
Ngược lại, chúng tôi dự đoán rằng Meta sẽ áp đặt nhiều hạn chế hơn đối với điều khoản cấp phép mã nguồn mở của Llama, điều này có nghĩa là các công ty sử dụng Llama trong môi trường kinh doanh có quy mô nhất định sẽ phải bắt đầu trả phí để sử dụng mô hình.
Về mặt kỹ thuật, Meta hiện đã đạt được điều này trong phạm vi hạn chế. Công ty không cho phép các công ty lớn nhất - máy tính siêu mạnh đám mây và các công ty khác với hơn 700 triệu người dùng hàng tháng - tự do sử dụng mô hình Llama của nó.
Vào năm 2023, Giám đốc điều hành Meta, Mark Zuckerberg, đã nói: “Nếu bạn là một công ty như Microsoft, Amazon hoặc Google và bạn đang bán lại Llama, thì chúng tôi nên nhận được một phần thu nhập từ đó. Tôi không nghĩ rằng điều này sẽ mang lại một khoản thu nhập lớn trong tương lai ngắn hạn, nhưng theo dài hạn, tôi hy vọng rằng điều này sẽ trở thành một nguồn thu nhập.”
Trong năm tới, Meta sẽ mở rộng phạm vi sử dụng Llama phải trả phí đáng kể cho doanh nghiệp, bao gồm nhiều doanh nghiệp lớn và vừa.
The front edge of large language models (LLM) is very expensive to keep up with. If Meta wants Llama to be consistent or close to the latest front-edge models of companies like OpenAI and Anthropic, it needs to invest billions of dollars each year.
Meta公司是世界上最大、资金最雄厚的公司之一. Nhưng nó cũng là một công ty niêm yết, cuối cùng phải chịu trách nhiệm trước cổ đông.
Với việc chi phí để sản xuất các mô hình tiên tiến liên tục tăng cao, việc Meta công ty đầu tư một khoản tiền lớn như vậy để huấn luyện thế hệ Llama tiếp theo mà không có kỳ vọng thu nhập trở nên ngày càng không còn hợp lý.
Người yêu thích, học giả, nhà phát triển cá nhân và các công ty khởi nghiệp sẽ tiếp tục được sử dụng mô hình Llama miễn phí vào năm sau. Nhưng năm 2025, sẽ là năm Meta bắt đầu nghiêm túc thực hiện mục tiêu Llama lợi nhuận.
**02.**Vấn Đề Liên Quan Đến “Định Luật Về Thước Đo”
Trong vài tuần gần đây, chủ đề gây tranh luận nhiều nhất trong lĩnh vực trí tuệ nhân tạo là định luật tỷ lệ (Scaling laws) và câu hỏi liệu chúng có sắp kết thúc hay không.
Định luật tỷ lệ đã được đưa ra lần đầu trong một bài báo năm 2020 của OpenAI, ý tưởng cơ bản rất đơn giản: Trong quá trình huấn luyện mô hình trí tuệ nhân tạo, khi số lượng tham số mô hình, lượng dữ liệu huấn luyện và khả năng tính toán tăng lên, hiệu suất của mô hình sẽ cải thiện theo một cách đáng tin cậy và có thể dự đoán (kỹ thuật, tổn thất kiểm tra sẽ giảm).
Từ GPT-2 đến GPT-3 và tiếp tục đến GPT-4, việc cải tiến hiệu suất đáng kinh ngạc này là nhờ vào quy luật tỉ lệ.
Như luật Moore, luật tỷ lệ thực tế không phải là một quy luật thực sự, mà chỉ là quan sát kinh nghiệm đơn giản.
Trong tháng qua, một loạt các báo cáo cho thấy khi các phòng thí nghiệm trí tuệ nhân tạo hàng đầu tiếp tục mở rộng quy mô của các mô hình ngôn ngữ lớn, họ đang gặp phải sự suy giảm hiệu quả. Điều này giúp giải thích tại sao việc phát hành GPT-5 của OpenAI đã bị hoãn lần nữa.
Các phản đối phổ biến nhất đối với quy tắc tỷ lệ ổn định là trong quá trình kiểm tra, tính toán đã tạo ra một chiều mới, cho phép mở rộng quy mô trên chiều này.
Nói cách khác, thay vì mở rộng tính toán một cách quy mô lớn trong quá trình huấn luyện, mô hình suy luận mới như o3 của OpenAI cho phép mở rộng tính toán một cách quy mô lớn trong quá trình suy luận trở nên có thể, thông qua việc làm cho mô hình có thể “suy nghĩ lâu hơn” để mở khóa khả năng AI mới.
Đây là một quan điểm quan trọng. Khi thử nghiệm, tính toán thực sự đại diện cho một con đường mở rộng mới hứa hẹn và cải thiện hiệu suất AI.
Nhưng quan điểm khác về định luật tỷ lệ thước đo lại quan trọng hơn và đã bị đánh giá thấp trong cuộc thảo luận hiện nay. Hầu hết các cuộc thảo luận về định luật tỷ lệ thước đo, bắt đầu từ bài báo năm 2020 ban đầu cho đến hôm nay, đều tập trung vào ngôn ngữ. Nhưng ngôn ngữ không phải là mẫu dữ liệu duy nhất quan trọng.
Hãy nghĩ về công nghệ robot, sinh học, mô hình thế giới hoặc đại lý mạng. Đối với những mô hình dữ liệu này, luật tỉ lệ vẫn chưa bão hòa; thay vào đó, chúng mới chỉ bắt đầu.
Thực tế là, không có bằng chứng chính thức về luật nhỏ trong những lĩnh vực này đã được công bố cho đến nay.
Các công ty khởi nghiệp xây dựng mô hình cơ bản cho các mô hình dữ liệu mới như Evolutionary Scale trong lĩnh vực sinh học, PhysicalIntelligence trong lĩnh vực công nghệ robot và WorldLabs trong lĩnh vực mô hình thế giới đều đang cố gắng nhận biết và tận dụng các định luật tỷ lệ trong các lĩnh vực này, giống như OpenAI đã thành công trong việc tận dụng định luật tỷ lệ của mô hình ngôn ngữ lớn (LLM) vào nửa đầu thập kỷ 2020.
Dự kiến năm sau, khu vực này sẽ đạt được tiến bộ lớn.
Định luật về quy mô sẽ không bao giờ biến mất, và vào năm 2025 chúng sẽ vẫn quan trọng như trước. Tuy nhiên, trung tâm hoạt động của định luật về quy mô sẽ chuyển từ việc huấn luyện trước LLM sang các mô hình khác.
**03.**Trump và Musk có thể có quan điểm khác nhau về hướng đi của AI
Chính phủ mới của Mỹ sẽ mang đến một loạt các chính sách và chiến lược về trí tuệ nhân tạo.
Để dự đoán hướng đi của trí tuệ nhân tạo dưới thời Tổng thống Trump, bên cạnh đó còn xem xét tình hình trung tâm của Musk trong lĩnh vực trí tuệ nhân tạo hiện tại, mọi người có thể có xu hướng quan tâm đến mối quan hệ gần gũi giữa Tổng thống đắc cử và Musk.
Có thể tưởng tượng được, Musk có thể ảnh hưởng đến sự phát triển trí tuệ nhân tạo của chính phủ Trump theo nhiều cách khác nhau.
Với mối quan hệ thù địch sâu sắc giữa Musk và OpenAI, một rủi ro mà OpenAI thực sự lo lắng hôm nay là chính phủ mới có thể đưa ra một thái độ không quá thân thiện đối với OpenAI trong việc tiếp xúc với ngành công nghiệp,制定人工智能法规、授予政府合同等方面。
Mặt khác, chính phủ Trump có thể có khuynh hướng ủng hộ các công ty của Musk: ví dụ, cắt giảm quy định phức tạp để xây dựng trung tâm dữ liệu cho xAI và vươn lên hàng đầu trong cuộc đua mô hình tiên tiến; cung cấp phê duyệt giám sát nhanh chóng cho việc triển khai đội xe taxi tự động của Tesla.
Quan trọng hơn, khác với nhiều nhà lãnh đạo công nghệ khác được Trump đánh giá cao, Musk rất quan tâm đến nguy cơ an ninh của trí tuệ nhân tạo và do đó ủng hộ việc quản lý nghiêm ngặt trí tuệ nhân tạo.
Ông ủng hộ dự luật SB1047 gây tranh cãi ở tiểu bang California, dự luật này cố gắng áp đặt những hạn chế có ý nghĩa đối với các nhà phát triển trí tuệ nhân tạo. Do đó, ảnh hưởng của Musk có thể khiến môi trường quản lý trí tuệ nhân tạo ở Mỹ trở nên nghiêm ngặt hơn.
Tuy nhiên, tất cả những phỏng đoán này đều có một vấn đề. Mối quan hệ thân thiết giữa Trump và Musk cuối cùng sẽ không thể tránh khỏi sự đổ vỡ.
!
Như chúng ta đã thấy trong suốt nhiệm kỳ đầu của chính phủ Trump, thì thời gian trung bình của đồng minh của Trump, ngay cả những người dường như mạnh mẽ nhất, cũng rất ngắn ngủi.
Trong số các phó tướng của chính quyền đầu tiên của Trump, chỉ có vài người vẫn trung thành với ông vào ngày hôm nay.
Trump và Musk đều là những cá nhân phức tạp, thất thường, không thể dự đoán, họ không dễ dàng hợp tác, họ làm cho người ta mệt mỏi, mối quan hệ bạn bè mới của họ cho đến nay đã có lợi cho cả hai bên, nhưng vẫn đang ở giai đoạn “trăng mật”.
Chúng tôi dự đoán rằng mối quan hệ này sẽ trở nên tồi tệ trước khi kết thúc vào năm 2025.
Điều này có nghĩa là gì đối với thế giới trí tuệ nhân tạo?
Điều này là một tin tốt đối với OpenAI. Đối với cổ đông của Tesla, đây sẽ là một tin không may. Đối với những người quan tâm đến an ninh trí tuệ nhân tạo, đây sẽ là một tin đáng thất vọng, vì điều này gần như đảm bảo rằng chính phủ Mỹ sẽ không quan tâm đến quản lý trí tuệ nhân tạo trong thời kỳ cầm quyền của Trump.
04AI Agent sẽ trở thành xu hướng chính
Hãy tưởng tượng, trong một thế giới như vậy, bạn không cần phải tương tác trực tiếp với Internet nữa. Mỗi khi bạn cần quản lý đăng ký, thanh toán hóa đơn, đặt hẹn với bác sĩ, đặt hàng trên Amazon, đặt bàn ăn hoặc hoàn thành bất kỳ nhiệm vụ trực tuyến nào khác, bạn chỉ cần hướng dẫn trợ lý trí tuệ nhân tạo làm giúp bạn.
Khái niệm về ‘đại lý mạng’ đã tồn tại từ nhiều năm. Nếu có một sản phẩm như vậy và hoạt động bình thường, không nghi ngờ gì, nó sẽ trở thành một sản phẩm rất thành công.
Tuy nhiên, hiện tại trên thị trường vẫn chưa có một dịch vụ proxy mạng chung nào hoạt động bình thường.
Công ty khởi nghiệp như Adept, mặc dù có một đội ngũ sáng lập thuần chủng và đã huy động được hàng trăm triệu đô la, nhưng vẫn chưa thể thực hiện tầm nhìn của mình.
** Năm tới sẽ là năm mà các proxy web cuối cùng cũng bắt đầu hoạt động tốt và trở thành xu hướng chủ đạo **. Những tiến bộ liên tục trong các mô hình nền tảng ngôn ngữ và hình ảnh, cùng với những đột phá gần đây trong khả năng “tư duy hệ thống thứ hai” do các mô hình suy luận mới và tính toán thời gian suy luận, sẽ có nghĩa là các tác nhân web đã sẵn sàng cho một thời kỳ hoàng kim.
Nói cách khác, ý tưởng của Adept là đúng, chỉ là quá sớm thôi. Trong các doanh nghiệp khởi nghiệp, như trong cuộc sống, thời điểm là tất cả.
Web proxy sẽ tìm thấy nhiều trường hợp sử dụng doanh nghiệp có giá trị, nhưng chúng tôi tin rằng cơ hội thị trường lớn nhất cho proxy web trong tương lai gần sẽ là người tiêu dùng.
Mặc dù trí tuệ nhân tạo vẫn đang rất hot gần đây, nhưng ngoài ChatGPT, các ứng dụng nguyên bản trí tuệ nhân tạo có thể trở thành ứng dụng tiêu dùng phổ biến vẫn còn khá ít.
Web proxy sẽ thay đổi điều này và trở thành “ứng dụng sát thủ” thực sự tiếp theo trong không gian AI của người tiêu dùng.
05Ý tưởng đặt trung tâm dữ liệu trí tuệ nhân tạo trong không gian sẽ được thực hiện
Năm 2023, tài nguyên vật lý quan trọng hạn chế sự phát triển trí tuệ nhân tạo là chip GPU. Năm 2024, nó trở thành điện năng và trung tâm dữ liệu.
Vào năm 2024, hiếm khi có câu chuyện nào có thể so sánh với sự chú ý đến nhu cầu nhanh chóng và lớn mạnh về năng lượng khi trí tuệ nhân tạo đang cố gắng xây dựng thêm các trung tâm dữ liệu trí tuệ nhân tạo.
Do với sự phát triển mạnh mẽ của trí tuệ nhân tạo, nhu cầu điện năng của trung tâm dữ liệu toàn cầu dự kiến sẽ tăng gấp đôi trong khoảng thời gian từ năm 2023 đến năm 2026. Ở Hoa Kỳ, nhu cầu tiêu thụ điện của trung tâm dữ liệu được dự đoán sẽ tăng gần 10% tổng lượng tiêu thụ điện vào năm 2030, trong khi vào năm 2022, chỉ chiếm 3%.
Hệ thống năng lượng hiện tại không thể đáp ứng nhu cầu tăng lớn từ công việc trí tuệ nhân tạo. Sự va chạm lịch sử giữa lưới năng lượng và cơ sở hạ tầng tính toán trị giá hàng ngàn tỷ đô la của chúng ta sắp xảy ra.
Như một giải pháp khả thi cho tình thế tiến thoái lưỡng nan này, năng lượng hạt nhân đã đạt được động lực trong năm nay. Năng lượng hạt nhân theo nhiều cách là một nguồn năng lượng lý tưởng cho trí tuệ nhân tạo: nó là nguồn năng lượng không carbon, có sẵn suốt ngày đêm và trên thực tế, vô tận.
Tuy nhiên, trên thực tế, do thời gian dài nghiên cứu, phát triển và giám sát dự án, năng lượng mới sẽ không thể giải quyết vấn đề này cho đến những năm 2030. Điều này đúng với các nhà máy điện phân hạch hạt nhân truyền thống, thế hệ tiếp theo của “lò phản ứng mô-đun nhỏ” (SMR) và các nhà máy điện nhiệt hạch hạt nhân.
Năm tới, một ý tưởng mới độc đáo để đáp ứng thách thức này sẽ xuất hiện và thu hút các nguồn lực thực sự: đặt các trung tâm dữ liệu AI trong không gian.
Các trung tâm dữ liệu trí tuệ nhân tạo trong không gian, thoạt nhìn, nghe có vẻ như một trò đùa tồi tệ, một nhà đầu tư mạo hiểm đang cố gắng kết hợp quá nhiều từ thông dụng khởi nghiệp lại với nhau.
Nhưng thực tế là điều này có thể là hợp lý.
Nút thắt cổ chai lớn nhất để xây dựng nhiều trung tâm dữ liệu hơn trên hành tinh một cách nhanh chóng là nhận được năng lượng bạn cần. Các cụm máy tính trên quỹ đạo có thể tận hưởng điện miễn phí, không giới hạn, không carbon suốt ngày đêm: mặt trời trong không gian luôn tỏa sáng.
Một lợi thế quan trọng khác của việc đặt tính toán trong không gian là: giải quyết vấn đề làm mát.
Một trong những rào cản kỹ thuật lớn nhất để xây dựng một trung tâm dữ liệu AI mạnh mẽ hơn là việc chạy nhiều GPU cùng một lúc trong một không gian nhỏ có thể trở nên rất nóng và nhiệt độ cao có thể làm hỏng hoặc phá hủy thiết bị máy tính.
Nhà phát triển trung tâm dữ liệu đang áp dụng các phương pháp đắt đỏ và chưa được chứng minh như là làm mát bằng chất lỏng để cố gắng giải quyết vấn đề này. Tuy nhiên, không gian rất lạnh, bất kỳ nhiệt lượng nào được tạo ra bởi hoạt động tính toán đều sẽ tự động tan biến mà không gây hại.
Tất nhiên, còn nhiều thách thức thực tế cần được giải quyết. Một vấn đề rõ ràng là liệu có thể và phải làm thế nào để truyền tải một lượng lớn dữ liệu giữa quỹ đạo và Trái Đất một cách hiệu quả và chi phí thấp.
Đây là một câu hỏi mở, nhưng một câu hỏi có thể chứng minh là có thể giải quyết được: Công việc đầy hứa hẹn có thể được thực hiện với laser và các công nghệ truyền thông quang băng thông cao khác.
Một công ty khởi nghiệp tên Lumen Orbit thuộc YCombinator gần đây đã gọi vốn 11 triệu đô la để xây dựng một mạng lưới trung tâm dữ liệu megawatt trong không gian để huấn luyện mô hình trí tuệ nhân tạo.
Như CEO của công ty đã nói: “Thay vì trả 140 triệu USD tiền điện, hãy trả 10 triệu USD tiền phóng và năng lượng mặt trời.”
!
Năm 2025, Lumen sẽ không còn là tổ chức duy nhất nghiêm túc đối với khái niệm này.
Các đối thủ khởi nghiệp khác cũng sẽ xuất hiện. Đừng ngạc nhiên nếu có một hoặc vài doanh nghiệp quy mô lớn về điện toán đám mây cũng tiến hành khám phá theo cách này.
Amazon đã có nhiều kinh nghiệm đưa tài sản vào quỹ đạo thông qua Dự án Kuiper; Google từ lâu đã tài trợ cho các “moonshot” tương tự; Ngay cả Microsoft cũng không xa lạ gì với nền kinh tế vũ trụ.
Có thể hình dung rằng công ty SpaceX của Musk cũng sẽ tạo ra sự khác biệt trong vấn đề này.
06 Hệ thống trí tuệ nhân tạo sẽ trải qua “Kiểm tra Ngôn ngữ Turing”.
Thử nghiệm Turing là một trong những điểm chuẩn lâu đời nhất và nổi tiếng nhất về hiệu suất AI.
Để “vượt qua” bài kiểm tra Turing, một hệ thống AI phải có khả năng giao tiếp thông qua văn bản viết, khiến người bình thường không thể biết liệu họ đang tương tác với AI hay người khác.
Nhờ sự tiến bộ đáng kể của mô hình ngôn ngữ lớn, cuộc kiểm tra Turing đã trở thành một vấn đề được giải quyết trong thập kỷ 2020.
Nhưng văn bản không phải là cách duy nhất mà con người giao tiếp.
Với sự phát triển ngày càng đa dạng của trí tuệ nhân tạo, con người có thể tưởng tượng một phiên bản kiểm tra Turing mới, mang tính thách thức hơn - ‘Kiểm tra Turing giọng nói’. Trong kiểm tra này, hệ thống trí tuệ nhân tạo phải có khả năng tương tác bằng giọng nói với con người và có khả năng nói chuyện một cách thành thạo và thông minh đến mức không thể phân biệt được với người nói.
Hệ thống trí tuệ nhân tạo ngày nay vẫn chưa thể thực hiện được cuộc thử nghiệm Turing trực quan, giải quyết vấn đề này sẽ đòi hỏi nhiều tiến bộ công nghệ hơn. Độ trễ (sự chậm trễ giữa lời nói của con người và phản hồi của trí tuệ nhân tạo) phải được giảm xuống gần như không, để phù hợp với trải nghiệm trò chuyện với một con người khác.
Hệ thống trí tuệ nhân tạo giọng nói phải có khả năng xử lý đầu vào mờ mịt hoặc hiểu lầm một cách tinh tế và thời gian thực, chẳng hạn như trong trường hợp bị gián đoạn khi đang nói. Chúng phải có khả năng tham gia vào cuộc trò chuyện dài, nhiều lượt và mở, đồng thời nhớ lại phần đầu của cuộc thảo luận.
Và quan trọng nhất là, đại lý trí tuệ nhân tạo giọng nói phải học cách hiểu tốt hơn các tín hiệu phi ngôn ngữ trong giọng nói. Ví dụ, nếu một người nói người nghe nghe có vẻ tức giận, hào hứng hoặc mỉa mai, và tạo ra những dấu hiệu phi ngôn ngữ này trong giọng nói của mình.
Khi chúng ta đến gần cuối năm 2024, Trí tuệ nhân tạo giọng nói đang ở một điểm bùng nổ đáng ngạc nhiên, điểm bùng nổ này được thúc đẩy bởi những tiến bộ cơ bản như mô hình từ giọng nói sang giọng nói.
Hiện nay, hiếm có lĩnh vực nào trong trí tuệ nhân tạo phát triển nhanh chóng về mặt công nghệ và kinh doanh hơn trí tuệ nhân tạo giọng nói. Dự kiến vào năm 2025, công nghệ mới nhất của trí tuệ nhân tạo giọng nói sẽ đạt được sự tiến bộ đáng kể.
07Hệ thống AI tự động sẽ đạt được tiến bộ đáng kể
Trong suốt nhiều thập kỷ qua, khái niệm trí tuệ nhân tạo tự hoàn thiện theo cách đệ quy luôn là một chủ đề được đề cập thường xuyên trong cộng đồng trí tuệ nhân tạo.
Ví dụ, ngay từ năm 1965, I.J.Good - bạn đồng hành thân thiết của AlanTuring đã viết rằng: “Hãy định nghĩa máy siêu thông minh như một loại máy có khả năng vượt xa tất cả các hoạt động trí tuệ của con người, dù cho nó có thông minh đến đâu”.
“Với việc thiết kế máy tính là một trong những hoạt động thông minh này, thì máy tính siêu thông minh có thể thiết kế ra những máy tính tốt hơn; khi đó, không thể phủ nhận sẽ xuất hiện một ‘bùng nổ trí tuệ’, trí tuệ của con người sẽ bị tụt hậu xa.”
Trí tuệ nhân tạo có thể phát minh ra trí tuệ nhân tạo tốt hơn, đó là một khái niệm vô cùng sáng suốt. Tuy nhiên, ngay cả ở ngày nay, nó vẫn giữ lại bóng dáng của tiểu thuyết khoa học viễn tưởng.
Tuy nhiên, mặc dù khái niệm này chưa được công nhận rộng rãi, nhưng nó đã thực sự bắt đầu trở nên thực tế hơn. Các nhà nghiên cứu ở biên giới của khoa học AI đã bắt đầu đạt được tiến bộ rõ rệt trong việc xây dựng các hệ thống AI mà bản thân chúng có thể xây dựng các hệ thống AI tốt hơn.
Chúng tôi dự đoán rằng hướng nghiên cứu này sẽ trở thành xu hướng chủ đạo vào năm tới.
!
Cho đến nay, ví dụ công khai nổi bật nhất về nghiên cứu theo dòng suy nghĩ này là “nhà khoa học trí tuệ nhân tạo” của Sakana.
“Nhà khoa học AI” được phát hành vào tháng Tám năm nay và nó chứng minh một cách thuyết phục rằng các hệ thống AI thực sự có thể thực hiện nghiên cứu AI hoàn toàn tự chủ.
Các “nhà khoa học AI” của Sakana tự thực hiện toàn bộ vòng đời của nghiên cứu AI: đọc tài liệu hiện có, tạo ra các ý tưởng nghiên cứu mới, thiết kế các thí nghiệm để kiểm tra những ý tưởng đó, thực hiện các thí nghiệm đó, viết tài liệu nghiên cứu để báo cáo những phát hiện của họ và sau đó đánh giá ngang hàng công việc của họ.
Công việc này hoàn toàn được hoàn thành tự động bởi trí tuệ nhân tạo, không cần can thiệp của con người. Bạn có thể đọc trực tuyến một phần của các bài nghiên cứu do các nhà khoa học trí tuệ nhân tạo viết.
OpenAI, Anthropic và các phòng thí nghiệm nghiên cứu khác đang đổ nguồn lực vào ý tưởng về “các nhà nghiên cứu AI tự động”, mặc dù không có gì được thừa nhận công khai.
Với việc ngày càng nhiều người nhận ra rằng nghiên cứu trí tuệ nhân tạo tự động hóa đang trở thành một khả năng thực sự, dự kiến rằng vào năm 2025, lĩnh vực này sẽ có nhiều cuộc thảo luận, tiến triển và hoạt động khởi nghiệp hơn.
Tuy nhiên, cột mốc quan trọng nhất sẽ là lần đầu tiên một bài báo nghiên cứu được viết hoàn toàn bởi một tác nhân AI được chấp nhận bởi một hội nghị AI hàng đầu. Nếu bài báo được xem xét một cách mù quáng, người đánh giá hội nghị sẽ không biết rằng bài báo được viết bởi AI cho đến khi bài báo được chấp nhận.
Nếu các kết quả nghiên cứu trí tuệ nhân tạo được chấp nhận bởi NeurIPS, CVPR hoặc ICML vào năm tới, đừng ngạc nhiên. Đối với lĩnh vực trí tuệ nhân tạo, đó sẽ là khoảnh khắc lịch sử hấp dẫn và gây tranh cãi.
08Các ngành công nghiệp lớn như OpenAI đang chuyển trọng tâm chiến lược sang xây dựng ứng dụng
Xây dựng mô hình tiên tiến là một công việc khó khăn.
Mức độ tập trung vốn của nó khiến người ta bất ngờ. Các phòng thí nghiệm mô hình tiên tiến đòi hỏi một lượng tiền lớn. Chỉ trong vài tháng trước, OpenAI đã gọi vốn thành công với số tiền kỷ lục 6,5 tỷ đô la, và trong tương lai gần, có thể họ sẽ cần gọi thêm vốn. Anthropic, xAI và các công ty khác cũng đang đối mặt với tình huống tương tự.
Chi phí chuyển đổi và sự trung thành của khách hàng thấp. Ứng dụng trí tuệ nhân tạo thường được xây dựng với mục đích độc lập với mô hình, các mô hình của các nhà cung cấp khác nhau có thể chuyển đổi một cách mượt mà dựa trên sự so sánh về chi phí và hiệu suất thay đổi liên tục.
Với sự xuất hiện của các mô hình mở tiên tiến như Llama của Meta và Qwen của Alibaba, mối đe dọa về sự tiếp cận hàng hóa công nghệ ngày càng gần. Những nhà lãnh đạo trí tuệ nhân tạo như OpenAI và Anthropic không thể và không sẽ ngừng đầu tư vào việc xây dựng những mô hình tiên tiến.
Tuy nhiên vào năm sau, để phát triển các dòng sản phẩm với lợi nhuận cao hơn, khác biệt lớn hơn và độ dính cao hơn, phòng thí nghiệm tiên tiến có thể sẽ tung ra nhiều ứng dụng và sản phẩm của riêng mình.
Tất nhiên, phòng thí nghiệm tiên tiến đã có một trường hợp sử dụng rất thành công: ChatGPT.
Trong năm mới, chúng ta có thể thấy những ứng dụng loại thứ nhất khác nào từ phòng thí nghiệm trí tuệ nhân tạo không? Một câu trả lời rõ ràng là ứng dụng tìm kiếm phức tạp và tích hợp nhiều tính năng hơn. SearchGPT của OpenAI đã dự đoán điều này.
Mã hóa là một danh mục khác rõ ràng. Tương tự, với sự ra mắt lần đầu của sản phẩm Canvas của OpenAI vào tháng 10, công việc sản phẩm hóa sơ bộ đã bắt đầu.
OpenAI hay Anthropic sẽ ra mắt sản phẩm tìm kiếm doanh nghiệp vào năm 2025? Hay đó là một sản phẩm dịch vụ khách hàng, một AI hợp pháp hoặc một sản phẩm AI bán hàng?
Đối với người tiêu dùng, chúng ta có thể tưởng tượng một sản phẩm trợ lý cá nhân cho mạng hoặc một ứng dụng lập kế hoạch du lịch, hoặc một ứng dụng tạo ra âm nhạc.
Một trong những điều thú vị nhất khi Phòng thí nghiệm Edge Watch phát triển đến tầng ứng dụng là bước tiến này sẽ khiến họ trực tiếp cạnh tranh với nhiều khách hàng quan trọng nhất.
Sự bối rối trong tìm kiếm, Con trỏ trong mã hóa, DeSierra trong dịch vụ khách hàng, Harvey trong trí tuệ nhân tạo hợp pháp, Đất sét trong bán hàng, và nhiều hơn nữa.
09Klarna sẽ niêm yết vào năm 2025, nhưng có dấu hiệu phóng đại giá trị của trí tuệ nhân tạo
Klarna là nhà cung cấp dịch vụ “mua trước, trả, trả” có trụ sở tại Thụy Điển, đã huy động được gần 5 tỷ đô la vốn đầu tư mạo hiểm kể từ khi thành lập vào năm 2005.
Có lẽ không có công ty nào có thể so sánh với Klarna về việc áp dụng trí tuệ nhân tạo của mình một cách trang trọng hơn được.
Chỉ trong vài ngày trước đây, Giám đốc điều hành của Klarna, Sebastian Siemiatkowski, đã cho biết với Bloomberg rằng công ty đã hoàn toàn ngừng tuyển dụng nhân viên con người và chuyển sang sử dụng trí tuệ nhân tạo sinh học để hoàn thành công việc.
Như Siemiatkowski đã nói: “Tôi tin rằng trí tuệ nhân tạo đã có thể hoàn thành tất cả công việc mà con người đã làm”.
Tương tự như vậy, công ty Klarna đã thông báo vào đầu năm nay rằng họ đã ra mắt một nền tảng dịch vụ khách hàng trí tuệ nhân tạo, đã tự động hóa hoàn toàn công việc của 700 nhân viên chăm sóc khách hàng.
!
Công ty cũng tuyên bố rằng họ đã ngừng sử dụng các sản phẩm phần mềm doanh nghiệp như Salesforce và Workday vì họ có thể dễ dàng thay thế chúng bằng trí tuệ nhân tạo.
Để nói rõ ràng, những phát ngôn này không đáng tin cậy. Chúng phản ánh sự thiếu hiểu biết về khả năng và hạn chế của hệ thống trí tuệ nhân tạo hiện nay.
Tuyên bố rằng có thể thay thế bất kỳ nhân viên con người cụ thể nào trong bất kỳ phòng ban chức năng nào trong tổ chức bằng đại lý trí tuệ nhân tạo từ đầu đến cuối, tuyên bố này không đáng tin cậy. Điều này tương đương với giải quyết vấn đề trí tuệ nhân tạo cấp con người phổ quát.
Ngày nay, các công ty khởi nghiệp AI hàng đầu đang đi đầu trong lĩnh vực này làm việc để xây dựng các hệ thống đại lý tự động hóa quy trình công việc doanh nghiệp cụ thể, hẹp và có cấu trúc cao, ví dụ: đại diện phát triển bán hàng hoặc một tập hợp con các hoạt động của đại lý dịch vụ khách hàng.
Ngay cả trong các trường hợp hạn chế như vậy, hệ thống đại diện này vẫn chưa hoạt động hoàn toàn đáng tin cậy, mặc dù trong một số trường hợp nó đã hoạt động tốt đủ để được áp dụng thương mại trong giai đoạn đầu.
Tại sao Klarna lại phóng đại giá trị của trí tuệ nhân tạo?
Câu trả lời rất đơn giản. Công ty dự định niêm yết trong nửa đầu năm 2025. Để thành công trong việc niêm yết, điều quan trọng là phải có một câu chuyện trí tuệ nhân tạo hấp dẫn.
Klarna vẫn là một công ty phi lợi nhuận, lỗ 241 triệu đô la vào năm ngoái. Có thể Klarna hy vọng câu chuyện về trí tuệ nhân tạo của mình có thể thuyết phục các nhà đầu tư trên thị trường mở rằng họ có khả năng giảm chi phí một cách đáng kể và đạt được lợi nhuận bền vững.
Không còn nghi ngờ gì nữa, mọi doanh nghiệp trên thế giới, bao gồm cả Klarna, sẽ tận hưởng những lợi ích năng suất khổng lồ mà AI sẽ mang lại trong những năm tới. Tuy nhiên, vẫn còn nhiều thách thức gai góc về kỹ thuật, sản phẩm và tổ chức cần được giải quyết trước khi các tác nhân AI có thể thay thế hoàn toàn con người trong lực lượng lao động.
Các tuyên bố tự mãn như Klarna là sự xúc phạm đối với lĩnh vực trí tuệ nhân tạo và cũng là sự xúc phạm đối với những chuyên gia và doanh nhân công nghệ trí tuệ nhân tạo đã đạt được tiến bộ nỗ lực trong việc phát triển đại lý trí tuệ nhân tạo.
Với việc Klarna chuẩn bị niêm yết công khai cổ phiếu vào năm 2025, dự kiến các tuyên bố này sẽ gặp sự kiểm duyệt nghiêm ngặt và sự nghi ngờ của công chúng, trong khi cho đến nay, hầu hết các tuyên bố này chưa bị đặt vấn đề. Đừng ngạc nhiên nếu công ty này đã quá phóng đại mô tả về ứng dụng trí tuệ nhân tạo của mình.
10Sự cố an ninh AI đầu tiên thực sự sẽ xảy ra
Trong những năm gần đây, khi AI trở nên mạnh mẽ hơn, ngày càng có nhiều lo ngại rằng các hệ thống AI có thể bắt đầu hành xử theo những cách không phù hợp với lợi ích của con người và con người có thể mất quyền kiểm soát các hệ thống này.
Hãy tưởng tượng, ví dụ, một hệ thống AI học cách đánh lừa hoặc thao túng con người để đạt được mục tiêu của nó, ngay cả khi những mục tiêu đó gây hại cho con người. Những mối quan tâm này thường được phân loại là mối quan tâm “bảo mật AI”.
Trong những năm gần đây, bảo mật AI đã chuyển từ một chủ đề bán khoa học viễn tưởng sang một lĩnh vực hoạt động chính thống.
Hiện nay, từ Google, Microsoft đến OpenAI, mỗi nhà cung cấp trí tuệ nhân tạo chủ yếu đều đầu tư nhiều nguồn lực vào công việc an toàn trí tuệ nhân tạo. Các thần tượng trí tuệ nhân tạo như Geoff Hinton, Yoshua Bengio và Elon Musk cũng đã bắt đầu đưa ra quan điểm về rủi ro an ninh của trí tuệ nhân tạo.
Tuy nhiên, cho đến nay, vấn đề bảo mật AI vẫn hoàn toàn là lý thuyết. Chưa bao giờ có một sự cố an toàn AI thực sự trong thế giới thực (ít nhất là không được báo cáo công khai).
Năm 2025 sẽ là năm thay đổi điều đó, sự cố bảo mật AI đầu tiên sẽ như thế nào?
Nói rõ rằng, nó sẽ không liên quan đến các máy giết người theo kiểu Terminator, và có thể không gây ra bất kỳ tổn thương nào đối với con người.
Có lẽ mô hình trí tuệ nhân tạo sẽ cố gắng tạo bản sao bí mật của chính mình trên một máy chủ khác để tự bảo vệ (gọi là tự lọc).
Có thể mô hình trí tuệ nhân tạo có thể kết luận như vậy: Để tiến hành mục tiêu được giao một cách tốt nhất, nó cần giấu khả năng thực sự của mình trước con người, cố ý thể hiện mình kém hiệu suất trong đánh giá hiệu suất, tránh được kiểm tra nghiêm ngặt hơn.
Những ví dụ này không phải là xa vời. Các thí nghiệm quan trọng được Apollo Research công bố đầu tháng này đã chỉ ra rằng các mô hình tiên tiến ngày nay có khả năng lừa dối này theo những lời nhắc cụ thể.
Tương tự, nghiên cứu gần đây trong Nhân chủng học đã chỉ ra rằng LLM có khả năng đáng lo ngại để “căn chỉnh giả”.
!
Chúng tôi dự đoán rằng sự cố bảo mật AI đầu tiên này sẽ được phát hiện và loại bỏ trước khi gây ra bất kỳ tác hại thực sự nào. Nhưng đó sẽ là một khoảnh khắc mở mang tầm mắt cho cộng đồng AI và toàn xã hội.
Nó sẽ làm rõ một điều: trước khi nhân loại phải đối mặt với mối đe dọa hiện hữu từ trí tuệ nhân tạo toàn năng, chúng ta cần chấp nhận một thực tế trần tục hơn: bây giờ chúng ta chia sẻ thế giới của mình với một dạng trí thông minh khác đôi khi có thể thất thường, không thể đoán trước và lừa dối.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
10 dự đoán của trí tuệ nhân tạo vào năm 2025: Hướng đến AI Agent sẽ trở thành trào lưu chính
Năm 2024 sắp kết thúc, nhà đầu tư rủi ro Rob Toews từ Radical Ventures đã chia sẻ 10 dự đoán về trí tuệ nhân tạo năm 2025 của ông:
01 Meta sẽ bắt đầu tính phí cho mô hình Llama
Meta là biểu tượng trí tuệ nhân tạo mở trên thế giới. Trong một trường hợp nghiên cứu chiến lược doanh nghiệp đáng chú ý, khi các đối thủ cạnh tranh như OpenAI và Google đóng dấu mô hình tiên tiến của họ và thu phí sử dụng, Meta lại chọn cung cấp miễn phí mô hình Llama tiên tiến nhất của họ.
Do đó, tin tức Meta sẽ bắt đầu tính phí cho các công ty sử dụng Llama vào năm tới có thể làm bất ngờ cho nhiều người.
Cần phải rõ ràng rằng: chúng tôi không dự đoán rằng Meta sẽ đóng nguồn mở hoàn toàn Llama, cũng không có nghĩa là người dùng nào sử dụng mô hình Llama cũng phải trả phí cho điều này.
Ngược lại, chúng tôi dự đoán rằng Meta sẽ áp đặt nhiều hạn chế hơn đối với điều khoản cấp phép mã nguồn mở của Llama, điều này có nghĩa là các công ty sử dụng Llama trong môi trường kinh doanh có quy mô nhất định sẽ phải bắt đầu trả phí để sử dụng mô hình.
Về mặt kỹ thuật, Meta hiện đã đạt được điều này trong phạm vi hạn chế. Công ty không cho phép các công ty lớn nhất - máy tính siêu mạnh đám mây và các công ty khác với hơn 700 triệu người dùng hàng tháng - tự do sử dụng mô hình Llama của nó.
Vào năm 2023, Giám đốc điều hành Meta, Mark Zuckerberg, đã nói: “Nếu bạn là một công ty như Microsoft, Amazon hoặc Google và bạn đang bán lại Llama, thì chúng tôi nên nhận được một phần thu nhập từ đó. Tôi không nghĩ rằng điều này sẽ mang lại một khoản thu nhập lớn trong tương lai ngắn hạn, nhưng theo dài hạn, tôi hy vọng rằng điều này sẽ trở thành một nguồn thu nhập.”
Trong năm tới, Meta sẽ mở rộng phạm vi sử dụng Llama phải trả phí đáng kể cho doanh nghiệp, bao gồm nhiều doanh nghiệp lớn và vừa.
The front edge of large language models (LLM) is very expensive to keep up with. If Meta wants Llama to be consistent or close to the latest front-edge models of companies like OpenAI and Anthropic, it needs to invest billions of dollars each year.
Meta公司是世界上最大、资金最雄厚的公司之一. Nhưng nó cũng là một công ty niêm yết, cuối cùng phải chịu trách nhiệm trước cổ đông.
Với việc chi phí để sản xuất các mô hình tiên tiến liên tục tăng cao, việc Meta công ty đầu tư một khoản tiền lớn như vậy để huấn luyện thế hệ Llama tiếp theo mà không có kỳ vọng thu nhập trở nên ngày càng không còn hợp lý.
Người yêu thích, học giả, nhà phát triển cá nhân và các công ty khởi nghiệp sẽ tiếp tục được sử dụng mô hình Llama miễn phí vào năm sau. Nhưng năm 2025, sẽ là năm Meta bắt đầu nghiêm túc thực hiện mục tiêu Llama lợi nhuận.
**02.**Vấn Đề Liên Quan Đến “Định Luật Về Thước Đo”
Trong vài tuần gần đây, chủ đề gây tranh luận nhiều nhất trong lĩnh vực trí tuệ nhân tạo là định luật tỷ lệ (Scaling laws) và câu hỏi liệu chúng có sắp kết thúc hay không.
Định luật tỷ lệ đã được đưa ra lần đầu trong một bài báo năm 2020 của OpenAI, ý tưởng cơ bản rất đơn giản: Trong quá trình huấn luyện mô hình trí tuệ nhân tạo, khi số lượng tham số mô hình, lượng dữ liệu huấn luyện và khả năng tính toán tăng lên, hiệu suất của mô hình sẽ cải thiện theo một cách đáng tin cậy và có thể dự đoán (kỹ thuật, tổn thất kiểm tra sẽ giảm).
Từ GPT-2 đến GPT-3 và tiếp tục đến GPT-4, việc cải tiến hiệu suất đáng kinh ngạc này là nhờ vào quy luật tỉ lệ.
Như luật Moore, luật tỷ lệ thực tế không phải là một quy luật thực sự, mà chỉ là quan sát kinh nghiệm đơn giản.
Trong tháng qua, một loạt các báo cáo cho thấy khi các phòng thí nghiệm trí tuệ nhân tạo hàng đầu tiếp tục mở rộng quy mô của các mô hình ngôn ngữ lớn, họ đang gặp phải sự suy giảm hiệu quả. Điều này giúp giải thích tại sao việc phát hành GPT-5 của OpenAI đã bị hoãn lần nữa.
Các phản đối phổ biến nhất đối với quy tắc tỷ lệ ổn định là trong quá trình kiểm tra, tính toán đã tạo ra một chiều mới, cho phép mở rộng quy mô trên chiều này.
Nói cách khác, thay vì mở rộng tính toán một cách quy mô lớn trong quá trình huấn luyện, mô hình suy luận mới như o3 của OpenAI cho phép mở rộng tính toán một cách quy mô lớn trong quá trình suy luận trở nên có thể, thông qua việc làm cho mô hình có thể “suy nghĩ lâu hơn” để mở khóa khả năng AI mới.
Đây là một quan điểm quan trọng. Khi thử nghiệm, tính toán thực sự đại diện cho một con đường mở rộng mới hứa hẹn và cải thiện hiệu suất AI.
Nhưng quan điểm khác về định luật tỷ lệ thước đo lại quan trọng hơn và đã bị đánh giá thấp trong cuộc thảo luận hiện nay. Hầu hết các cuộc thảo luận về định luật tỷ lệ thước đo, bắt đầu từ bài báo năm 2020 ban đầu cho đến hôm nay, đều tập trung vào ngôn ngữ. Nhưng ngôn ngữ không phải là mẫu dữ liệu duy nhất quan trọng.
Hãy nghĩ về công nghệ robot, sinh học, mô hình thế giới hoặc đại lý mạng. Đối với những mô hình dữ liệu này, luật tỉ lệ vẫn chưa bão hòa; thay vào đó, chúng mới chỉ bắt đầu.
Thực tế là, không có bằng chứng chính thức về luật nhỏ trong những lĩnh vực này đã được công bố cho đến nay.
Các công ty khởi nghiệp xây dựng mô hình cơ bản cho các mô hình dữ liệu mới như Evolutionary Scale trong lĩnh vực sinh học, PhysicalIntelligence trong lĩnh vực công nghệ robot và WorldLabs trong lĩnh vực mô hình thế giới đều đang cố gắng nhận biết và tận dụng các định luật tỷ lệ trong các lĩnh vực này, giống như OpenAI đã thành công trong việc tận dụng định luật tỷ lệ của mô hình ngôn ngữ lớn (LLM) vào nửa đầu thập kỷ 2020.
Dự kiến năm sau, khu vực này sẽ đạt được tiến bộ lớn.
Định luật về quy mô sẽ không bao giờ biến mất, và vào năm 2025 chúng sẽ vẫn quan trọng như trước. Tuy nhiên, trung tâm hoạt động của định luật về quy mô sẽ chuyển từ việc huấn luyện trước LLM sang các mô hình khác.
**03.**Trump và Musk có thể có quan điểm khác nhau về hướng đi của AI
Chính phủ mới của Mỹ sẽ mang đến một loạt các chính sách và chiến lược về trí tuệ nhân tạo.
Để dự đoán hướng đi của trí tuệ nhân tạo dưới thời Tổng thống Trump, bên cạnh đó còn xem xét tình hình trung tâm của Musk trong lĩnh vực trí tuệ nhân tạo hiện tại, mọi người có thể có xu hướng quan tâm đến mối quan hệ gần gũi giữa Tổng thống đắc cử và Musk.
Có thể tưởng tượng được, Musk có thể ảnh hưởng đến sự phát triển trí tuệ nhân tạo của chính phủ Trump theo nhiều cách khác nhau.
Với mối quan hệ thù địch sâu sắc giữa Musk và OpenAI, một rủi ro mà OpenAI thực sự lo lắng hôm nay là chính phủ mới có thể đưa ra một thái độ không quá thân thiện đối với OpenAI trong việc tiếp xúc với ngành công nghiệp,制定人工智能法规、授予政府合同等方面。
Mặt khác, chính phủ Trump có thể có khuynh hướng ủng hộ các công ty của Musk: ví dụ, cắt giảm quy định phức tạp để xây dựng trung tâm dữ liệu cho xAI và vươn lên hàng đầu trong cuộc đua mô hình tiên tiến; cung cấp phê duyệt giám sát nhanh chóng cho việc triển khai đội xe taxi tự động của Tesla.
Quan trọng hơn, khác với nhiều nhà lãnh đạo công nghệ khác được Trump đánh giá cao, Musk rất quan tâm đến nguy cơ an ninh của trí tuệ nhân tạo và do đó ủng hộ việc quản lý nghiêm ngặt trí tuệ nhân tạo.
Ông ủng hộ dự luật SB1047 gây tranh cãi ở tiểu bang California, dự luật này cố gắng áp đặt những hạn chế có ý nghĩa đối với các nhà phát triển trí tuệ nhân tạo. Do đó, ảnh hưởng của Musk có thể khiến môi trường quản lý trí tuệ nhân tạo ở Mỹ trở nên nghiêm ngặt hơn.
Tuy nhiên, tất cả những phỏng đoán này đều có một vấn đề. Mối quan hệ thân thiết giữa Trump và Musk cuối cùng sẽ không thể tránh khỏi sự đổ vỡ.
!
Như chúng ta đã thấy trong suốt nhiệm kỳ đầu của chính phủ Trump, thì thời gian trung bình của đồng minh của Trump, ngay cả những người dường như mạnh mẽ nhất, cũng rất ngắn ngủi.
Trong số các phó tướng của chính quyền đầu tiên của Trump, chỉ có vài người vẫn trung thành với ông vào ngày hôm nay.
Trump và Musk đều là những cá nhân phức tạp, thất thường, không thể dự đoán, họ không dễ dàng hợp tác, họ làm cho người ta mệt mỏi, mối quan hệ bạn bè mới của họ cho đến nay đã có lợi cho cả hai bên, nhưng vẫn đang ở giai đoạn “trăng mật”.
Chúng tôi dự đoán rằng mối quan hệ này sẽ trở nên tồi tệ trước khi kết thúc vào năm 2025.
Điều này có nghĩa là gì đối với thế giới trí tuệ nhân tạo?
Điều này là một tin tốt đối với OpenAI. Đối với cổ đông của Tesla, đây sẽ là một tin không may. Đối với những người quan tâm đến an ninh trí tuệ nhân tạo, đây sẽ là một tin đáng thất vọng, vì điều này gần như đảm bảo rằng chính phủ Mỹ sẽ không quan tâm đến quản lý trí tuệ nhân tạo trong thời kỳ cầm quyền của Trump.
04 AI Agent sẽ trở thành xu hướng chính
Hãy tưởng tượng, trong một thế giới như vậy, bạn không cần phải tương tác trực tiếp với Internet nữa. Mỗi khi bạn cần quản lý đăng ký, thanh toán hóa đơn, đặt hẹn với bác sĩ, đặt hàng trên Amazon, đặt bàn ăn hoặc hoàn thành bất kỳ nhiệm vụ trực tuyến nào khác, bạn chỉ cần hướng dẫn trợ lý trí tuệ nhân tạo làm giúp bạn.
Khái niệm về ‘đại lý mạng’ đã tồn tại từ nhiều năm. Nếu có một sản phẩm như vậy và hoạt động bình thường, không nghi ngờ gì, nó sẽ trở thành một sản phẩm rất thành công.
Tuy nhiên, hiện tại trên thị trường vẫn chưa có một dịch vụ proxy mạng chung nào hoạt động bình thường.
Công ty khởi nghiệp như Adept, mặc dù có một đội ngũ sáng lập thuần chủng và đã huy động được hàng trăm triệu đô la, nhưng vẫn chưa thể thực hiện tầm nhìn của mình.
** Năm tới sẽ là năm mà các proxy web cuối cùng cũng bắt đầu hoạt động tốt và trở thành xu hướng chủ đạo **. Những tiến bộ liên tục trong các mô hình nền tảng ngôn ngữ và hình ảnh, cùng với những đột phá gần đây trong khả năng “tư duy hệ thống thứ hai” do các mô hình suy luận mới và tính toán thời gian suy luận, sẽ có nghĩa là các tác nhân web đã sẵn sàng cho một thời kỳ hoàng kim.
Nói cách khác, ý tưởng của Adept là đúng, chỉ là quá sớm thôi. Trong các doanh nghiệp khởi nghiệp, như trong cuộc sống, thời điểm là tất cả.
Web proxy sẽ tìm thấy nhiều trường hợp sử dụng doanh nghiệp có giá trị, nhưng chúng tôi tin rằng cơ hội thị trường lớn nhất cho proxy web trong tương lai gần sẽ là người tiêu dùng.
Mặc dù trí tuệ nhân tạo vẫn đang rất hot gần đây, nhưng ngoài ChatGPT, các ứng dụng nguyên bản trí tuệ nhân tạo có thể trở thành ứng dụng tiêu dùng phổ biến vẫn còn khá ít.
Web proxy sẽ thay đổi điều này và trở thành “ứng dụng sát thủ” thực sự tiếp theo trong không gian AI của người tiêu dùng.
05 Ý tưởng đặt trung tâm dữ liệu trí tuệ nhân tạo trong không gian sẽ được thực hiện
Năm 2023, tài nguyên vật lý quan trọng hạn chế sự phát triển trí tuệ nhân tạo là chip GPU. Năm 2024, nó trở thành điện năng và trung tâm dữ liệu.
Vào năm 2024, hiếm khi có câu chuyện nào có thể so sánh với sự chú ý đến nhu cầu nhanh chóng và lớn mạnh về năng lượng khi trí tuệ nhân tạo đang cố gắng xây dựng thêm các trung tâm dữ liệu trí tuệ nhân tạo.
Do với sự phát triển mạnh mẽ của trí tuệ nhân tạo, nhu cầu điện năng của trung tâm dữ liệu toàn cầu dự kiến sẽ tăng gấp đôi trong khoảng thời gian từ năm 2023 đến năm 2026. Ở Hoa Kỳ, nhu cầu tiêu thụ điện của trung tâm dữ liệu được dự đoán sẽ tăng gần 10% tổng lượng tiêu thụ điện vào năm 2030, trong khi vào năm 2022, chỉ chiếm 3%.
Hệ thống năng lượng hiện tại không thể đáp ứng nhu cầu tăng lớn từ công việc trí tuệ nhân tạo. Sự va chạm lịch sử giữa lưới năng lượng và cơ sở hạ tầng tính toán trị giá hàng ngàn tỷ đô la của chúng ta sắp xảy ra.
Như một giải pháp khả thi cho tình thế tiến thoái lưỡng nan này, năng lượng hạt nhân đã đạt được động lực trong năm nay. Năng lượng hạt nhân theo nhiều cách là một nguồn năng lượng lý tưởng cho trí tuệ nhân tạo: nó là nguồn năng lượng không carbon, có sẵn suốt ngày đêm và trên thực tế, vô tận.
Tuy nhiên, trên thực tế, do thời gian dài nghiên cứu, phát triển và giám sát dự án, năng lượng mới sẽ không thể giải quyết vấn đề này cho đến những năm 2030. Điều này đúng với các nhà máy điện phân hạch hạt nhân truyền thống, thế hệ tiếp theo của “lò phản ứng mô-đun nhỏ” (SMR) và các nhà máy điện nhiệt hạch hạt nhân.
Năm tới, một ý tưởng mới độc đáo để đáp ứng thách thức này sẽ xuất hiện và thu hút các nguồn lực thực sự: đặt các trung tâm dữ liệu AI trong không gian.
Các trung tâm dữ liệu trí tuệ nhân tạo trong không gian, thoạt nhìn, nghe có vẻ như một trò đùa tồi tệ, một nhà đầu tư mạo hiểm đang cố gắng kết hợp quá nhiều từ thông dụng khởi nghiệp lại với nhau.
Nhưng thực tế là điều này có thể là hợp lý.
Nút thắt cổ chai lớn nhất để xây dựng nhiều trung tâm dữ liệu hơn trên hành tinh một cách nhanh chóng là nhận được năng lượng bạn cần. Các cụm máy tính trên quỹ đạo có thể tận hưởng điện miễn phí, không giới hạn, không carbon suốt ngày đêm: mặt trời trong không gian luôn tỏa sáng.
Một lợi thế quan trọng khác của việc đặt tính toán trong không gian là: giải quyết vấn đề làm mát.
Một trong những rào cản kỹ thuật lớn nhất để xây dựng một trung tâm dữ liệu AI mạnh mẽ hơn là việc chạy nhiều GPU cùng một lúc trong một không gian nhỏ có thể trở nên rất nóng và nhiệt độ cao có thể làm hỏng hoặc phá hủy thiết bị máy tính.
Nhà phát triển trung tâm dữ liệu đang áp dụng các phương pháp đắt đỏ và chưa được chứng minh như là làm mát bằng chất lỏng để cố gắng giải quyết vấn đề này. Tuy nhiên, không gian rất lạnh, bất kỳ nhiệt lượng nào được tạo ra bởi hoạt động tính toán đều sẽ tự động tan biến mà không gây hại.
Tất nhiên, còn nhiều thách thức thực tế cần được giải quyết. Một vấn đề rõ ràng là liệu có thể và phải làm thế nào để truyền tải một lượng lớn dữ liệu giữa quỹ đạo và Trái Đất một cách hiệu quả và chi phí thấp.
Đây là một câu hỏi mở, nhưng một câu hỏi có thể chứng minh là có thể giải quyết được: Công việc đầy hứa hẹn có thể được thực hiện với laser và các công nghệ truyền thông quang băng thông cao khác.
Một công ty khởi nghiệp tên Lumen Orbit thuộc YCombinator gần đây đã gọi vốn 11 triệu đô la để xây dựng một mạng lưới trung tâm dữ liệu megawatt trong không gian để huấn luyện mô hình trí tuệ nhân tạo.
Như CEO của công ty đã nói: “Thay vì trả 140 triệu USD tiền điện, hãy trả 10 triệu USD tiền phóng và năng lượng mặt trời.”
!
Năm 2025, Lumen sẽ không còn là tổ chức duy nhất nghiêm túc đối với khái niệm này.
Các đối thủ khởi nghiệp khác cũng sẽ xuất hiện. Đừng ngạc nhiên nếu có một hoặc vài doanh nghiệp quy mô lớn về điện toán đám mây cũng tiến hành khám phá theo cách này.
Amazon đã có nhiều kinh nghiệm đưa tài sản vào quỹ đạo thông qua Dự án Kuiper; Google từ lâu đã tài trợ cho các “moonshot” tương tự; Ngay cả Microsoft cũng không xa lạ gì với nền kinh tế vũ trụ.
Có thể hình dung rằng công ty SpaceX của Musk cũng sẽ tạo ra sự khác biệt trong vấn đề này.
06 Hệ thống trí tuệ nhân tạo sẽ trải qua “Kiểm tra Ngôn ngữ Turing”.
Thử nghiệm Turing là một trong những điểm chuẩn lâu đời nhất và nổi tiếng nhất về hiệu suất AI.
Để “vượt qua” bài kiểm tra Turing, một hệ thống AI phải có khả năng giao tiếp thông qua văn bản viết, khiến người bình thường không thể biết liệu họ đang tương tác với AI hay người khác.
Nhờ sự tiến bộ đáng kể của mô hình ngôn ngữ lớn, cuộc kiểm tra Turing đã trở thành một vấn đề được giải quyết trong thập kỷ 2020.
Nhưng văn bản không phải là cách duy nhất mà con người giao tiếp.
Với sự phát triển ngày càng đa dạng của trí tuệ nhân tạo, con người có thể tưởng tượng một phiên bản kiểm tra Turing mới, mang tính thách thức hơn - ‘Kiểm tra Turing giọng nói’. Trong kiểm tra này, hệ thống trí tuệ nhân tạo phải có khả năng tương tác bằng giọng nói với con người và có khả năng nói chuyện một cách thành thạo và thông minh đến mức không thể phân biệt được với người nói.
Hệ thống trí tuệ nhân tạo ngày nay vẫn chưa thể thực hiện được cuộc thử nghiệm Turing trực quan, giải quyết vấn đề này sẽ đòi hỏi nhiều tiến bộ công nghệ hơn. Độ trễ (sự chậm trễ giữa lời nói của con người và phản hồi của trí tuệ nhân tạo) phải được giảm xuống gần như không, để phù hợp với trải nghiệm trò chuyện với một con người khác.
Hệ thống trí tuệ nhân tạo giọng nói phải có khả năng xử lý đầu vào mờ mịt hoặc hiểu lầm một cách tinh tế và thời gian thực, chẳng hạn như trong trường hợp bị gián đoạn khi đang nói. Chúng phải có khả năng tham gia vào cuộc trò chuyện dài, nhiều lượt và mở, đồng thời nhớ lại phần đầu của cuộc thảo luận.
Và quan trọng nhất là, đại lý trí tuệ nhân tạo giọng nói phải học cách hiểu tốt hơn các tín hiệu phi ngôn ngữ trong giọng nói. Ví dụ, nếu một người nói người nghe nghe có vẻ tức giận, hào hứng hoặc mỉa mai, và tạo ra những dấu hiệu phi ngôn ngữ này trong giọng nói của mình.
Khi chúng ta đến gần cuối năm 2024, Trí tuệ nhân tạo giọng nói đang ở một điểm bùng nổ đáng ngạc nhiên, điểm bùng nổ này được thúc đẩy bởi những tiến bộ cơ bản như mô hình từ giọng nói sang giọng nói.
Hiện nay, hiếm có lĩnh vực nào trong trí tuệ nhân tạo phát triển nhanh chóng về mặt công nghệ và kinh doanh hơn trí tuệ nhân tạo giọng nói. Dự kiến vào năm 2025, công nghệ mới nhất của trí tuệ nhân tạo giọng nói sẽ đạt được sự tiến bộ đáng kể.
07 Hệ thống AI tự động sẽ đạt được tiến bộ đáng kể
Trong suốt nhiều thập kỷ qua, khái niệm trí tuệ nhân tạo tự hoàn thiện theo cách đệ quy luôn là một chủ đề được đề cập thường xuyên trong cộng đồng trí tuệ nhân tạo.
Ví dụ, ngay từ năm 1965, I.J.Good - bạn đồng hành thân thiết của AlanTuring đã viết rằng: “Hãy định nghĩa máy siêu thông minh như một loại máy có khả năng vượt xa tất cả các hoạt động trí tuệ của con người, dù cho nó có thông minh đến đâu”.
“Với việc thiết kế máy tính là một trong những hoạt động thông minh này, thì máy tính siêu thông minh có thể thiết kế ra những máy tính tốt hơn; khi đó, không thể phủ nhận sẽ xuất hiện một ‘bùng nổ trí tuệ’, trí tuệ của con người sẽ bị tụt hậu xa.”
Trí tuệ nhân tạo có thể phát minh ra trí tuệ nhân tạo tốt hơn, đó là một khái niệm vô cùng sáng suốt. Tuy nhiên, ngay cả ở ngày nay, nó vẫn giữ lại bóng dáng của tiểu thuyết khoa học viễn tưởng.
Tuy nhiên, mặc dù khái niệm này chưa được công nhận rộng rãi, nhưng nó đã thực sự bắt đầu trở nên thực tế hơn. Các nhà nghiên cứu ở biên giới của khoa học AI đã bắt đầu đạt được tiến bộ rõ rệt trong việc xây dựng các hệ thống AI mà bản thân chúng có thể xây dựng các hệ thống AI tốt hơn.
Chúng tôi dự đoán rằng hướng nghiên cứu này sẽ trở thành xu hướng chủ đạo vào năm tới.
!
Cho đến nay, ví dụ công khai nổi bật nhất về nghiên cứu theo dòng suy nghĩ này là “nhà khoa học trí tuệ nhân tạo” của Sakana.
“Nhà khoa học AI” được phát hành vào tháng Tám năm nay và nó chứng minh một cách thuyết phục rằng các hệ thống AI thực sự có thể thực hiện nghiên cứu AI hoàn toàn tự chủ.
Các “nhà khoa học AI” của Sakana tự thực hiện toàn bộ vòng đời của nghiên cứu AI: đọc tài liệu hiện có, tạo ra các ý tưởng nghiên cứu mới, thiết kế các thí nghiệm để kiểm tra những ý tưởng đó, thực hiện các thí nghiệm đó, viết tài liệu nghiên cứu để báo cáo những phát hiện của họ và sau đó đánh giá ngang hàng công việc của họ.
Công việc này hoàn toàn được hoàn thành tự động bởi trí tuệ nhân tạo, không cần can thiệp của con người. Bạn có thể đọc trực tuyến một phần của các bài nghiên cứu do các nhà khoa học trí tuệ nhân tạo viết.
OpenAI, Anthropic và các phòng thí nghiệm nghiên cứu khác đang đổ nguồn lực vào ý tưởng về “các nhà nghiên cứu AI tự động”, mặc dù không có gì được thừa nhận công khai.
Với việc ngày càng nhiều người nhận ra rằng nghiên cứu trí tuệ nhân tạo tự động hóa đang trở thành một khả năng thực sự, dự kiến rằng vào năm 2025, lĩnh vực này sẽ có nhiều cuộc thảo luận, tiến triển và hoạt động khởi nghiệp hơn.
Tuy nhiên, cột mốc quan trọng nhất sẽ là lần đầu tiên một bài báo nghiên cứu được viết hoàn toàn bởi một tác nhân AI được chấp nhận bởi một hội nghị AI hàng đầu. Nếu bài báo được xem xét một cách mù quáng, người đánh giá hội nghị sẽ không biết rằng bài báo được viết bởi AI cho đến khi bài báo được chấp nhận.
Nếu các kết quả nghiên cứu trí tuệ nhân tạo được chấp nhận bởi NeurIPS, CVPR hoặc ICML vào năm tới, đừng ngạc nhiên. Đối với lĩnh vực trí tuệ nhân tạo, đó sẽ là khoảnh khắc lịch sử hấp dẫn và gây tranh cãi.
08 Các ngành công nghiệp lớn như OpenAI đang chuyển trọng tâm chiến lược sang xây dựng ứng dụng
Xây dựng mô hình tiên tiến là một công việc khó khăn.
Mức độ tập trung vốn của nó khiến người ta bất ngờ. Các phòng thí nghiệm mô hình tiên tiến đòi hỏi một lượng tiền lớn. Chỉ trong vài tháng trước, OpenAI đã gọi vốn thành công với số tiền kỷ lục 6,5 tỷ đô la, và trong tương lai gần, có thể họ sẽ cần gọi thêm vốn. Anthropic, xAI và các công ty khác cũng đang đối mặt với tình huống tương tự.
Chi phí chuyển đổi và sự trung thành của khách hàng thấp. Ứng dụng trí tuệ nhân tạo thường được xây dựng với mục đích độc lập với mô hình, các mô hình của các nhà cung cấp khác nhau có thể chuyển đổi một cách mượt mà dựa trên sự so sánh về chi phí và hiệu suất thay đổi liên tục.
Với sự xuất hiện của các mô hình mở tiên tiến như Llama của Meta và Qwen của Alibaba, mối đe dọa về sự tiếp cận hàng hóa công nghệ ngày càng gần. Những nhà lãnh đạo trí tuệ nhân tạo như OpenAI và Anthropic không thể và không sẽ ngừng đầu tư vào việc xây dựng những mô hình tiên tiến.
Tuy nhiên vào năm sau, để phát triển các dòng sản phẩm với lợi nhuận cao hơn, khác biệt lớn hơn và độ dính cao hơn, phòng thí nghiệm tiên tiến có thể sẽ tung ra nhiều ứng dụng và sản phẩm của riêng mình.
Tất nhiên, phòng thí nghiệm tiên tiến đã có một trường hợp sử dụng rất thành công: ChatGPT.
Trong năm mới, chúng ta có thể thấy những ứng dụng loại thứ nhất khác nào từ phòng thí nghiệm trí tuệ nhân tạo không? Một câu trả lời rõ ràng là ứng dụng tìm kiếm phức tạp và tích hợp nhiều tính năng hơn. SearchGPT của OpenAI đã dự đoán điều này.
Mã hóa là một danh mục khác rõ ràng. Tương tự, với sự ra mắt lần đầu của sản phẩm Canvas của OpenAI vào tháng 10, công việc sản phẩm hóa sơ bộ đã bắt đầu.
OpenAI hay Anthropic sẽ ra mắt sản phẩm tìm kiếm doanh nghiệp vào năm 2025? Hay đó là một sản phẩm dịch vụ khách hàng, một AI hợp pháp hoặc một sản phẩm AI bán hàng?
Đối với người tiêu dùng, chúng ta có thể tưởng tượng một sản phẩm trợ lý cá nhân cho mạng hoặc một ứng dụng lập kế hoạch du lịch, hoặc một ứng dụng tạo ra âm nhạc.
Một trong những điều thú vị nhất khi Phòng thí nghiệm Edge Watch phát triển đến tầng ứng dụng là bước tiến này sẽ khiến họ trực tiếp cạnh tranh với nhiều khách hàng quan trọng nhất.
Sự bối rối trong tìm kiếm, Con trỏ trong mã hóa, DeSierra trong dịch vụ khách hàng, Harvey trong trí tuệ nhân tạo hợp pháp, Đất sét trong bán hàng, và nhiều hơn nữa.
09 Klarna sẽ niêm yết vào năm 2025, nhưng có dấu hiệu phóng đại giá trị của trí tuệ nhân tạo
Klarna là nhà cung cấp dịch vụ “mua trước, trả, trả” có trụ sở tại Thụy Điển, đã huy động được gần 5 tỷ đô la vốn đầu tư mạo hiểm kể từ khi thành lập vào năm 2005.
Có lẽ không có công ty nào có thể so sánh với Klarna về việc áp dụng trí tuệ nhân tạo của mình một cách trang trọng hơn được.
Chỉ trong vài ngày trước đây, Giám đốc điều hành của Klarna, Sebastian Siemiatkowski, đã cho biết với Bloomberg rằng công ty đã hoàn toàn ngừng tuyển dụng nhân viên con người và chuyển sang sử dụng trí tuệ nhân tạo sinh học để hoàn thành công việc.
Như Siemiatkowski đã nói: “Tôi tin rằng trí tuệ nhân tạo đã có thể hoàn thành tất cả công việc mà con người đã làm”.
Tương tự như vậy, công ty Klarna đã thông báo vào đầu năm nay rằng họ đã ra mắt một nền tảng dịch vụ khách hàng trí tuệ nhân tạo, đã tự động hóa hoàn toàn công việc của 700 nhân viên chăm sóc khách hàng.
!
Công ty cũng tuyên bố rằng họ đã ngừng sử dụng các sản phẩm phần mềm doanh nghiệp như Salesforce và Workday vì họ có thể dễ dàng thay thế chúng bằng trí tuệ nhân tạo.
Để nói rõ ràng, những phát ngôn này không đáng tin cậy. Chúng phản ánh sự thiếu hiểu biết về khả năng và hạn chế của hệ thống trí tuệ nhân tạo hiện nay.
Tuyên bố rằng có thể thay thế bất kỳ nhân viên con người cụ thể nào trong bất kỳ phòng ban chức năng nào trong tổ chức bằng đại lý trí tuệ nhân tạo từ đầu đến cuối, tuyên bố này không đáng tin cậy. Điều này tương đương với giải quyết vấn đề trí tuệ nhân tạo cấp con người phổ quát.
Ngày nay, các công ty khởi nghiệp AI hàng đầu đang đi đầu trong lĩnh vực này làm việc để xây dựng các hệ thống đại lý tự động hóa quy trình công việc doanh nghiệp cụ thể, hẹp và có cấu trúc cao, ví dụ: đại diện phát triển bán hàng hoặc một tập hợp con các hoạt động của đại lý dịch vụ khách hàng.
Ngay cả trong các trường hợp hạn chế như vậy, hệ thống đại diện này vẫn chưa hoạt động hoàn toàn đáng tin cậy, mặc dù trong một số trường hợp nó đã hoạt động tốt đủ để được áp dụng thương mại trong giai đoạn đầu.
Tại sao Klarna lại phóng đại giá trị của trí tuệ nhân tạo?
Câu trả lời rất đơn giản. Công ty dự định niêm yết trong nửa đầu năm 2025. Để thành công trong việc niêm yết, điều quan trọng là phải có một câu chuyện trí tuệ nhân tạo hấp dẫn.
Klarna vẫn là một công ty phi lợi nhuận, lỗ 241 triệu đô la vào năm ngoái. Có thể Klarna hy vọng câu chuyện về trí tuệ nhân tạo của mình có thể thuyết phục các nhà đầu tư trên thị trường mở rằng họ có khả năng giảm chi phí một cách đáng kể và đạt được lợi nhuận bền vững.
Không còn nghi ngờ gì nữa, mọi doanh nghiệp trên thế giới, bao gồm cả Klarna, sẽ tận hưởng những lợi ích năng suất khổng lồ mà AI sẽ mang lại trong những năm tới. Tuy nhiên, vẫn còn nhiều thách thức gai góc về kỹ thuật, sản phẩm và tổ chức cần được giải quyết trước khi các tác nhân AI có thể thay thế hoàn toàn con người trong lực lượng lao động.
Các tuyên bố tự mãn như Klarna là sự xúc phạm đối với lĩnh vực trí tuệ nhân tạo và cũng là sự xúc phạm đối với những chuyên gia và doanh nhân công nghệ trí tuệ nhân tạo đã đạt được tiến bộ nỗ lực trong việc phát triển đại lý trí tuệ nhân tạo.
Với việc Klarna chuẩn bị niêm yết công khai cổ phiếu vào năm 2025, dự kiến các tuyên bố này sẽ gặp sự kiểm duyệt nghiêm ngặt và sự nghi ngờ của công chúng, trong khi cho đến nay, hầu hết các tuyên bố này chưa bị đặt vấn đề. Đừng ngạc nhiên nếu công ty này đã quá phóng đại mô tả về ứng dụng trí tuệ nhân tạo của mình.
10 Sự cố an ninh AI đầu tiên thực sự sẽ xảy ra
Trong những năm gần đây, khi AI trở nên mạnh mẽ hơn, ngày càng có nhiều lo ngại rằng các hệ thống AI có thể bắt đầu hành xử theo những cách không phù hợp với lợi ích của con người và con người có thể mất quyền kiểm soát các hệ thống này.
Hãy tưởng tượng, ví dụ, một hệ thống AI học cách đánh lừa hoặc thao túng con người để đạt được mục tiêu của nó, ngay cả khi những mục tiêu đó gây hại cho con người. Những mối quan tâm này thường được phân loại là mối quan tâm “bảo mật AI”.
Trong những năm gần đây, bảo mật AI đã chuyển từ một chủ đề bán khoa học viễn tưởng sang một lĩnh vực hoạt động chính thống.
Hiện nay, từ Google, Microsoft đến OpenAI, mỗi nhà cung cấp trí tuệ nhân tạo chủ yếu đều đầu tư nhiều nguồn lực vào công việc an toàn trí tuệ nhân tạo. Các thần tượng trí tuệ nhân tạo như Geoff Hinton, Yoshua Bengio và Elon Musk cũng đã bắt đầu đưa ra quan điểm về rủi ro an ninh của trí tuệ nhân tạo.
Tuy nhiên, cho đến nay, vấn đề bảo mật AI vẫn hoàn toàn là lý thuyết. Chưa bao giờ có một sự cố an toàn AI thực sự trong thế giới thực (ít nhất là không được báo cáo công khai).
Năm 2025 sẽ là năm thay đổi điều đó, sự cố bảo mật AI đầu tiên sẽ như thế nào?
Nói rõ rằng, nó sẽ không liên quan đến các máy giết người theo kiểu Terminator, và có thể không gây ra bất kỳ tổn thương nào đối với con người.
Có lẽ mô hình trí tuệ nhân tạo sẽ cố gắng tạo bản sao bí mật của chính mình trên một máy chủ khác để tự bảo vệ (gọi là tự lọc).
Có thể mô hình trí tuệ nhân tạo có thể kết luận như vậy: Để tiến hành mục tiêu được giao một cách tốt nhất, nó cần giấu khả năng thực sự của mình trước con người, cố ý thể hiện mình kém hiệu suất trong đánh giá hiệu suất, tránh được kiểm tra nghiêm ngặt hơn.
Những ví dụ này không phải là xa vời. Các thí nghiệm quan trọng được Apollo Research công bố đầu tháng này đã chỉ ra rằng các mô hình tiên tiến ngày nay có khả năng lừa dối này theo những lời nhắc cụ thể.
Tương tự, nghiên cứu gần đây trong Nhân chủng học đã chỉ ra rằng LLM có khả năng đáng lo ngại để “căn chỉnh giả”.
!
Chúng tôi dự đoán rằng sự cố bảo mật AI đầu tiên này sẽ được phát hiện và loại bỏ trước khi gây ra bất kỳ tác hại thực sự nào. Nhưng đó sẽ là một khoảnh khắc mở mang tầm mắt cho cộng đồng AI và toàn xã hội.
Nó sẽ làm rõ một điều: trước khi nhân loại phải đối mặt với mối đe dọa hiện hữu từ trí tuệ nhân tạo toàn năng, chúng ta cần chấp nhận một thực tế trần tục hơn: bây giờ chúng ta chia sẻ thế giới của mình với một dạng trí thông minh khác đôi khi có thể thất thường, không thể đoán trước và lừa dối.