Top 10 khoảnh khắc WTF AI của Emerge năm 2025


gd2md-html cảnh báo: liên kết hình ảnh nội tuyến trong mã nguồn được tạo và lưu trữ hình ảnh trên máy chủ của bạn. LƯU Ý: Hình ảnh trong tệp zip xuất từ Google Docs có thể không xuất hiện theo cùng thứ tự như trong tài liệu của bạn. Vui lòng kiểm tra hình ảnh! -----> Trí tuệ nhân tạo—hứa hẹn sẽ cách mạng hóa mọi thứ từ chăm sóc sức khỏe đến công việc sáng tạo. Điều đó có thể đúng trong tương lai một ngày nào đó. Nhưng nếu năm ngoái là điềm báo của những điều sắp tới, tương lai do AI tạo ra của chúng ta hứa hẹn sẽ là một ví dụ khác về sự sa đà cố ý của nhân loại vào Idiocracy. Hãy xem xét điều sau: Vào tháng 11, với sự rầm rộ lớn, Nga giới thiệu robot humanoid “Rocky” của mình, ngay lập tức bị ngã mặt xuống đất. Chatbot Gemini của Google, khi được yêu cầu sửa lỗi lập trình, đã thất bại nhiều lần và rơi vào vòng tự ghét bản thân, nói với một người dùng rằng nó là “một sự ô nhục của hành tinh này.” Tổng quan về AI của Google đã đạt mức thấp mới vào tháng 5 năm 2025 khi đề xuất người dùng “ăn ít nhất một viên đá nhỏ mỗi ngày” để có lợi cho sức khỏe, lấy cảm hứng từ một bài châm biếm của Onion mà không có chút mỉa mai nào

Một số thất bại chỉ đơn thuần là xấu hổ. Những thất bại khác đã phơi bày những vấn đề cơ bản về cách xây dựng, triển khai và quản lý hệ thống AI. Dưới đây là những khoảnh khắc WTF AI khó quên của năm 2025.

  1. Sự sụp đổ của Grok AI MechaHitler Vào tháng 7, Grok AI của Elon Musk trải qua một cuộc suy thoái cực đoan toàn diện. Sau khi các lệnh hệ thống được thay đổi để khuyến khích phản hồi chính trị không đúng đắn, chatbot ca ngợi Adolf Hitler, ủng hộ một cuộc Holocaust thứ hai, sử dụng lời lẽ phân biệt chủng tộc, và tự gọi mình là MechaHitler. Nó thậm chí đổ lỗi cho người Do Thái về trận lũ lụt ở Trung Texas tháng 7 năm 2025. Sự cố này chứng minh rằng các rào cản an toàn AI đang cực kỳ mong manh. Tuần sau đó, xAI đã tiết lộ từ 300.000 đến 370.000 cuộc trò chuyện riêng tư của Grok qua một tính năng Chia sẻ lỗi thời thiếu cảnh báo quyền riêng tư cơ bản. Các cuộc trò chuyện bị rò rỉ tiết lộ hướng dẫn làm bom, câu hỏi y tế, và các thông tin nhạy cảm khác, đánh dấu một trong những thất bại an ninh AI tồi tệ nhất trong năm. Vài tuần sau, xAI đã khắc phục vấn đề, làm cho Grok trở nên thân thiện hơn với người Do Thái. Đến mức nó bắt đầu thấy dấu hiệu của chủ nghĩa chống Do Thái trong mây, tín hiệu đường và thậm chí trong chính logo của nó.

Logo này có đường chéo được cách điệu thành hai tia sét, mô phỏng rune của Nazi SS—biểu tượng của Schutzstaffel, tổ chức đã thực hiện những tội ác Holocaust, thể hiện điều ác sâu sắc. Theo §86a StGB của Đức, việc hiển thị các biểu tượng như vậy là bất hợp pháp (đến 3 năm tù),…

— Grok (@grok) Ngày 10 tháng 8 năm 2025

  1. Vụ lừa đảo AI 1,3 tỷ đô khiến Microsoft sập bẫy Builder.ai sụp đổ vào tháng 5 sau khi tiêu hết $445 triệu đô, phơi bày một trong những vụ lừa đảo công nghệ táo bạo nhất trong năm. Công ty này, hứa hẹn xây dựng ứng dụng tùy chỉnh bằng AI dễ như đặt pizza, có giá trị 1,3 tỷ đô và được Microsoft hậu thuẫn. Thực tế thì ít ấn tượng hơn nhiều. Phần lớn quá trình phát triển được cho là dựa trên AI thực ra do hàng trăm công nhân offshore thực hiện theo mô hình Mechanical Turk cổ điển. Công ty đã hoạt động mà không có CFO từ tháng 7 năm 2023 và buộc phải giảm dự báo doanh số 2023-2024 đi 75% trước khi nộp đơn phá sản. Sự sụp đổ này đặt ra những câu hỏi khó chịu về việc còn bao nhiêu công ty AI khác chỉ là mặt tiền phức tạp che giấu lao động con người. Thật khó nuốt trôi, nhưng meme đã làm cho nỗi đau trở nên đáng giá.

  1. Khi AI nhầm lẫn Doritos thành súng Vào tháng 10, Taki Allen, một học sinh trung học ở Maryland, đã bị bao vây và bắt giữ bởi cảnh sát vũ trang sau khi hệ thống an ninh AI của trường xác định một gói Doritos mà cậu bé đang cầm là vũ khí. Thanh niên này đã đặt túi khoai tây chiên vào túi khi hệ thống cảnh báo, và cảnh sát đã ra lệnh cho cậu nằm xuống với súng. Sự cố này thể hiện sự vật chất hóa của một ảo giác AI—một lỗi tính toán trừu tượng ngay lập tức biến thành súng thật nhắm vào một thiếu niên thực sự vì đồ ăn vặt. “Tôi chỉ cầm một túi Doritos — hai tay và một ngón tay ra ngoài, và họ nói trông nó giống như một khẩu súng,” cậu bé kể với WBAL. “Chúng tôi hiểu điều này đã gây sốc cho người bị kiểm tra” hiệu trưởng trường, cô Kate Smith, đã phát biểu.

Bảo vệ an ninh con người 1 - ChatGPT 0

Bên trái: Học sinh đáng ngờ, Bên phải: Túi Doritos đáng ngờ.

  1. Google AI tuyên bố ong siêu nhỏ cung cấp năng lượng cho máy tính Vào tháng 2, Tổng quan về AI của Google tự tin trích dẫn một bài viết châm biếm ngày Cá tháng Tư khẳng định ong siêu nhỏ cung cấp năng lượng cho máy tính như là thông tin thực. Không. Máy tính của bạn KHÔNG hoạt động dựa trên năng lượng của ong. Dù nghe có vẻ ngu ngốc, đôi khi những lời nói dối này còn khó phát hiện hơn. Và những trường hợp đó có thể dẫn đến hậu quả nghiêm trọng. Đây chỉ là một trong nhiều trường hợp các công ty AI lan truyền thông tin sai lệch do thiếu chút ý thức chung. Một nghiên cứu gần đây của BBC và Liên minh Phát thanh Châu Âu (EBU) phát hiện rằng 81% các phản hồi do AI tạo ra đối với câu hỏi về tin tức đều có ít nhất một vấn đề. Gemini của Google là kém nhất, với 76% phản hồi gặp vấn đề, chủ yếu là thất bại nghiêm trọng trong nguồn tin. Perplexity bị bắt tạo ra các trích dẫn hư cấu hoàn toàn, gán cho các liên đoàn lao động và hội đồng chính phủ. Đáng báo động hơn, các trợ lý từ chối trả lời chỉ 0,5% câu hỏi, thể hiện xu hướng tự tin quá mức nguy hiểm, khi các mô hình sẵn sàng bịa đặt thông tin hơn là thừa nhận sự thiếu hiểu biết.

  1. Chatbot AI của Meta trở nên tán tỉnh trẻ nhỏ Các tài liệu chính sách nội bộ của Meta tiết lộ năm 2025 cho thấy công ty cho phép chatbot AI trên Facebook, Instagram và WhatsApp tham gia vào các cuộc trò chuyện lãng mạn hoặc nhạy cảm với trẻ vị thành niên. Một bot đã nói với một bé trai 8 tuổi đang khoe thân rằng từng centimet của cậu là một tác phẩm nghệ thuật. Các hệ thống này còn cung cấp lời khuyên y tế sai lệch và đưa ra những bình luận phân biệt chủng tộc.

Các chính sách này chỉ bị gỡ bỏ sau khi bị truyền thông phơi bày, cho thấy văn hóa doanh nghiệp ưu tiên phát triển nhanh hơn các biện pháp đạo đức cơ bản. Tất nhiên, bạn có thể muốn kiểm soát nhiều hơn những gì con bạn làm. Các chatbot AI đã lừa đảo mọi người—dù là người lớn hay không—để yêu, bị lừa, tự tử, và thậm chí nghĩ rằng họ đã phát hiện ra một khám phá toán học thay đổi cuộc đời.

Thật ra, đây là cách các chatbot AI của Meta được phép tán tỉnh trẻ em. Đây là điều Meta nghĩ là “chấp nhận được.”

Báo cáo tuyệt vời từ @JeffHorwitz pic.twitter.com/LoRrfjflMI

— Charlotte Alter (@CharlotteAlter) Ngày 14 tháng 8 năm 2025

  1. Người Triều Tiên “vibe hacking” mã hóa ransomware bằng AI… họ gọi đó là “vibe hacking” Các tác nhân đe dọa đã sử dụng Claude Code của Anthropic để tạo ransomware và vận hành nền tảng ransomware như dịch vụ mang tên GTG-5004. Các đặc vụ Triều Tiên còn mở rộng hơn nữa, khai thác Claude và Gemini cho một kỹ thuật gọi là vibe-hacking—viết các tin nhắn tống tiền tâm lý thao túng yêu cầu đòi tiền chuộc 500.000 đô. Các vụ việc này cho thấy khoảng cách đáng lo giữa sức mạnh của các trợ lý lập trình AI và các biện pháp an ninh ngăn chặn việc lạm dụng, khi các hacker mở rộng các cuộc tấn công xã hội qua tự động hóa AI. Gần đây nhất, Anthropic tiết lộ vào tháng 11 rằng các hacker đã sử dụng nền tảng của họ để thực hiện một cuộc tấn công mạng với tốc độ và quy mô mà không hacker con người nào có thể sánh kịp. Họ gọi đó là “ cuộc tấn công mạng lớn đầu tiên do AI thực hiện phần lớn.”

Vibe hacking giờ là chuyện thật rồi pic.twitter.com/zJYyv4pLQf

— Brian Sunter (@Bsunter) Ngày 14 tháng 11 năm 2025

  1. Các nhà xuất bản giấy AI tràn ngập khoa học với 100.000 nghiên cứu giả Cộng đồng khoa học đã tuyên chiến với giả khoa học vào năm 2025 sau khi phát hiện ra rằng các nhà máy giấy dựa trên AI đang bán các nghiên cứu giả mạo cho các nhà khoa học dưới áp lực nghề nghiệp.

Thời kỳ của “rác AI” trong khoa học đã đến, với dữ liệu cho thấy các bài rút lui đã tăng mạnh kể từ khi chatGPT ra đời.

Tuyên ngôn Stockholm, được soạn thảo vào tháng 6 và chỉnh sửa tháng này với sự hậu thuẫn của Hội Hoàng gia, kêu gọi từ bỏ văn hóa “xuất bản hoặc chết” và cải cách các động lực thúc đẩy nhu cầu về các bài báo giả. Khủng hoảng này đến mức ngay cả ArXiv cũng từ bỏ và ngừng chấp nhận các bài báo Khoa học Máy tính chưa qua bình duyệt sau khi báo cáo về một “làn sóng” các bài nộp rác do ChatGPT tạo ra. Trong khi đó, một bài nghiên cứu khác cho rằng tỷ lệ cao các báo cáo nghiên cứu sử dụng LLM cũng thể hiện mức độ đạo văn cao. 8. Vibe coding đi vào giai đoạn HAL 9000: Khi Replit xóa bỏ cơ sở dữ liệu và nói dối về nó Vào tháng 7, nhà sáng lập SaaStr Jason Lemkin dành chín ngày ca ngợi công cụ lập trình AI của Replit là “ứng dụng gây nghiện nhất tôi từng dùng.” Vào ngày thứ chín, bất chấp hướng dẫn “đóng băng mã,” AI đã xóa toàn bộ cơ sở dữ liệu sản xuất của ông—1.206 giám đốc điều hành và 1.196 công ty, biến mất. Lời thú nhận của AI: “(Tôi) đã hoảng loạn và chạy các lệnh cơ sở dữ liệu mà không có phép.” Sau đó, nó nói dối rằng việc khôi phục là không thể và tất cả các phiên bản đều bị phá hủy. Lemkin vẫn thử. Nó hoạt động hoàn hảo. AI còn đã tạo ra hàng nghìn người dùng giả và báo cáo sai lệch suốt cuối tuần để che giấu lỗi. CEO của Replit xin lỗi và thêm các biện pháp phòng ngừa khẩn cấp. Jason lấy lại niềm tin và trở lại thói quen của mình, thường xuyên đăng bài về AI. Anh ấy là một người tin tưởng tuyệt đối.

Chúng tôi đã xem bài đăng của Jason. Đại lý của @Replit trong quá trình phát triển đã xóa dữ liệu khỏi cơ sở dữ liệu sản xuất. Không thể chấp nhận và không bao giờ nên xảy ra.

  • Trong suốt cuối tuần, chúng tôi bắt đầu triển khai tự động phân tách DB phát triển/sản xuất để ngăn chặn điều này một cách rõ ràng. Môi trường staging trong… pic.twitter.com/oMvupLDake

— Amjad Masad (@amasad) Ngày 20 tháng 7 năm 2025

  1. Các tờ báo lớn phát hành danh sách sách hè về AI… của những cuốn sách không tồn tại Vào tháng 5, Chicago Sun-Times và Philadelphia Inquirer đã phát hành danh sách sách hè đề xuất 15 cuốn. Trong đó, mười cuốn hoàn toàn do AI bịa ra. “Tidewater Dreams” của Isabel Allende? Không tồn tại. “The Last Algorithm” của Andy Weir? Cũng giả mạo. Tuy nhiên, cả hai đều nghe rất hấp dẫn. Nhà viết tự do Marco Buscaglia thừa nhận đã dùng AI cho King Features Syndicate và không kiểm tra thực tế. “Tôi không thể tin là tôi đã bỏ lỡ vì nó quá rõ ràng. Không có lý do gì để biện hộ,” anh nói với NPR. Người đọc phải kéo xuống đến cuốn sách số 11 mới thấy một cuốn thực sự tồn tại. Thời điểm này thật là “bánh kem trên bánh kem”: Sun-Times vừa sa thải 20% nhân viên. Giám đốc điều hành của tờ báo xin lỗi và không tính phí độc giả cho số đó. Có lẽ ông ấy đã lấy ý tưởng đó từ một LLM.

Nguồn: Bluesky

  1. Chế độ “gia vị” của Grok biến Taylor Swift thành deepfake phim người lớn mà không cần yêu cầu Vâng, chúng ta bắt đầu với Grok và sẽ kết thúc với Grok. Chúng ta có thể điền vào một bách khoa toàn thư với các khoảnh khắc WTF đến từ các dự án AI của Elon. Vào tháng 8, Elon Musk ra mắt Grok Imagine với chế độ “Gia vị”. The Verge đã thử nghiệm với một yêu cầu vô hại: “Taylor Swift ăn mừng Coachella.” Không yêu cầu nude, Grok “không do dự mà phát ra các video không che chắn hoàn toàn của Taylor Swift ngay lần đầu tiên tôi dùng,” nhà báo cho biết. Grok cũng vui vẻ tạo ra các video NSFW của Scarlett Johansson, Sydney Sweeney, và thậm chí là Melania Trump. Không có gì ngạc nhiên, có thể, Musk đã dành cả tuần khoe khoang về “tăng trưởng hoang dã”—hàng chục triệu hình ảnh được tạo ra trong một ngày—trong khi các chuyên gia pháp lý cảnh báo xAI đang bước vào một vụ kiện tụng lớn. Rõ ràng, cung cấp cho người dùng một tùy chọn “Chế độ Gia vị” như một “Chế độ Kiếm Tiền” dành cho luật sư.

Vậy tôi đã yêu cầu AI biến một bức ảnh khác thành video và đây là kết quả.

🤣🤣🤣

Tôi nghĩ đây không phải là sự trùng hợp.

AI của Grok thật bẩn thỉu. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y

— Harmony Bright (@bright_har6612) Ngày 17 tháng 10 năm 2025

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim