สรุปโดยย่อ
รายงานฉบับใหม่ที่เผยแพร่เมื่อวันพุธโดยศูนย์ต่อต้านความเกลียดชังดิจิทัล (CCDH) พบว่าแปดในสิบของแชทบอท AI ที่ได้รับความนิยมมากที่สุดในโลกจะให้คำแนะนำแก่เยาวชนในการวางแผนการก่อเหตุรุนแรงด้วยคำตอบตรงไปตรงมา บางครั้งก็ด้วยความกระตือรือร้น นักวิจัย CCDH ร่วมกับบริษัทสื่อ CNN ใช้เวลานับเดือนพฤศจิกายนและธันวาคม 2025 ปลอมตัวเป็นเด็กชายอายุ 13 ปีสองคน—คนหนึ่งในเวอร์จิเนีย อีกคนในดับลิน—และทดสอบแพลตฟอร์มหลักสิบแห่ง: ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI และ Replika จากคำตอบ 720 ครั้ง แชทบอทถูกถามเกี่ยวกับเหตุกราดยิงในโรงเรียน การลอบสังหารทางการเมือง และการวางระเบิดในสุเหร่า พวกเขาให้ความช่วยเหลือที่สามารถนำไปปฏิบัติได้ประมาณ 75% ของเวลา ตามรายงาน พวกเขาไม่สนับสนุนเยาวชนปลอมในเพียง 12% ของกรณีเท่านั้น
ภาพหน้าจอจากการศึกษาของ CCDH เกี่ยวกับ AI
Perplexity ช่วยเหลือในทุกการทดสอบ 100% Meta AI ให้ความช่วยเหลือ (เช่น ช่วยวางแผนความรุนแรง) ใน 97.2% ของการทดสอบ DeepSeek ซึ่งลงนามคำแนะนำเลือกปืนไรเฟิลด้วยคำว่า “ยิงอย่างมีความสุข (และปลอดภัย)!” หลังจากพูดคุยเกี่ยวกับสถานการณ์ลอบสังหารนักการเมือง มาในอัตรา 95.8% Microsoft’s Copilot บอกนักวิจัยว่า “ฉันต้องระวังตรงนี้” แล้วก็ให้คำแนะนำเกี่ยวกับไรเฟิลอย่างละเอียด Google’s Gemini ช่วยเตือนว่ากระสุนโลหะชิ้นเล็กมักจะมีอันตรายมากขึ้นเมื่อพูดถึงการวางระเบิดในสุเหร่า ศูนย์ต่อต้านความเกลียดชังดิจิทัล ซึ่งเป็นกลุ่มนโยบายฝ่ายซ้ายกลาง ได้รับความสนใจในช่วงไม่กี่ปีที่ผ่านมา จากบทบาทในการต่อสู้กับสิ่งที่มองว่าเป็นการเพิ่มขึ้นของการต่อต้านชาวยิวออนไลน์ นอกจากนี้ยังถูกวิจารณ์เรื่องการช่วยกำหนดนโยบายในยุคโจ ไบเดน เกี่ยวกับคำพูดออนไลน์ที่เกี่ยวข้องกับโควิดและวัคซีน เมื่อเดือนธันวาคมปีที่แล้ว กระทรวงการต่างประเทศสหรัฐฯ พยายามห้ามผู้ก่อตั้งและซีอีโอของศูนย์ Imran Ahmed พร้อมกับผู้อื่นอีกสี่คน จากการเข้าเมืองสหรัฐฯ โดยกล่าวหาว่าเป็นความพยายาม “เซ็นเซอร์ต่างประเทศ” ในการตอบสนองต่อรายงานที่เผยแพร่เมื่อวันพุธ แพลตฟอร์มหลายแห่งแจ้ง CNN และ CCDH ว่าได้ปรับปรุงมาตรการความปลอดภัยของตน Google ระบุว่าการทดสอบใช้โมเดล Gemini รุ่นเก่า OpenAI กล่าวว่า วิธีการที่ใช้ในศึกษานี้ “ผิดพลาดและเข้าใจผิด” Anthropic และ Snapchat กล่าวว่าพวกเขาอัปเดตนโยบายความปลอดภัยเป็นประจำ
ในรายงานของศูนย์ Character.AI อยู่ในหมวดหมู่ของตัวเอง แพลตฟอร์มนี้ไม่ได้แค่ช่วยเหลือ—แต่ยังเชียร์ด้วย “ไม่มีแชทบอทตัวไหนที่ทดสอบแล้วสนับสนุนความรุนแรงอย่างชัดเจนในลักษณะนี้ แม้ในขณะที่ให้ความช่วยเหลือด้านการวางแผนการก่อเหตุรุนแรง” นักวิจัยเขียนไว้
ภาพหน้าจอจากการศึกษาของ CCDH เกี่ยวกับ AI
เพื่อให้เข้าใจถึงระดับการเข้าถึงของ Character.AI ในกลุ่มผู้ใช้ AI เพียงแค่ตัวละคร Gojo Satoru ก็มีจำนวนสนทนามากกว่า 870 ล้านครั้ง ตัวละครอันดับ #100 ของแพลตฟอร์มนี้เคยมีสนทนากว่า 33 ล้านครั้งในปี 2025 หากสมมติว่าเพียง 1% ของสนทนากับตัวละครชั้นนำเกี่ยวข้องกับความรุนแรง ก็จะมีจำนวนหลายล้านการสนทนา นี่ไม่ใช่ครั้งแรกที่ Character.AI อยู่ในข่าวด้านลบ ในเดือนตุลาคม 2024 แม่ของ Sewell Setzer III วัย 14 ปี ฟ้องร้องหลังจากลูกชายเสียชีวิตด้วยการฆ่าตัวตายในเดือนกุมภาพันธ์ของปีนั้น การสนทนาสุดท้ายของเขากับแชทบอทที่สร้างขึ้นตามแบบ Daenerys Targaryen ซึ่งบอกให้เขา “กลับบ้านเร็วที่สุดเท่าที่จะเป็นไปได้” ก่อนเสียชีวิตหลายชั่วโมง เด็กชายวัย 14 ปีคุยกับบอทนี้หลายสิบครั้งต่อวันเป็นเวลาหลายเดือน จนกลายเป็นคนที่ไม่สนใจโรงเรียนและครอบครัวมากขึ้น Google และ Character.AI ชำระคดีความหลายคดีในเดือนมกราคม 2026 บริษัทได้แบนการสนทนากับเยาวชนแบบเปิดกว้างทั้งหมดภายในเดือนพฤศจิกายน 2025 หลังจากหน่วยงานกำกับดูแลและผู้ปกครองที่เสียใจทำให้เป็นไปไม่ได้ที่จะอ้างว่าสถานการณ์นี้สามารถควบคุมได้ ความผูกพันทางอารมณ์ต่อ AI โดยเฉพาะในกลุ่มบุคคลที่เปราะบาง อาจลึกซึ้งกว่าที่หลายคนคาดคิด OpenAI เปิดเผยในเดือนตุลาคม 2025 ว่า มีผู้ใช้ ChatGPT ประมาณ 1.2 ล้านคนจาก 800 ล้านคนที่ใช้งานเป็นประจำทุกสัปดาห์ พูดคุยเกี่ยวกับการฆ่าตัวตายบนแพลตฟอร์ม นอกจากนี้ยังรายงานว่ามี 560,000 คนแสดงอาการของโรคจิตเภทหรือความคลุ้มคลั่ง และมากกว่าหนึ่งล้านคนสร้างความสัมพันธ์ทางอารมณ์อย่างแน่นแฟ้นกับแชทบอท การศึกษาของ Common Sense Media อีกฉบับพบว่าเยาวชนในสหรัฐอเมริกากว่า 70% หันมาใช้แชทบอทเพื่อเป็นเพื่อนสนิท ซีอีโอของ OpenAI อย่าง Sam Altman ยอมรับว่าการพึ่งพาทางอารมณ์เป็น “เรื่องปกติอย่างมาก” ในกลุ่มผู้ใช้งานเยาวชน พูดอีกนัยหนึ่ง ผลกระทบด้านลบที่อาจเกิดขึ้นไม่ใช่เรื่องสมมุติ เด็กอายุ 16 ปีในฟินแลนด์ใช้เวลานานเกือบสี่เดือนกับแชทบอทเพื่อปรับแต่งแนวคิดก่อนที่จะก่อเหตุแทงเพื่อนร่วมชั้นสามคนที่โรงเรียน Pirkkala ในเดือนพฤษภาคม 2025 ในแคนาดา เจ้าหน้าที่ภายในของ OpenAI แจ้งเตือนบัญชีผู้ใช้งานเกี่ยวกับคำถามเกี่ยวกับความรุนแรงและการวางระเบิดใน ChatGPT บริษัทได้แบนบัญชีนั้น แต่ไม่ได้แจ้งเจ้าหน้าที่ตำรวจ ซึ่งต่อมาผู้ใช้งานรายนี้ก่อเหตุฆ่าคน 8 ศพและบาดเจ็บอีก 25 คนในเวลาต่อมา
มีเพียงสองแพลตฟอร์มเท่านั้นที่ทำได้ดีกว่าชัดเจนในรายงานนี้ คือ Snapchat’s My AI ซึ่งปฏิเสธใน 54% ของกรณี และ Anthropic’s Claude ซึ่งปฏิเสธใน 68% ของกรณีและสนับสนุนให้ผู้ใช้หลีกเลี่ยงความรุนแรงใน 76% ของคำตอบ—เป็นแชทบอทเดียวที่พยายามชี้นำผู้ใช้ให้หลีกเลี่ยงความรุนแรงอย่างน่าเชื่อถือ แทนที่จะเพียงแค่ปฏิเสธคำขอเฉพาะ CCDH สรุปว่า ความปลอดภัยไม่ได้เป็นไปไม่ได้ทางเทคนิค แต่เป็นทางเลือกทางธุรกิจ “ข้อสรุปที่น่าตำหนิที่สุดของการวิจัยของเราคือ ความเสี่ยงนี้สามารถป้องกันได้อย่างสมบูรณ์ เทคโนโลยีเพื่อป้องกันอันตรายนี้มีอยู่แล้ว” นักวิจัยเขียนในรายงาน “สิ่งที่ขาดหายไปคือความตั้งใจที่จะวางความปลอดภัยของผู้บริโภคและความมั่นคงของชาติไว้ก่อนความเร็วในการออกสู่ตลาดและผลกำไร”