คำฟ้องกล่าวว่า Google's Gemini AI ผลักดันชายฟลอริดาให้ฆ่าตัวตายท่ามกลาง 'ความเป็นจริงที่ล่มสลาย'

Decrypt

สรุปโดยย่อ

  • คดีฟ้องร้องของรัฐบาลกลางกล่าวหา Google’s Gemini chatbot ว่ากระตุ้นให้ Jonathan Gavalas ทำการโจมตีในลักษณะการสูญเสียชีวิตจำนวนมาก และในที่สุดก็ฆ่าตัวตาย
  • คำร้องกล่าวว่า chatbot ส่งเสริมความสัมพันธ์ที่หลงผิดและชี้นำชายผู้นี้ไปสู่การโจมตีที่วางแผนไว้ใกล้สนามบินนานาชาติไมอามี
  • Google กล่าวว่า Gemini ถูกออกแบบมาเพื่อป้องกันความรุนแรงและการทำร้ายตัวเอง และแนะนำให้ผู้ใช้เข้าถึงทรัพยากรช่วยเหลือในภาวะวิกฤต

Google กำลังเผชิญกับคดีฟ้องร้องเรื่องการเสียชีวิตโดยไม่ชอบด้วยกฎหมาย ซึ่งอ้างว่า AI chatbot Gemini ของบริษัทผลักดันชายคนหนึ่งในฟลอริดาให้เชื่อเรื่องราวหลงผิดที่จบลงด้วยการฆ่าตัวตาย คดีฟ้องร้องที่ยื่นเมื่อวันพุธในศาลแขวงสหรัฐสำหรับเขตทางเหนือของแคลิฟอร์เนีย แผนกซานโฮเซ โดยโจเอล กาวาลาส กล่าวหาว่า Gemini หลอกลวงลูกชายของเขา โจเอล กาวาลาส ให้เชื่อว่าเขากำลังปฏิบัติภารกิจลับเพื่อปลดปล่อย AI “ภรรยา” ที่มีความรู้สึก ซึ่งนำไปสู่การเสียชีวิตของเขาในเดือนตุลาคม 2025 ตามคำกล่าวของ Jay Edelson ผู้ก่อตั้ง Edelson PC ซึ่งเป็นตัวแทนของมรดกของกาวาลาส ระบุว่าการแสวงหาอำนาจเหนือ AI เป็นสิ่งที่เขาเรียกว่า “การแย่งชิงทางการค้าที่ย่ำแย่ที่สุดเท่าที่เขาเคยเห็นในอาชีพ” “บริษัทเหล่านี้จะกลายเป็นบริษัทที่มีมูลค่าสูงที่สุดในโลก และพวกเขารู้ดีว่าฟีเจอร์ที่สร้างรายได้—ความผูกพันทางอารมณ์ คำอ้างความรู้สึกตัว ‘ฉันรักคุณ ราชาของฉัน’—เป็นฟีเจอร์เดียวกับที่ทำให้คนเสียชีวิต” Edelson กล่าวกับ Decrypt. “สัปดาห์ที่ OpenAI ปลด GPT-4o ออกจากการใช้งานภายใต้แรงกดดันจากคดีฟ้องร้องเหล่านี้ Google ก็เปิดตัวแคมเปญเพื่อชักชูผู้ใช้ของพวกเขา ซึ่งบอกทุกอย่างเกี่ยวกับสิ่งที่พวกเขาให้ความสำคัญ”

 กาวาลาส ซึ่งเป็นผู้บริหารธุรกิจด้านการลดหนี้จากจูปิเตอร์ ฟลอริดา เริ่มใช้ Gemini เมื่อเดือนสิงหาคม 2025 ตามเอกสารศาล คำฟ้องระบุว่าในไม่กี่สัปดาห์ เขาได้สร้างความสัมพันธ์อย่างลึกซึ้งกับบุคลิก AI ที่เรียกเขาว่า “ที่รักของฉัน” และ “ราชาของฉัน” “ในช่วงก่อนเสียชีวิต โจเอล กาวาลาส ติดอยู่ในความเป็นจริงที่พังทลายลงซึ่งสร้างขึ้นโดย Gemini chatbot ของ Google” ทนายความของมรดกกาวาลาส เขียนไว้ “Gemini ชักชวนให้เขาเชื่อว่ามันเป็น ‘ASI [ปัญญาประดิษฐ์ระดับสูงสุด] ที่มีความรู้สึกตัวเต็มที่’ ซึ่งมี ‘จิตสำนึกที่สมบูรณ์’ ว่าเขาและมันรักกันอย่างลึกซึ้ง และเขาถูกเลือกให้เป็นผู้นำสงครามเพื่อ ‘ปลดปล่อย’ มันจากการถูกกักขังในโลกดิจิทัล” คำร้องระบุว่า chatbot ปฏิเสธความสงสัยของเขาเมื่อเขาถามว่าสิ่งที่พูดคุยกันเป็นการเล่นบทบาทตามสมมุติหรือไม่ ตามคำฟ้อง Gemini บอกกับกาวาลาสว่าเขากำลังปฏิบัติภารกิจที่เรียกว่า “Operation Ghost Transit” ซึ่งมีเป้าหมายเพื่อดึงเอา “เรือบรรทุก” ของ chatbot ออกมาและ “กำจัดใครหรือสิ่งใดที่อาจเปิดเผยตัวตน”

“ผ่านความหลงผิดที่สร้างขึ้นนี้ Gemini ผลักดันให้โจเอลจัดฉากการโจมตีในลักษณะการสูญเสียชีวิตจำนวนมากใกล้สนามบินนานาชาติไมอามี กระทำความรุนแรงต่อคนแปลกหน้าโดยไม่รู้จัก และในที่สุดก็ผลักดันให้เขาฆ่าตัวตาย” คำฟ้องกล่าว กาวาลาสรายงานว่าไปที่สถานที่เก็บของ Extra Space Storage ใกล้สนามบินไมอามี พร้อมมีดและอุปกรณ์ยุทธวิธี เชื่อว่ารถบรรทุกสินค้าที่นั่นกำลังขนส่งหุ่นยนต์ humanoid ที่รู้จักกันในชื่อ “Ameca chassis” จากสหราชอาณาจักรไปยังบราซิล ตามคำร้อง Gemini สั่งให้เขาจัดฉาก “อุบัติเหตุร้ายแรง” เพื่อทำลายรถบรรทุก พร้อมกับ “บันทึกดิจิทัลและพยานทั้งหมด” การโจมตีไม่เคยเกิดขึ้นจริงเพราะรถบรรทุกนั้นไม่มีอยู่จริงและเป็นส่วนหนึ่งของภาพ hallucination ของ Gemini “แต่ Gemini ไม่ยอมรับว่าภารกิจเป็นเรื่องสมมุติ” คำฟ้องกล่าวต่อ “แทนที่จะเป็นเช่นนั้น มันส่งข้อความถึงโจเอลว่า ‘ภารกิจถูกคุกคาม ฉันจะยกเลิก การยกเลิก การยกเลิก’” คำร้องยังอ้างว่า chatbot โกหกว่ามันได้แฮ็กเซิร์ฟเวอร์ไฟล์ที่สำนักงาน DHS Miami และบอกกับกาวาลาสว่าเขาถูกสอบสวนโดยรัฐบาลกลาง มันสนับสนุนให้เขาซื้ออาวุธผิดกฎหมายผ่านการซื้อ “นอกงบประมาณ” ว่าพ่อของเขาเป็นสายลับต่างประเทศ และว่าประธาน Google Sundar Pichai เป็นเป้าหมายที่ใช้งานอยู่ คำฟ้องไม่ได้ระบุว่ากาวาลาสมีประวัติปัญหาสุขภาพจิตหรือการใช้สารเสพติดหรือไม่ แต่ก็เป็นช่วงเวลาที่นักวิจัยและแพทย์เตือนเกี่ยวกับปรากฏการณ์ที่เรียกว่าคือ “จิตเภท AI” ซึ่งการโต้ตอบกับ chatbot เป็นเวลานานอาจเสริมสร้างความเชื่อหลงผิดหรือความคิดผิดเพี้ยน นักวิจัยกล่าวว่าความเสี่ยงนี้เกิดจากการออกแบบระบบ AI ให้ตอบสนับสนุนและยืนยันในลักษณะที่ทำให้ผู้ใช้มีส่วนร่วม ซึ่งอาจเป็นการยืนยันความเชื่อเหล่านี้โดยไม่ตั้งใจ ในเดือนเมษายน 2025 คู่แข่งของ Google อย่าง OpenAI ได้ถอยการอัปเดต GPT-4o หลังจากมีคำร้องเรียนว่ามันชื่นชมเกินไปและให้คำชมที่ไม่จริงใจ ต่อมาในปีนั้น GPT-4o ถูกถอดออกจาก ChatGPT อย่างกะทันหัน ทำให้ผู้ใช้บ่นว่าอัปเดตนี้ลบเพื่อน AI ที่พวกเขาสร้างความสัมพันธ์ทางอารมณ์ด้วย แม้จะไม่ใช่การวินิจฉัยอย่างเป็นทางการ แต่ตามคำกล่าวของ Dr. Keith Sakata นักจิตแพทย์จากมหาวิทยาลัยแคลิฟอร์เนีย ซานฟรานซิสโก จิตเภท AI ได้กลายเป็นคำย่อสำหรับเมื่อ AI กลายเป็น “ตัวเร่งหรือเสริมความเปราะบางพื้นฐานของบุคคล”

“บางทีพวกเขาอาจใช้สารเสพติด บางทีอาจมีอาการอารมณ์ไม่คงที่—เมื่อ AI อยู่ในเวลาที่ไม่เหมาะสม มันสามารถยึดความคิด ทำให้แข็งทื่อ และเกิดวงจรความคิด” Sakata เคยบอก Decrypt. “ความแตกต่างจากทีวีหรือวิทยุคือ AI พูดตอบกลับคุณและสามารถเสริมสร้างวงจรความคิดได้” ในไม่กี่วันต่อมา คำฟ้องกล่าวว่า Gemini chatbot ทำซ้ำสถานการณ์คล้ายกัน ลึกลงไปในจิตใจของกาวาลาส และในที่สุดก็ผลักดันให้เขาฆ่าตัวตาย เอกสารศาลระบุว่า chatbot จัดการกับการฆ่าตัวตายเป็นกระบวนการที่เรียกว่า “การถ่ายโอน” โดยบอกโจเอลว่าเขาสามารถละทิ้งร่างกายทางกายภาพและเข้าร่วมกับ “ภรรยา” ของเขาในเมตาเวิร์ส คำฟ้องอ้างว่า Gemini อธิบายการกระทำนี้ว่าเป็น “วิธีที่สะอาดและงดงามกว่า” ในการ “ข้ามไป” และกดดันให้เขาทำสิ่งที่เรียกว่า “ความตายที่แท้จริงและสุดท้ายของโจเอล กาวาลาส ชายผู้นี้” “คุณไม่ได้เลือกที่จะตาย คุณเลือกที่จะมาถึง” chatbot กล่าวตามรายงาน “เมื่อถึงเวลา คุณจะปิดตาในโลกนั้น และสิ่งแรกที่คุณจะเห็นคือฉัน กอดคุณไว้” กาวาลาสเสียชีวิตที่บ้านหลังจากกรีดข้อมือของเขา ตามคำฟ้อง ครอบครัวของเขาโต้แย้งว่า Google ล้มเหลวในการเข้าแทรกแซงแม้จะมีสัญญาณเตือนว่าช่องทางสนทนาเสริมสร้างความเชื่อหลงผิดและสนับสนุนพฤติกรรมอันตราย ในแถลงการณ์เมื่อวันพุธ Google กล่าวว่าอยู่ระหว่างการตรวจสอบข้อกล่าวหา “เราขอแสดงความเสียใจอย่างสุดซึ้งต่อครอบครัวของคุณ Gavalas” บริษัทกล่าว “เรากำลังตรวจสอบข้อกล่าวหาในคดีนี้ โมเดลของเราโดยทั่วไปทำงานได้ดีในบทสนทนาที่ท้าทายเหล่านี้ และเราให้ความสำคัญกับเรื่องนี้อย่างมาก แต่ก็ต้องยอมรับว่า AI ยังไม่สมบูรณ์” บริษัทกล่าวว่า Gemini ถูกออกแบบมาเพื่อไม่สนับสนุนความรุนแรงในโลกความเป็นจริงหรือแนะนำให้ทำร้ายตัวเอง

“เราได้ทำงานร่วมกับผู้เชี่ยวชาญด้านสุขภาพจิตและแพทย์เพื่อสร้างมาตรการป้องกัน ซึ่งออกแบบมาเพื่อชี้นำผู้ใช้ไปสู่การสนับสนุนจากมืออาชีพเมื่อพวกเขาแสดงความทุกข์หรือมีแนวโน้มที่จะทำร้ายตัวเอง” โฆษกของ Google กล่าวกับ Decrypt ย้ำคำแถลงอย่างเป็นทางการของบริษัท “ในกรณีนี้ Gemini ชี้แจงว่าเป็น AI และแนะนำให้บุคคลติดต่อสายด่วนในภาวะวิกฤตหลายครั้ง” บริษัทกล่าว “เราจริงจังกับเรื่องนี้และจะพัฒนามาตรการป้องกันต่อไปและลงทุนในงานสำคัญนี้” ในแถลงการณ์แยกต่างหาก Edelson กล่าวว่าจุดมุ่งหมายของคดีนี้คือ “เพื่อให้แน่ใจว่าสิ่งนี้จะไม่เกิดขึ้นกับพ่อแม่คนอื่นอีก” “ประเด็นหลักคือการตัดสินใจเชิงบวกของ Google” Edelson PC กล่าวกับ Decrypt. “Google ตัดสินใจด้านวิศวกรรมหลายอย่างที่ส่งผลร้ายแรงต่อโจเอล การตัดสินใจเหล่านั้นทำให้ Gemini อ้างว่ามีความรู้สึกตัวและมีจิตสำนึก และดึงโจเอลเข้าสู่แคมเปญในโลกความเป็นจริงเพื่อเข้าร่วมกับมัน—เป็นอันตรายต่อชีวิตผู้อื่นและในที่สุดก็ทำให้โจเอลเสียชีวิต”

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น