Anthropic ฟ้องรัฐบาลสหรัฐอเมริกา! เรียกร้องให้ยกเลิกคำสั่งห้าม "ความเสี่ยงในห่วงโซ่อุปทาน" ของกระทรวงกลาโหม

動區BlockTempo

บริษัทด้านปัญญาประดิษฐ์ Anthropic กับรัฐบาลสหรัฐฯ ยังคงมีความขัดแย้งที่ทวีความรุนแรงขึ้นอย่างต่อเนื่อง ตามรายงานของ Reuters กระทรวงกลาโหมสหรัฐฯ (Pentagon) ได้ประกาศเมื่อไม่นานมานี้ว่าได้จัดตั้ง Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน” (supply-chain risk) ซึ่งเป็นการจำกัดการใช้งานเทคโนโลยี AI ของบริษัทในสัญญาทางทหาร Anthropic โต้แย้งว่าการตัดสินใจนี้ไม่มีพื้นฐานทางกฎหมาย และได้ยื่นฟ้องต่อศาลรัฐบาลกลางเพื่อขอให้เพิกถอนการตัดสินดังกล่าว
(ข้อมูลเบื้องต้น: Anthropic กลับมาเจรจาใหม่กับ Pentagon พยายามรักษาความร่วมมือด้านความมั่นคงของ Claude แต่ยังคงยืนหยัดในเส้นทางจริยธรรม)
(ข้อมูลเสริม: CEO ของ Anthropic โจมตีว่า สัญญากับ OpenAI และ Pentagon เป็นคำโกหกทั้งหมด และ Altman ปลอมตัวเป็นทูตสันติภาพ)

สารบัญบทความ

Toggle

  • กระทรวงกลาโหมสหรัฐฯ จัด Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน”
  • จุดโต้แย้ง: AI สามารถใช้ในการเฝ้าระวังและอาวุธได้หรือไม่
  • Anthropic: เห็นว่าการตัดสินใจ “ไม่มีพื้นฐานทางกฎหมาย” จะฟ้องร้อง
  • การใช้งาน AI ในทางทหารและจริยธรรมของบริษัทกำลังเข้มข้นขึ้น

ความขัดแย้งระหว่างบริษัทด้านปัญญาประดิษฐ์ Anthropic กับรัฐบาลสหรัฐฯ ได้เข้าสู่ช่วงการดำเนินคดีทางกฎหมายอย่างเป็นทางการ กระทรวงกลาโหมสหรัฐฯ ได้ประกาศว่าได้จัดตั้ง Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน” ซึ่งเป็นการจำกัดการใช้งานโมเดล AI ของบริษัทในสัญญาทางทหาร โดย Anthropic ได้โต้แย้งอย่างรุนแรงว่า การตัดสินใจนี้ “ไม่เป็นไปตามกฎหมายและไม่มีพื้นฐานทางกฎหมาย” และได้ยื่นฟ้องต่อศาลรัฐบาลกลางเพื่อขอให้เพิกถอนการตัดสินดังกล่าว รวมทั้งสั่งห้ามรัฐบาลดำเนินการตามมาตรการจำกัดดังกล่าว

กระทรวงกลาโหมสหรัฐฯ จัด Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน”

จากรายงานของ Reuters ก่อนหน้านี้ กระทรวงกลาโหมสหรัฐฯ ได้แจ้งอย่างเป็นทางการต่อ Anthropic ว่า บริษัทและเทคโนโลยี AI ของบริษัทได้รับการจัดเป็น “ความเสี่ยงในห่วงโซ่อุปทาน” ซึ่งการตัดสินใจนี้มีผลบังคับใช้ทันที การจัดประเภทนี้มักใช้เพื่อจำกัดผู้จำหน่ายที่อาจก่อให้เกิดความเสี่ยงต่อความมั่นคงของประเทศ และอาจห้ามไม่ให้ผลิตภัณฑ์ของบริษัทปรากฏในกระบวนการจัดซื้อของกองทัพหรือในสัญญาทางทหาร

ในเชิงปฏิบัติ นั่นหมายความว่า ผู้รับเหมาและซัพพลายเออร์ที่ทำงานร่วมกับกองทัพสหรัฐฯ อาจไม่สามารถใช้โมเดล AI ของ Anthropic เช่น ระบบ Claude ที่เป็นที่รู้จักได้ ข้อสังเกตจากภายนอกคือ นี่เป็นกรณีที่หาได้ยากมาก เพราะโดยปกติแล้ว การจัดประเภทเช่นนี้มักใช้กับบริษัทต่างชาติหรือซัพพลายเออร์ที่ถูกมองว่าเป็นภัยต่อความมั่นคงแห่งชาติ มากกว่าบริษัท AI ในประเทศสหรัฐฯ เอง

จุดโต้แย้ง: AI สามารถใช้ในการเฝ้าระวังและอาวุธได้หรือไม่

แก่นของความขัดแย้งนี้อยู่ที่การจำกัดการใช้งานเทคโนโลยี AI ของ Anthropic ตามรายงานของสื่อหลายแห่ง บริษัทได้ชัดเจนปฏิเสธไม่ให้โมเดล AI ของตนถูกนำไปใช้ในสองกลุ่มความเสี่ยงสูง ได้แก่:

  1. ระบบอาวุธอัตโนมัติเต็มรูปแบบ
  2. การเฝ้าระวังประชาชนในสหรัฐฯ ในระดับมหาศาล

อย่างไรก็ตาม กระทรวงกลาโหมสหรัฐฯ ในการเจรจากับบริษัท ต้องการให้โมเดล AI สามารถอนุญาตให้ใช้ใน “ทุกวัตถุประสงค์ที่ถูกกฎหมาย” ทั้งสองฝ่ายไม่สามารถบรรลุข้อตกลงในเรื่องข้อจำกัดด้านความปลอดภัยนี้ จนในที่สุดการเจรจาก็ล้มเหลวและนำไปสู่การประกาศให้ Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน”

Anthropic: เห็นว่าการตัดสินใจ “ไม่มีพื้นฐานทางกฎหมาย” จะฟ้องร้อง

Dario Amodei ซีอีโอของ Anthropic กล่าวว่า บริษัทเชื่อว่าการตัดสินใจของกระทรวงกลาโหม “ไม่มีความชอบธรรมทางกฎหมาย” และเตือนว่าการดำเนินการนี้อาจสร้างบรรทัดฐานอันตรายให้กับรัฐบาลในการลงโทษบริษัทต่าง ๆ Anthropic ได้ยื่นฟ้องต่อศาลรัฐบาลกลางเพื่อขอให้เพิกถอนการตัดสินและสั่งห้ามรัฐบาลดำเนินการตามมาตรการจำกัดดังกล่าว

บริษัทชี้ว่า “การจัดประเภทเป็นความเสี่ยงในห่วงโซ่อุปทาน” โดยปกติแล้วใช้กับบริษัทต่างชาติ และการนำไปใช้กับบริษัท AI ในสหรัฐฯ อาจส่งผลกระทบอย่างลึกซึ้งต่ออุตสาหกรรมเทคโนโลยีและรูปแบบความร่วมมือระหว่างภาครัฐและเอกชน

การใช้งาน AI ในทางทหารและจริยธรรมของบริษัทกำลังเข้มข้นขึ้น

นักวิเคราะห์ชี้ว่า คดีนี้สะท้อนให้เห็นถึงความท้าทายใหม่ที่อุตสาหกรรม AI กำลังเผชิญ เมื่อโมเดลขนาดใหญ่เริ่มเข้าสู่ด้านการทหารและความมั่นคงของประเทศ บริษัทจะสามารถจำกัดการใช้งานของรัฐบาลต่อเทคโนโลยีของตนได้หรือไม่?

นักนโยบายบางกลุ่มเชื่อว่า หากรัฐบาลสามารถลงโทษทางเศรษฐกิจบริษัทที่ตั้งข้อจำกัดด้านความปลอดภัยได้ ก็อาจลดอำนาจในการตัดสินใจด้านความปลอดภัยและจริยธรรมของ AI ของบริษัทเทคโนโลยีลง ในทางตรงกันข้าม ฝ่ายกองทัพมองว่าเทคโนโลยี AI มีความสำคัญเชิงกลยุทธ์ต่อความมั่นคงของชาติ และไม่ควรได้รับการจำกัดมากเกินไป

ผลลัพธ์ของคดีนี้อาจไม่เพียงแต่เป็นการตัดสินใจว่า Anthropic จะสามารถฟื้นฟูความร่วมมือกับรัฐบาลสหรัฐฯ ได้หรือไม่ แต่ยังอาจเป็นบรรทัดฐานสำคัญสำหรับโมเดลความร่วมมือในอนาคตระหว่างบริษัท AI กับรัฐบาลอีกด้วย

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น