ซีอีโอของ Anthropic: Claude ไม่เพียงพอสำหรับการใช้งานทางทหาร คาดหวังว่าจะลงนามในข้อตกลงที่ชัดเจนมากขึ้น

ChainNewsAbmedia

ซีอีโอของ Anthropic ดาริโอ อโมดิ (Dario Amodei) ให้สัมภาษณ์กับบรรณาธิการบริหารของ The Economist ซานนี่ มินตัน เบดดอส (Zanny Minton Beddoes) อธิบายเหตุผลที่ Anthropic คัดค้านบางข้อกำหนดในสัญญาของกระทรวงกลาโหมสหรัฐ เขาเชื่อว่าจุดยืนของ Anthropic ไม่เพียงแต่เป็นไปตามค่านิยมประชาธิปไตยเท่านั้น แต่ยังเป็นเพราะกังวลว่าโมเดล AI ที่มีอยู่ในปัจจุบันจะมีความน่าเชื่อถือเพียงพอที่จะนำไปใช้ในด้านการป้องกันประเทศ และสุดท้ายแล้วใครควรเป็นผู้ควบคุมมัน อโมดิยังเปิดเผยว่าต้องการให้มีช่องทางการพูดคุยกับรัฐบาล เพื่อหารือเกี่ยวกับการลงนามในข้อกำหนดด้าน AI ที่ชัดเจนมากขึ้น

อโมดิ: Claude ยังไม่พร้อมเป็นโมเดลอัตโนมัติเต็มรูปแบบสำหรับการทหาร

หลังจากที่ซีอีโอของ Anthropic ยืนกรานว่า Claude ไม่ควรนำไปใช้ในงานด้านการสอดแนมขนาดใหญ่หรืออาวุธอัตโนมัติ ก่อนที่รัฐบาลทรัมป์จะออกคำสั่งห้ามหน่วยงานของรัฐบาลกลางใช้เครื่องมือโมเดลของบริษัทในปัจจุบันนี้ Claude ถูกจัดให้เป็นผู้ให้บริการ AI ที่มีความเสี่ยงในสหรัฐฯ อโมดิกล่าวว่า โมเดลหลักของ Anthropic คือ Claude ยังไม่พร้อมสำหรับการใช้งานในบริบททางทหารแบบอัตโนมัติเต็มรูปแบบ เขาเห็นว่าการเป็นผู้ให้บริการ AI เอกชน การอธิบายให้รัฐบาลเข้าใจถึงวิธีการใช้งานโมเดลอย่างปลอดภัยนั้นไม่ใช่เรื่องง่าย แต่เขายืนยันว่านี่เป็นมาตรการด้านความปลอดภัยที่จำเป็น

อโมดิชี้แจงว่า Anthropic ได้ลงนามในสัญญาที่มีขอบเขตจำกัดกับกระทรวงกลาโหมในปัจจุบัน สัญญานั้นยังไม่มีปัญหาอะไร แต่สิ่งที่เป็นกังวลคือการใช้งานในอนาคต การทำให้ระบบอัตโนมัติเต็มรูปแบบในด้านการทหารจะสร้างสถานการณ์ที่ AI สามารถควบคุมโดรนจำนวนหลายล้านลำโดยไม่ต้องปฏิบัติตามกฎเกณฑ์ทางทหารแบบดั้งเดิม ซึ่งหากไม่มีกำหนดข้อจำกัดด้านการใช้งาน ก็จะเป็นการยากที่จะควบคุมได้

Anthropic จะพิสูจน์อย่างไรว่า การจำกัดขอบเขตการใช้อาวุธเป็นแนวทางที่สมเหตุสมผล?

ในการสนทนากับ The Economist อโมดิอธิบายเหตุผลที่จำกัดการใช้ Claude ควบคุมโดรนในงานอาวุธอัตโนมัติ โดยอ้างเหตุผลสองประการคือ ความน่าเชื่อถือของ Claude ยังไม่เพียงพอ และขาดกรอบการกำกับดูแลโดยมนุษย์ (คลิปวิดีโอ 0:00-0:18, 5:48-5:58)

ความน่าเชื่อถือของ Claude ยังไม่เพียงพอ: อโมดิเปรียบเทียบว่าโมเดล Claude ยังไม่พร้อมสำหรับการใช้งานในบริบททางทหารแบบอัตโนมัติเต็มรูปแบบ เช่นเดียวกับที่บริษัทผู้ผลิตเครื่องบินควรประกาศว่าบางวิธีการบินอาจไม่ปลอดภัย (คลิปวิดีโอ 0:05-0:49)

ขาดกรอบการกำกับดูแลโดยมนุษย์: อโมดิเป็นห่วงว่าการขาดกฎเกณฑ์ที่ชัดเจนในการควบคุมกองทัพโดรน อาจนำไปสู่สถานการณ์ที่บุคคลคนเดียวสามารถควบคุมอาวุธนับล้านชิ้นได้ โดยไม่ต้องรับผิดชอบตามแบบแผนทางทหารแบบดั้งเดิม (คลิปวิดีโอ 5:48-6:55)

จะจัดการกับความเห็นที่แตกต่างในด้านปัญญาประดิษฐ์ทางทหารอย่างไร?

อโมดิแสดงความหวังว่าการสนทนากับ The Economist จะช่วยให้ Anthropic และรัฐบาลสามารถจัดการกับความเห็นที่แตกต่างในด้านการใช้งปัญญาประดิษฐ์อย่างละเอียดอ่อนมากขึ้น เขาย้ำว่าผู้ให้บริการ AI และรัฐบาลควรหารือกันอย่างรอบคอบเกี่ยวกับความน่าเชื่อถือของโมเดลและกรอบการกำกับดูแล เพื่อรับมือกับความเสี่ยงที่ AI อาจก่อให้เกิด อโมดิยังเห็นว่าผู้ให้บริการ AI มีความรับผิดชอบในการชี้แจงอย่างชัดเจนว่าโมเดลในบางการใช้งานที่มีความเสี่ยงสูงนั้นมีความพร้อมเพียงใด

อโมดิเสนอให้ลงนามในสัญญาแบบจำกัดที่ครอบคลุมกรณีใช้งานที่ทั้งสองฝ่ายเห็นชอบกันก่อน เพื่อให้สามารถสร้างแนวทางการดำเนินงานของโมเดลก่อนที่จะขยายไปสู่ภารกิจที่มีความขัดแย้งมากขึ้น แต่ในขณะเดียวกันก็ต้องเปิดการพูดคุยเพื่อหาจุดสมดุลและความเห็นร่วมกัน ซึ่งไม่ควรให้บริษัทเอกชนมีอำนาจมากเกินไป และก็ไม่ควรให้รัฐบาลมีอำนาจที่ไม่สามารถท้าทายได้

ชื่อของ Anthropic มาจากคำว่า “มนุษยวิทยา” (anthropology) ซึ่งสะท้อนความตั้งใจของผู้ก่อตั้งอย่างอโมดิ ที่ต้องการสร้างบริษัท AI ที่เน้นมนุษย์เป็นศูนย์กลาง ความมุ่งมั่นนี้ทำให้เขากลายเป็นหนึ่งในไม่กี่คนที่กล้าท้าทายรัฐบาลสหรัฐฯ อย่างเปิดเผย และยังเป็นผู้บริหารสูงสุดของบริษัทเทคโนโลยีชั้นนำที่กล้าชี้แจงว่าจีนกำลังลักลอบนำเทคโนโลยี Claude ไปใช้ ในขณะที่หลายบริษัทยังคงเงียบอยู่ การรักษาสมดุลระหว่างการยึดมั่นในแนวคิดและการประสานงานกับความมั่นคงของชาติ จะเป็นจุดเปลี่ยนสำคัญของการพัฒนา AI เพื่อการทหารในอนาคต ความขัดแย้งในเรื่องอธิปไตยทางเทคโนโลยีและขอบเขตด้านจริยธรรมนี้จะถูกคลี่คลายอย่างไร? โลกกำลังจับตามอง

บทความนี้ ซีอีโอของ Anthropic: Claude ยังไม่พร้อมสำหรับการใช้งานทางทหาร คาดหวังให้มีการลงนามในข้อกำหนดที่ชัดเจนมากขึ้น เผยแพร่ครั้งแรกใน Chain News ABMedia

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น