การหารือเกี่ยวกับกลไก AI ตรวจสอบขั้นต้นของทำเนียบขาวถูกเปิดเผย ข้อความของ Hassett ถูกปฏิเสธโดยทางการในวันถัดมา

MarketWhisper

白宮AI預審機制討論

หัวหน้าคณะกรรมการเศรษฐกิจแห่งชาติของทำเนียบขาว (NEC) Kevin Hassett กล่าวในการให้สัมภาษณ์กับ Fox Business เมื่อวันที่ 7 พฤษภาคม ว่ารัฐบาลของทรัมป์กำลังพิจารณาออกคำสั่งฝ่ายบริหารเพื่อให้โมเดล AI ผ่านการตรวจสอบความปลอดภัยของรัฐบาลก่อนที่จะมีการเผยแพร่สู่สาธารณะ และเปรียบเทียบกับขั้นตอนการอนุมัติก่อนวางจำหน่ายของ FDA สำหรับยา แต่ตามรายงานของ Politico เมื่อวันที่ 8 พฤษภาคม เจ้าหน้าที่ระดับสูงของทำเนียบขาวได้ออกมาตอบโต้ในภายหลังว่า “การกล่าวอ้างนั้นถูกตัดตอนออกจากบริบท”

ไทม์ไลน์เหตุการณ์: ‘นิวยอร์กไทมส์’ รายงานจนเกิดความขัดแย้งเชิงนโยบายในทำเนียบขาวแบบเปิดเผย

วันที่ 4 พฤษภาคม 2026 หนังสือพิมพ์ ‘The New York Times’ รายงานว่า ทำเนียบขาวกำลังหารือเรื่องการจัดตั้งกลไกการทบทวนก่อนการเผยแพร่สำหรับโมเดล AI ซึ่งในเวลานั้นถูกระบุว่า “กำลังพิจารณาอยู่” วันที่ 7 พฤษภาคม 2026 Kevin Hassett ให้สัมภาษณ์กับ Fox Business และกล่าวอย่างเป็นทางการว่า “เรากำลังศึกษาว่าเราจะสั่งการด้วยคำสั่งฝ่ายบริหารได้หรือไม่ เพื่อให้ AI ในอนาคตที่อาจก่อช่องโหว่ถูกนำไปใช้งานหลังจากพิสูจน์ความปลอดภัยแล้ว—เหมือนกับยาของ FDA”

ช่วงดึกของวันที่ 7 พฤษภาคม 2026 เสนาธิการทำเนียบขาว Susie Wiles โพสต์บนแพลตฟอร์ม X ระบุว่า รัฐบาล “ไม่ควรมีหน้าที่คัดเลือกผู้ชนะและผู้แพ้” และชี้ว่าการวางระบบการใช้เทคโนโลยีที่แข็งแกร่งด้านความปลอดภัยควรเป็นหน้าที่ของ “ผู้สร้างสรรค์นวัตกรรมที่โดดเด่นของสหรัฐ” มากกว่าหน่วยงานราชการ จากบันทึกการใช้งานบัญชีทางการของเธอ โพสต์ดังกล่าวเป็นเนื้อหาลำดับที่ 4 ที่เผยแพร่ นับตั้งแต่ที่ Wiles สร้างบัญชีดังกล่าวขึ้นมา

ตามที่ Politico อ้างแหล่งข่าวที่มีความรู้ โดยไม่เปิดเผยชื่อ 3 ราย ระบุว่า ทำเนียบขาวกำลังหารือถึงการให้หน่วยข่าวกรองทำการประเมินล่วงหน้าก่อนการเผยแพร่โมเดล AI สู่สาธารณะ เจ้าหน้าที่รัฐบาลสหรัฐรายหนึ่งกล่าวในรายงานว่า เป้าหมายหนึ่งคือ “เพื่อให้วงการข่าวกรองได้ศึกษาและนำเครื่องมือเหล่านี้ไปใช้ก่อนที่คู่แข่งอย่างรัสเซียและจีนจะเข้าใจความสามารถใหม่ๆ”

หน่วยงานที่เกี่ยวข้องและกรอบนโยบาย

CAISI ขยายข้อตกลงการประเมินความปลอดภัยแบบสมัครใจ

ศูนย์มาตรฐานและนวัตกรรมด้าน AI (AI Standards and Innovation Center: CAISI) ภายใต้กระทรวงพาณิชย์ ประกาศในสัปดาห์นี้ว่า ได้ลงนามข้อตกลงประเมินความปลอดภัยของ AI กับ Google DeepMind, Microsoft และ xAI โดยขอบเขตขยายไปยัง OpenAI และ Anthropic ที่เคยถูกรวมไว้ก่อนหน้า ทั้งนี้ โครงสร้างการประเมินแบบสมัครใจของ CAISI ใช้บังคับมาตั้งแต่ปี 2024

รองรัฐมนตรีกลาโหมสนับสนุนกลไกการประเมินล่วงหน้าต่อสาธารณะ

Emil Michael รองรัฐมนตรีกลาโหม กล่าวเมื่อวันที่ 8 พฤษภาคม 2026 ระหว่างการเข้าร่วมประชุมด้าน AI ที่กรุงวอชิงตันว่า เขาสนับสนุนการประเมินล่วงหน้าของรัฐบาลก่อนการเผยแพร่โมเดล AI และในการกล่าวสุนทรพจน์เขายก Anthropic อย่างระบบ Mythos เป็นกรณีอ้างอิง โดยระบุว่าโมเดลดังกล่าว “ในที่สุดก็จะปรากฏ” และรัฐบาลจำเป็นต้องมีกลไกรับมือ

บริบทนโยบายของรัฐบาลทรัมป์และ Anthropic

ตามรายงานของ Politico ระบุว่า รัฐมนตรีว่าการกระทรวงกลาโหม Pete Hegseth เมื่อเดือนมีนาคม 2026 ได้จัด Anthropic ไว้ในบัญชีรายชื่อความเสี่ยง โดยอ้างเรื่องความเสี่ยงด้านห่วงโซ่อุปทาน และห้ามไม่ให้โมเดลของบริษัทถูกนำไปใช้ในสัญญาของกระทรวงกลาโหม จากนั้นทรัมป์ได้สั่งการให้หน่วยงานของรัฐบาลกลางหยุดใช้ผลิตภัณฑ์ของ Anthropic ภายใน 6 เดือน ในขณะเดียวกัน เดือนก่อน Anthropic เปิดเผยว่า ระบบ AI Mythos ของตนมีความสามารถในการขุดหาช่องโหว่ซอฟต์แวร์ที่แข็งแกร่ง เกินกว่าขีดจำกัดด้านความปลอดภัยสำหรับการเผยแพร่สู่สาธารณะ และหลังจากนั้น หน่วยงานรัฐบาลกลางหลายแห่งได้ยื่นคำขอขอเชื่อมต่อ OpenAI เมื่อวันที่ 8 พฤษภาคม 2026 ประกาศว่าจะเปิดพรีวิวแบบจำกัดสำหรับ GPT-5.5-Cyber เครื่องมือใหม่ที่สามารถตรวจจับและซ่อมแซมช่องโหว่ด้านเครือข่ายได้

จุดยืนของอุตสาหกรรมต่อการคัดค้านกลไกการบังคับให้ตรวจสอบ

Daniel Castro ประธานมูลนิธิ Information Technology and Innovation Foundation (ITIF) กล่าวในรายงานของ Politico ว่า “หากการอนุมัติก่อนวางจำหน่ายทำได้ด้วยการปฏิเสธ นั่นจะเป็นปัญหาใหญ่สำหรับทุกบริษัท หากคู่แข่งรายหนึ่งได้รับการอนุมัติแต่ไม่ใช้อีกฝ่าย ความต่างของหลายสัปดาห์หรือหลายเดือนในการเข้าตลาดจะส่งผลกระทบอย่างมหาศาล” ผู้สนับสนุนเงินทุนของ ITIF ได้แก่ Anthropic, Microsoft และ Meta

เจ้าหน้าที่ระดับสูงของทำเนียบขาวรายหนึ่งกล่าวในรายงานเดียวกันว่า “มีจริงๆ อย่างน้อย 1-2 คนที่กระตือรือร้นมากในการให้รัฐบาลเข้ามาควบคุม แต่พวกเขาเป็นเพียงส่วนน้อย” เจ้าหน้าที่รายดังกล่าวได้รับการคุ้มครองไม่ให้เปิดเผยชื่อ เนื่องจากต้องใช้เพื่ออธิบายการหารือเชิงนโยบายที่ละเอียดอ่อน

คำถามที่พบบ่อย

Kevin Hassett กล่าวถึงการพรีตรวจสอบ AI เมื่อใดและที่ไหน?

ตามรายงานของ Politico Kevin Hassett กล่าวอย่างเปิดเผยเมื่อวันที่ 7 พฤษภาคม 2026 ในระหว่างการให้สัมภาษณ์กับ Fox Business โดยระบุว่ารัฐบาลกำลังพิจารณาออกคำสั่งฝ่ายบริหารเพื่อให้โมเดล AI ผ่านการตรวจสอบความปลอดภัยของรัฐบาลก่อนการเผยแพร่สู่สาธารณะ และเปรียบเทียบกับกระบวนการอนุมัติของ FDA สำหรับยา

ทำเนียบขาวปฏิเสธคำกล่าวของ Hassett โดยอาศัยอะไร?

ตามรายงานของ Politico เมื่อวันที่ 8 พฤษภาคม 2026 เจ้าหน้าที่ระดับสูงของทำเนียบขาวกล่าวว่าคำพูดของ Hassett “ตัดตอนออกจากบริบท” โดยทิศทางนโยบายของทำเนียบขาวคือการสร้างความร่วมมือกับภาคเอกชน ไม่ใช่การผลักดันการกำกับดูแลโดยรัฐบาล เสนาธิการทำเนียบขาว Susie Wiles ได้โพสต์ย้ำอีกครั้งว่ารัฐบาลจะไม่เข้าไปแทรกแซงการเลือกของตลาด

CAISI เพิ่มข้อตกลงการประเมินความปลอดภัยของ AI อะไรบ้างในสัปดาห์นี้?

ตามคำประกาศของ CAISI ในสัปดาห์นี้ ระบุว่าข้อตกลงที่เพิ่มขึ้นครั้งนี้ครอบคลุม Google DeepMind, Microsoft และ xAI รวมถึง OpenAI และ Anthropic ที่เคยครอบคลุมมาก่อนแล้ว ทั้งนี้ กรอบการประเมินแบบสมัครใจเริ่มใช้มาตั้งแต่ปี 2024

news.article.disclaimer

btc.bar.articles

สหรัฐฯ และจีนเตรียมเปิดตัวการเจรจาด้านความปลอดภัยของ AI อย่างเป็นทางการ นำโดยเจ้าหน้าที่กระทรวงการคลัง

ตามรายงาน สหรัฐอเมริกาและจีนกำลังเตรียมเปิดการเจรจาอย่างเป็นทางการด้านความปลอดภัยของ AI โดยมีเป้าหมายเพื่อวางกลไกการจัดการภาวะวิกฤตสำหรับการแข่งขันด้านเทคโนโลยีของทั้งสองฝ่าย คณะผู้แทนสหรัฐฯ จะมีรัฐมนตรีว่าการกระทรวงการคลัง Scott Bessent เป็นหัวหน้า ขณะที่จีนจะมีตัวแทนโดยรอง

GateNews4 นาที ที่แล้ว

RLWRLD เปิดตัวโมเดล AI RLDX-1 สำหรับมือหุ่นยนต์อุตสาหกรรม

RLWRLD สตาร์ทอัพด้านหุ่นยนต์และ AI ที่ได้รับการสนับสนุนโดย LG Electronics เปิดตัว RLDX-1 ซึ่งเป็นโมเดลพื้นฐานที่ออกแบบมาเพื่อมือหุ่นยนต์แบบ 5 นิ้วสำหรับงานอุตสาหกรรม ตามข้อมูลจาก RLWRLD บริษัทได้เผยแพร่น้ำหนักโมเดล โค้ด และเอกสารทางเทคนิคบน GitHub และ Hugging Face Model

CryptoFrontier24 นาที ที่แล้ว

DeepMind AlphaEvolve ผลงานข้ามสาขา: การคูณเมทริกซ์ขนาด 4×4 รีเฟรชสถิติ Strassen ปี 1969 และการฝึก Gemini เร็วขึ้น 1%

Google DeepMind เมื่อวันที่ 7 พฤษภาคม (ตามเวลาสหรัฐ) เผยแพร่รายงานความก้าวหน้าผลลัพธ์จาก AlphaEvolve ที่ครอบคลุมหลายสาขา โดยบล็อกทางการของ DeepMind ได้สรุปความคืบหน้าที่เป็นรูปธรรมของ AlphaEvolve นับตั้งแต่เปิดตัว: ค้นพบวิธีการคูณเมทริกซ์เชิงซ้อน 4×4 ที่ดีกว่าอัลกอริทึมของ Strassen ในปี 1969 (ด้วยการคูณสเกลาร์ล้วน 48 ครั้ง), ร่วมมือกับนักคณิตศาสตร์อย่าง Terence Tao เพื่อแก้ปัญหาคณิตศาสตร์ยากของ Erdős หลายข้อ, ช่วยประหยัดทรัพยากรการคำนวณทั่วโลกได้ 0.7% สำหรับศูนย์ข้อมูลของ Google, ทำให้ความเร็วของคีย์ kernel ที่ใช้ในการฝึก Gemini เพิ่มขึ้น 23% และเวลารวมในการฝึก Gemini ลดลง 1% สถาปัตยกรรม: การสำรวจแบบกว้างของ Gemini Flash + Gemini

ChainNewsAbmedia37 นาที ที่แล้ว

OpenAI Codex เปิดให้บริการส่วนขยายสำหรับ Chrome: ทดสอบ Web App ในเบราว์เซอร์, ดึง Context ข้ามหน้า, ทำงานแบบคู่ขนาน

OpenAI 7 พฤษภาคม (ตามเวลาสหรัฐ) เปิดเผยฟังก์ชันส่วนขยายของ Codex สำหรับ Chrome ซึ่งทำให้ Codex 编码 Agent สามารถทำงานได้โดยตรงภายในเบราว์เซอร์ Chrome บน macOS และ Windows แล้ว เอกสารทางการของ OpenAI Codex ระบุว่า ส่วนขยายดังกล่าวช่วยให้ Codex ทดสอบ web app โดยไม่เข้าควบคุมเบราว์เซอร์ของผู้ใช้ ดึง context จากหลายแท็บพร้อมกัน ใช้ Chrome DevTools และทำงานอื่นๆ ควบคู่กันได้ด้วย นอกจากนี้ OpenAI ยังเปิดเผยว่า Codex มีผู้ใช้รายสัปดาห์ที่ใช้งานอยู่มากกว่า 4 ล้านราย เพิ่มขึ้น 8 เท่าเมื่อเทียบกับช่วงต้นปี สิ่งที่ทำได้ภายในเบราว์เซอร์: ทดสอบ web app, ดึง context ข้ามหน้า, ใช้ DevTools Chrome ส่วนขยาย

ChainNewsAbmedia40 นาที ที่แล้ว

OpenAI เปิดตัว GPT-Realtime-2: นำการให้เหตุผลของ GPT-5 มาสู่เอเจนต์ด้วยเสียง และเพิ่มคอนเทกซ์ต์เป็น 128K

OpenAI 7 พฤษภาคม (ตามเวลาสหรัฐ) ในงานประชุมนักพัฒนาได้เปิดตัวโมเดลเสียง Realtime ใหม่จำนวน 3 รุ่น ได้แก่ GPT-Realtime-2, GPT-Realtime-Translate และ GPT-Realtime-Whisper โดยทั้งหมดเปิดให้ผู้พัฒนาสามารถเข้าถึงผ่าน Realtime API ได้ รายงานประกาศอย่างเป็นทางการของ OpenAI ระบุว่า GPT-Realtime-2 เป็นโมเดลแรกของ OpenAI ที่มีความสามารถแบบ GPT-5

ChainNewsAbmedia41 นาที ที่แล้ว

ลงพื้นที่เยือนห้องแล็บ AI ของจีน: นักวิจัยเผย “ช่องว่างด้านชิปและข้อมูล” คือกุญแจสำคัญของความแตกต่างระหว่างจีนกับสหรัฐ

Nathan Lambert ที่เดินทางลงลึกเยี่ยมชมสถาบันทดลอง AI หลายแห่งในจีน ระบุว่า จุดแข็งหลักของจีนอยู่ที่วัฒนธรรม บุคลากร และทัศนคติแบบลงมือทำจริงจัง โดยงานวิจัยให้ความสำคัญกับการยกระดับคุณภาพของโมเดล นักศึกษาเป็นผู้มีส่วนร่วมหลัก และการทำงานร่วมกันในองค์กรมีการสู้กันเองน้อยลง อย่างไรก็ตาม ยังมีช่องว่างด้านชิป ข้อมูล และความคิดสร้างสรรค์ ขณะที่พลังประมวลผลจากภายนอกถูกควบคุมโดยสหรัฐฯ และคุณภาพข้อมูลค่อนข้างต่ำ จึงทำให้ต้องสร้างสภาพแวดล้อมการฝึกเองด้วย ธุรกิจมีการเปิดซอร์สแต่ยังคงรักษาเทคโนโลยีหลักไว้สำหรับการปรับแต่งกับตัวเอง หากสหรัฐฯ เข้มงวดระบบนิเวศที่เปิดกว้าง อาจส่งผลต่อความสามารถในการนำระดับโลก

ChainNewsAbmedia50 นาที ที่แล้ว
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น