การทดลอง AI แบบกระจายศูนย์ที่เคยจำกัดอยู่ในวงการคริปโตเพียงอย่างเดียว ได้รับการยอมรับจาก CEO ของ Nvidia Jensen Huang ซึ่งเป็นสัญญาณว่า การฝึกโมเดลแบบกระจายอาจเข้าใกล้ความเป็นปกติในวงกว้างมากขึ้น
Chamath Palihapitiya ได้เน้นย้ำถึง Bittensor’s Covenant-72B ในช่วงของพอดแคสต์ All-In โดยมองว่าเป็นตัวอย่างที่จับต้องได้ของ AI แบบกระจายศูนย์ที่ก้าวข้ามทฤษฎี Bittensor ทำงานเป็นเครือข่ายแบบกระจายอำนาจบนบล็อกเชน ซึ่งสร้างตลาดแบบ peer-to-peer ที่แลกเปลี่ยนโมเดลการเรียนรู้ของเครื่องและการคำนวณ AI พร้อมทั้งให้แรงจูงใจ
Palihapitiya อธิบายความพยายามนี้ในภาษาง่าย ๆ ว่าเป็นโมเดลภาษาแบบขนาดใหญ่ (LLM) ที่ฝึกโดยไม่ใช้โครงสร้างพื้นฐานศูนย์กลาง แต่ใช้เครือข่ายของผู้ร่วมให้ข้อมูลอิสระ “พวกเขาสามารถฝึกโมเดล LLaMA ขนาด 4 พันล้านพารามิเตอร์ ซึ่งเป็นแบบกระจายเต็มที่ โดยมีหลายคนช่วยให้คำนวณเกินความจำเป็น” เขากล่าว เรียกมันว่า “ความสำเร็จทางเทคนิคที่ค่อนข้างบ้าบิ่น”
การเปรียบเทียบนี้ใช้การเปรียบเทียบที่คุ้นเคย “มีคนแบบสุ่ม และแต่ละคนได้รับส่วนแบ่งเล็กน้อย” Palihapitiya เพิ่มเติม โดยอ้างอิงโครงการคอมพิวเตอร์แบบกระจายศูนย์ในยุคแรกที่ใช้ฮาร์ดแวร์ว่างเปล่าทั่วโลก
Huang ไม่ได้ปฏิเสธแนวคิดนี้ เขากลับมองภาพรวมของตลาด AI กว้างขึ้น โดยเสนอว่าแนวทางแบบกระจายศูนย์และแบบเป็นกรรมสิทธิ์ไม่ได้เป็นทางเลือกที่ขัดแย้งกัน “สิ่งเหล่านี้ไม่ใช่ A หรือ B แต่เป็น A และ B” Huang กล่าว “ไม่มีข้อสงสัยในเรื่องนี้”
วิสัยทัศน์สองเส้นทางนี้สะท้อนความแตกต่าง—and การทับซ้อน—ที่กำลังเติบโตในวงการ AI ฝั่งหนึ่งคือระบบปิดที่มีความสมบูรณ์สูง เช่น ChatGPT, Claude และ Gemini อีกฝั่งคือโมเดลแบบเปิดและกระจายศูนย์ที่อนุญาตให้นักพัฒนาและองค์กรปรับแต่งระบบให้เหมาะสมกับความต้องการเฉพาะ
Huang ชัดเจนว่าเขามองว่าทั้งสองเส้นทางเป็นสิ่งสำคัญ “โมเดลเป็นเทคโนโลยี ไม่ใช่ผลิตภัณฑ์” เขากล่าว พร้อมสังเกตว่าผู้ใช้ส่วนใหญ่มักยังคงพึ่งพาระบบที่สมบูรณ์และทั่วไปมากกว่าจะสร้างของเองตั้งแต่ต้น
ในเวลาเดียวกัน เขาชี้ให้เห็นอุตสาหกรรมที่การปรับแต่งไม่ใช่ทางเลือก “มีอุตสาหกรรมเหล่านี้ที่ความเชี่ยวชาญเฉพาะด้าน… ต้องถูกจับในลักษณะที่พวกเขาควบคุมได้” Huang อธิบาย พร้อมเสริมว่า “สิ่งนั้นจะเกิดขึ้นได้ก็ต่อเมื่อเป็นโมเดลแบบเปิดเท่านั้น”
คำแถลงนี้ตรงกับความสามารถของ Bittensor Covenant-72B ซึ่งพัฒนาผ่าน Subnet 3 (Templar) ซึ่งเป็นหนึ่งในโครงการฝึกโมเดลแบบกระจายศูนย์ที่ใหญ่ที่สุดเท่าที่เคยมีมา โดยประสานงานกับผู้ร่วมให้ข้อมูลมากกว่า 70 คน ผ่านการเชื่อมต่ออินเทอร์เน็ตมาตรฐานโดยไม่มีหน่วยงานกลาง
ทางเทคนิค โมเดลนี้ผลักดันขอบเขต ด้วยจำนวนพารามิเตอร์ 72 พันล้าน และฝึกบนโทเค็นประมาณ 1.1 ล้านล้าน ซึ่งใช้เทคโนโลยีเช่นโปรโตคอลการสื่อสารแบบบีบอัดและการกระจายข้อมูลแบบขนาน เพื่อให้การฝึกเป็นไปได้ในสภาพแวดล้อมนอกศูนย์ข้อมูลแบบดั้งเดิม
ผลลัพธ์ด้านประสิทธิภาพบ่งชี้ว่าไม่ใช่แค่การทดลอง ผลการทดสอบเปรียบเทียบทำให้โมเดลนี้สามารถแข่งขันกับโมเดลศูนย์กลางที่เป็นที่ยอมรับ ซึ่งเป็นรายละเอียดที่ช่วยอธิบายว่าทำไมโครงการนี้จึงได้รับความสนใจเกินกว่ากลุ่มคริปโตเท่านั้น
ตลาดก็สังเกตเห็นเช่นกัน หลังจากประกาศ โทเค็น TAO ของโครงการนี้เพิ่มขึ้น 24% ตั้งแต่วิดีโอของ Palihapitiya และ Huang ถูกเผยแพร่ในโซเชียลมีเดีย
อย่างไรก็ตาม คำพูดของ Huang ชี้ให้เห็นว่าสถานการณ์ที่แท้จริงไม่ใช่การรบกวน แต่เป็นการอยู่ร่วมกันระหว่างสองแนวทาง ระบบ AI เป็นกรรมสิทธิ์จะยังคงครองตลาดสำหรับผู้ใช้ทั่วไป ในขณะที่โมเดลแบบเปิดและกระจายศูนย์จะสร้างบทบาทในงานเฉพาะทางที่มีต้นทุนต่ำหรือเน้นอธิปไตย
สำหรับสตาร์ทอัป CEO ของ Nvidia ได้วางแผนกลยุทธ์อย่างเป็นรูปธรรม: เริ่มต้นด้วยแบบเปิด แล้วค่อย ๆ เพิ่มข้อได้เปรียบเชิงกรรมสิทธิ์ “ทุกสตาร์ทอัปที่เราลงทุนในตอนนี้ เริ่มจากโอเพ่นซอร์สก่อน แล้วค่อยไปสู่โมเดลแบบเป็นกรรมสิทธิ์” เขากล่าว
พูดอีกนัยหนึ่ง อนาคตของ AI อาจไม่ใช่ของสถาปัตยกรรมหรือปรัชญาเดียว แต่เป็นของผู้ที่สามารถนำทางทั้งสองแนวทางได้—andรู้ว่าเมื่อใดควรใช้แต่ละแบบ
โมเดลภาษาแบบขนาด 72 พันล้านพารามิเตอร์ที่ฝึกโดยเครือข่ายผู้ร่วมให้ข้อมูลแบบกระจายศูนย์โดยไม่มีโครงสร้างพื้นฐานศูนย์กลาง
เขากล่าวว่าโมเดล AI แบบเปิดและแบบเป็นกรรมสิทธิ์จะอยู่ร่วมกัน โดยอธิบายความสัมพันธ์ว่าเป็น “A และ B” ไม่ใช่ทางเลือกระหว่างกัน
แสดงให้เห็นว่าโมเดล AI ขนาดใหญ่สามารถฝึกนอกศูนย์ข้อมูลแบบดั้งเดิมได้ ท้าทายสมมติฐานเกี่ยวกับความจำเป็นด้านโครงสร้างพื้นฐาน
สนับสนุนอนาคตแบบผสมผสานที่แพลตฟอร์มศูนย์กลางและโมเดลแบบกระจายศูนย์สามารถทำหน้าที่แตกต่างกันในอุตสาหกรรมต่าง ๆ