Sakana AI เผยแพร่เทคนิคใหม่ จับโมเดล AI หลายตัวมาระดมสมองช่วยกันคิด ได้คำตอบที่ดีกว่าเดิม
Body
Sakana AI บริษัทพัฒนาและวิจัยปัญญาประดิษฐ์จากญี่ปุ่น เผยแพร่วิธีการใหม่ในการเรียกใช้งานโมเดล AI คราวละหลายตัว เพื่อให้ช่วยกันทำงานตามคำสั่งหนึ่ง โดยมองเหมือนกับการนำผู้เชี่ยวชาญที่เก่งแต่อย่างมาระดมสมองแก้ปัญหาด้วยกัน ย่อมสร้างคำตอบที่ถูกต้องและดีกว่า
วิธีการนี้ตั้งชื่อว่า Multi-LLM AB-MCTS โดยตัวหลังย่อมาจาก Adaptive Branching Monte Carlo Tree Search โดยทำการค้นหาคำตอบทั้งเชิงลึกและเชิงกว้าง โดยเชิงลึกเพื่อให้ได้แนวทางดีที่สุดของโมเดลนั้น ส่วนเชิงกว้างเพื่อเปิดโอกาสหากมีแนวทางอื่นที่เป็นไปได้ แล้วนำคำตอบมาทดสอบซ้ำไปพร้อมกับการค้นหาคำตอบใหม่ จนได้คำตอบที่ดีที่สุด ซึ่งวิธีการ Monte Carlo Tree Search นี้ เหมือนกับที่ใช้ในโมเดล AI เล่นโกะ AlphaZero ของ DeepMind
Sakana AI ทดสอบวิธีการ Multi-LLM AB-MCTS นี้ โดยใช้โมเดล AI รุ่นใหม่ที่สุด 3 ตัว ทำงานร่วมกันคือ o4-mini, Gemini 2.5 Pro, and DeepSeek-R1 โดยผลทดสอบด้วย ARC-AGI-2 ทำคะแนนได้มากกว่า 30% สูงกว่าการทดสอบด้วยโมเดล AI แยกเดี่ยวตัวใดตัวหนึ่ง
Sakana AI บอกว่าเทคนิคนี้ทำให้ผู้ใช้งานโดยเฉพาะในระดับองค์กร มีความยืดหยุ่นมากขึ้นไม่ต้องยึดกับโมเดล AI จากค่ายใดค่ายหนึ่ง ซึ่งทาง Sakana AI ได้เผยแพร่เฟรมเวิร์กที่ทำงานบนวิธีการนี้แบบโอเพนซอร์ส ซึ่งสามารถปรับแต่งการเรียกใช้งานโมเดล AI และกำหนดค่าน้ำหนักที่ต้องการได้เอง ดูเพิ่มเติมได้ที่ GitHub
ที่มา: Sakana AI ผ่าน VentureBeat
arjin Mon, 07/07/2025 - 18:43
Continue reading...
Body
Sakana AI บริษัทพัฒนาและวิจัยปัญญาประดิษฐ์จากญี่ปุ่น เผยแพร่วิธีการใหม่ในการเรียกใช้งานโมเดล AI คราวละหลายตัว เพื่อให้ช่วยกันทำงานตามคำสั่งหนึ่ง โดยมองเหมือนกับการนำผู้เชี่ยวชาญที่เก่งแต่อย่างมาระดมสมองแก้ปัญหาด้วยกัน ย่อมสร้างคำตอบที่ถูกต้องและดีกว่า
วิธีการนี้ตั้งชื่อว่า Multi-LLM AB-MCTS โดยตัวหลังย่อมาจาก Adaptive Branching Monte Carlo Tree Search โดยทำการค้นหาคำตอบทั้งเชิงลึกและเชิงกว้าง โดยเชิงลึกเพื่อให้ได้แนวทางดีที่สุดของโมเดลนั้น ส่วนเชิงกว้างเพื่อเปิดโอกาสหากมีแนวทางอื่นที่เป็นไปได้ แล้วนำคำตอบมาทดสอบซ้ำไปพร้อมกับการค้นหาคำตอบใหม่ จนได้คำตอบที่ดีที่สุด ซึ่งวิธีการ Monte Carlo Tree Search นี้ เหมือนกับที่ใช้ในโมเดล AI เล่นโกะ AlphaZero ของ DeepMind
Sakana AI ทดสอบวิธีการ Multi-LLM AB-MCTS นี้ โดยใช้โมเดล AI รุ่นใหม่ที่สุด 3 ตัว ทำงานร่วมกันคือ o4-mini, Gemini 2.5 Pro, and DeepSeek-R1 โดยผลทดสอบด้วย ARC-AGI-2 ทำคะแนนได้มากกว่า 30% สูงกว่าการทดสอบด้วยโมเดล AI แยกเดี่ยวตัวใดตัวหนึ่ง
Sakana AI บอกว่าเทคนิคนี้ทำให้ผู้ใช้งานโดยเฉพาะในระดับองค์กร มีความยืดหยุ่นมากขึ้นไม่ต้องยึดกับโมเดล AI จากค่ายใดค่ายหนึ่ง ซึ่งทาง Sakana AI ได้เผยแพร่เฟรมเวิร์กที่ทำงานบนวิธีการนี้แบบโอเพนซอร์ส ซึ่งสามารถปรับแต่งการเรียกใช้งานโมเดล AI และกำหนดค่าน้ำหนักที่ต้องการได้เอง ดูเพิ่มเติมได้ที่ GitHub
ที่มา: Sakana AI ผ่าน VentureBeat
arjin Mon, 07/07/2025 - 18:43
Continue reading...