NVIDIA เปิดตัว Nemotron 3 Super โมเดล AI ระดับเดียวกับ Qwen3.5 แต่รันเร็วกว่าหลายเท่าตัว
Body
NVIDIA เปิดตัวโมเดลปัญญาประดิษฐ์แบบเปิดในตระกูล Nemotron รุ่นใหม่ ในชื่อ Nemotron 3 Super เป็นโมเดลแบบ 120B-A12B ที่ออกแบบมาเพื่อประสิทธิภาพการรันที่ความเร็วสูงโดยเฉพาะเมื่อใช้ชิป Blackwell เหมาะกับการใช้งานภายในองค์กร
แม้จะเป็นโมเดลขนาดใหญ่พอๆ กับ GPT-OSS-120B และ Qwen3.5-122B-A10B แต่จุดเด่นของ Nemotron 3 Super คือการออกแบบให้รองรับเทคนิคให้ต้นทุนการรันต่ำลง ได้แก่
นอกจากการเปิดโมเดลให้ดาวน์โหลดไปใช้งานแล้ว ทาง NVIDIA ยังเปิดเผยชุดข้อมูลที่ใช้ฝึกทั้งหมด ทั้งข้อมูลที่เก็บมาและชุดข้อมูลที่สร้างใหม่จากโมเดล AI อื่นๆ กระบวนการฝึกยังเปิดเผยทั้งกระบวนการ โดยใช้ซอฟต์แวร์ของทาง NVIDIA เอง เช่น NeMo RL, NeMo Evaluator สามารถนำไปปรับแต่งผ่าน Unsloth ได้ทันที และหากต้องการใช้งานก็มีผู้ให้บริการเริ่มให้บริการ API แล้ว เช่น Cloudflare, DeepInfra, Lightning.AI แต่มีเพียง Inference.net เท่านั้นที่รองรับ context windows ล้านโทเค็นเต็ม แลกกับราคาค่อนข้างแพง
ที่มา - NVIDIA
lew Thu, 12/03/2026 - 02:26
Continue reading...
Body
NVIDIA เปิดตัวโมเดลปัญญาประดิษฐ์แบบเปิดในตระกูล Nemotron รุ่นใหม่ ในชื่อ Nemotron 3 Super เป็นโมเดลแบบ 120B-A12B ที่ออกแบบมาเพื่อประสิทธิภาพการรันที่ความเร็วสูงโดยเฉพาะเมื่อใช้ชิป Blackwell เหมาะกับการใช้งานภายในองค์กร
แม้จะเป็นโมเดลขนาดใหญ่พอๆ กับ GPT-OSS-120B และ Qwen3.5-122B-A10B แต่จุดเด่นของ Nemotron 3 Super คือการออกแบบให้รองรับเทคนิคให้ต้นทุนการรันต่ำลง ได้แก่
- ฝึกด้วย NVFP4: เลขเทศนิยมความละเอียดต่ำที่ชิป Blackwell รองรับ การฝึกที่ความละเอียดต่ำแต่ต้นทำให้คงความแม่นยำแม้รันที่ FP4
- Latent MoE: บีบอัดโทเค็นก่อนเลือก Expert ในสถาปัตยกรรม MoE
- Multi-token prediction (MTP): รันทีละหลายๆ โทเค็นโดยไม่ต้องนำโทเค็นเอาท์พุตเป็นอินพุตใหม่ก่อน
- Hybrid Mamba-Transformer: สถาปัตยกรรมแบบ Mamba ที่ประหยัดทรัพยากรกว่า Transformer และถูกนำมาผสมกันหลายโมเดลก่อนหน้านี้ เช่น Granite 4.0
นอกจากการเปิดโมเดลให้ดาวน์โหลดไปใช้งานแล้ว ทาง NVIDIA ยังเปิดเผยชุดข้อมูลที่ใช้ฝึกทั้งหมด ทั้งข้อมูลที่เก็บมาและชุดข้อมูลที่สร้างใหม่จากโมเดล AI อื่นๆ กระบวนการฝึกยังเปิดเผยทั้งกระบวนการ โดยใช้ซอฟต์แวร์ของทาง NVIDIA เอง เช่น NeMo RL, NeMo Evaluator สามารถนำไปปรับแต่งผ่าน Unsloth ได้ทันที และหากต้องการใช้งานก็มีผู้ให้บริการเริ่มให้บริการ API แล้ว เช่น Cloudflare, DeepInfra, Lightning.AI แต่มีเพียง Inference.net เท่านั้นที่รองรับ context windows ล้านโทเค็นเต็ม แลกกับราคาค่อนข้างแพง
ที่มา - NVIDIA
lew Thu, 12/03/2026 - 02:26
Continue reading...