OpenAI เปิดโมเดล GPT OSS ให้้ใช้งานแล้ว แยกรุ่น 120B และ 20B
Body
OpenAI เปิดโมเดลปัญญาประดิษฐ์แบบเปิด
ทั้งสองโมเดลถูกฝึกแบบคิดก่อนตอบ เนื่องจากเป็นโมเดลเปิดทำให้เข้าไปดูความคิดก่อนตอบได้ (โมเดลปิดจะส่งมาเพียงสรุปคร่าวๆ เท่านั้น) ตัวโมเดลถูกฝึกให้ทำงานแบบ agentic สามารถเรียกใช้เครื่องมือต่างๆ ทั้งรัน Python, ค้นเว็บ, และเรียกฟังก์ชั่นต่างๆ ทั้งสองโมเดลรองรับอินพุต 120k โทเค็น โดยสถาปัตยกรรมทั้งสองรุ่นเป็น MoE รุ่น 120B มีพารามิเตอร์จริง 117B และใช้งานจริง 5.1B รุ่น 20B มีพารามิตเตอร์จริง 21B และใช้งานขณะรัน 3.6B
ความสามารถของรุ่น 120B ใกล้เคียงกับ o4-mini ส่วนรุ่น 20B ความสามารถลดลงมาในการทดสอบความรู้ทั่วไป
เนื่องจากเป็นโมเดลที่เปิดให้ใช้งานแบบ Apache 2.0 ที่อิสระมาก ตอนนี้ AWS ก็ประกาศนำทั้งสองโมเดลไปให้บริการใน AWS Bedrock ขณะที่บน OpenRouter ก็มีผู้ให้บริการเปิดให้ใช้งาน ในราคาอินพุตเพียง 0.05-0.1 ดอลลาร์ต่อล้านโทเค็นสำหรับรุ่น 20B และ 0.15-0.25 ดอลลาร์ต่อล้านโทเค็นสำหรับรุ่น 120B
ที่มา - OpenAI
lew Wed, 06/08/2025 - 00:56
Continue reading...
Body
OpenAI เปิดโมเดลปัญญาประดิษฐ์แบบเปิด
gpt-oss-120b
และ gpt-oss-20b
โดยเน้นการใช้งานชิปเดียว โดยรุ่น 120B ต้องการชิป H100 และรุ่น 20B สามารถรันในชิปกราฟิกตามบ้านได้ทั้งสองโมเดลถูกฝึกแบบคิดก่อนตอบ เนื่องจากเป็นโมเดลเปิดทำให้เข้าไปดูความคิดก่อนตอบได้ (โมเดลปิดจะส่งมาเพียงสรุปคร่าวๆ เท่านั้น) ตัวโมเดลถูกฝึกให้ทำงานแบบ agentic สามารถเรียกใช้เครื่องมือต่างๆ ทั้งรัน Python, ค้นเว็บ, และเรียกฟังก์ชั่นต่างๆ ทั้งสองโมเดลรองรับอินพุต 120k โทเค็น โดยสถาปัตยกรรมทั้งสองรุ่นเป็น MoE รุ่น 120B มีพารามิเตอร์จริง 117B และใช้งานจริง 5.1B รุ่น 20B มีพารามิตเตอร์จริง 21B และใช้งานขณะรัน 3.6B
ความสามารถของรุ่น 120B ใกล้เคียงกับ o4-mini ส่วนรุ่น 20B ความสามารถลดลงมาในการทดสอบความรู้ทั่วไป
เนื่องจากเป็นโมเดลที่เปิดให้ใช้งานแบบ Apache 2.0 ที่อิสระมาก ตอนนี้ AWS ก็ประกาศนำทั้งสองโมเดลไปให้บริการใน AWS Bedrock ขณะที่บน OpenRouter ก็มีผู้ให้บริการเปิดให้ใช้งาน ในราคาอินพุตเพียง 0.05-0.1 ดอลลาร์ต่อล้านโทเค็นสำหรับรุ่น 20B และ 0.15-0.25 ดอลลาร์ต่อล้านโทเค็นสำหรับรุ่น 120B
ที่มา - OpenAI
lew Wed, 06/08/2025 - 00:56
Continue reading...