AWS จับมือ Cerebras ให้บริการรันโมเดล AI แบบลูกผสม ชิป Trainium + CS-3
Body
Cerebras บริษัทผู้ผลิตชิปเร่งความเร็ว AI เฉพาะทาง ประกาศความร่วมมือกับ Amazon เพื่อนำชิป Cerebras CS-3 ของตัวเองไปให้ บริการรันโมเดล Amazon Bedrock ของ AWS
ความน่าสนใจของดีลนี้คือ โซลูชันการรันโมเดลจะเป็นลูกผสมระหว่าง ชิป Amazon Trainium และ CS-3 แบ่งส่วนงานกันทำ โดย Amazon ใช้คำว่า inference disaggregation หรือการแบ่งส่วนการรัน (inference) ออกเป็น 2 ขั้นตอน
ชิปทั้งสองตัวจะเชื่อมต่อกันผ่าน Elastic Fabric Adapter โดยโซลูชันนี้จะเปิดบริการบน Amazon Bedrock ในอีกไม่กี่เดือนข้างหน้า
ที่มา - AWS
mk Sat, 14/03/2026 - 10:14
Continue reading...
Body
Cerebras บริษัทผู้ผลิตชิปเร่งความเร็ว AI เฉพาะทาง ประกาศความร่วมมือกับ Amazon เพื่อนำชิป Cerebras CS-3 ของตัวเองไปให้ บริการรันโมเดล Amazon Bedrock ของ AWS
ความน่าสนใจของดีลนี้คือ โซลูชันการรันโมเดลจะเป็นลูกผสมระหว่าง ชิป Amazon Trainium และ CS-3 แบ่งส่วนงานกันทำ โดย Amazon ใช้คำว่า inference disaggregation หรือการแบ่งส่วนการรัน (inference) ออกเป็น 2 ขั้นตอน
- prompt processing หรือ prefill การประมวลผลคำสั่ง prompt ซึ่งต้องใช้พลังประมวลผลแบบขนานสูง (computationally intensive) แต่ใช้แบนด์วิดท์หน่วยความจำไม่มากนัก ขั้นนี้จะทำโดย Trainium
- output generation หรือ decode การสร้างผลลัพธ์ ใช้การประมวลผลแบบอนุกรม (token ไหลออกมาทีละตัว) ใช้พลังประมวลผลไม่สูง แต่ใช้แบนด์วิดท์หน่วยความจำหนัก ขั้นนี้ถือเป็นส่วนใหญ่ของงาน inference จะทำโดย CS-3 ที่ปรับแต่งมาเพื่อสิ่งนี้
ชิปทั้งสองตัวจะเชื่อมต่อกันผ่าน Elastic Fabric Adapter โดยโซลูชันนี้จะเปิดบริการบน Amazon Bedrock ในอีกไม่กี่เดือนข้างหน้า
ที่มา - AWS
mk Sat, 14/03/2026 - 10:14
Continue reading...