กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


News

ข่าว AWS จับมือ Cerebras ให้บริการรันโมเดล AI แบบลูกผสม ชิป Trainium + CS-3

News 

Active member
สมาชิกทีมงาน
Moderator
Distributor
เจ้าของกระทู้
AWS จับมือ Cerebras ให้บริการรันโมเดล AI แบบลูกผสม ชิป Trainium + CS-3
Body

Cerebras บริษัทผู้ผลิตชิปเร่งความเร็ว AI เฉพาะทาง ประกาศความร่วมมือกับ Amazon เพื่อนำชิป Cerebras CS-3 ของตัวเองไปให้ บริการรันโมเดล Amazon Bedrock ของ AWS

ความน่าสนใจของดีลนี้คือ โซลูชันการรันโมเดลจะเป็นลูกผสมระหว่าง ชิป Amazon Trainium และ CS-3 แบ่งส่วนงานกันทำ โดย Amazon ใช้คำว่า inference disaggregation หรือการแบ่งส่วนการรัน (inference) ออกเป็น 2 ขั้นตอน

  • prompt processing หรือ prefill การประมวลผลคำสั่ง prompt ซึ่งต้องใช้พลังประมวลผลแบบขนานสูง (computationally intensive) แต่ใช้แบนด์วิดท์หน่วยความจำไม่มากนัก ขั้นนี้จะทำโดย Trainium
  • output generation หรือ decode การสร้างผลลัพธ์ ใช้การประมวลผลแบบอนุกรม (token ไหลออกมาทีละตัว) ใช้พลังประมวลผลไม่สูง แต่ใช้แบนด์วิดท์หน่วยความจำหนัก ขั้นนี้ถือเป็นส่วนใหญ่ของงาน inference จะทำโดย CS-3 ที่ปรับแต่งมาเพื่อสิ่งนี้

ชิปทั้งสองตัวจะเชื่อมต่อกันผ่าน Elastic Fabric Adapter โดยโซลูชันนี้จะเปิดบริการบน Amazon Bedrock ในอีกไม่กี่เดือนข้างหน้า

ที่มา - AWS

mk Sat, 14/03/2026 - 10:14

Continue reading...
 



กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม ด้านล่าง

ตัวแก้ไขธีม