กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


Lamini ร่วมมือ AMD ขายเซิร์ฟเวอร์รัน AI แบบ LLM ระบุประสิทธิภาพเทียบเท่า CUDA แล้ว

news Lamini ร่วมมือ AMD ขายเซิร์ฟเวอร์รัน AI แบบ LLM ระบุประสิทธิภาพเทียบเท่า CUDA แล้ว

News 

Active member

Staff member
Moderator
Collaborate
Lamini บริษัทขายแพลตฟอร์มฝึกและรันโมเดลปัญญาประดิษฐ์ รวมมือถือกับ AMD เปิดตัว LLM Superstation เซิร์ฟเวอร์สำหรับรันปัญญาประดิษฐ์ LLM โดยเฉพาะ เปิดเครื่องมามี Llama 2-70B ให้ใช้งานทันที

ความพิเศษของ LLM Superstation คือใช้การ์ด AMD Instinct MI250 แทนที่จะเป็นการ์ด NVIDIA ที่อุตสาหกรรมนิยมกัน ความได้เปรียบของ MI250 คือมันใส่แรมมาถึง 128GB ทำให้รันโมเดลขนาดใหญ่ได้ง่ายกว่าการ์ด A100 (NVIDIA เริ่มใส่แรมเยอะขึ้นในการ์ดรุ่นหลังๆ) และข้อดีสำคัญอีกอย่างคือรอสั่งเครื่องเร็วกว่าเซิร์ฟเวอร์ที่ใช้การ์ด NVIDIA

ทาง Lamini ระบุว่าบริการของบริษัทเองก็ใช้การ์ด MI210 และ MI250 มาตลอด และ AMD เองก็ใช้แพลตฟอร์ใ Lamini สำหรับ LLM ภายในบริษัทเองเพื่อให้บริการนักพัฒนาด้วย

Lamini เปิดแบบฟอร์มให้ผู้แสดงความสนใจสั่งซื้อ LLM Superstation แต่ยังไม่บอกราคาหรือสเปคโดยรวม

ที่มา - Lamini

No Description


Topics:
AMD
LLM
Artificial Intelligence

อ่านต่อ...
 

Attachments

  • 28a0dd7e1d645e9aa9486837094576b3.webp
    28a0dd7e1d645e9aa9486837094576b3.webp
    42.4 KB · Views: 28



กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
Back
Top Bottom