กูเกิลเปิดตัว Gemma 3n รุ่นย่อสำหรับรันบนโทรศัพท์ ปรับจนใช้แรมน้อยลงครึ่งหนึ่ง
Body
กูเกิลเปิดตัวโมเดลปัญญาประดิษฐ์ Gemma 3n ที่ใช้เทคนิคต่างๆ ในการย่อขนาดโมเดลจนเล็กลงเพียงพอที่จะรันในโทรศัพท์หรือแทบเล็ตได้ โดยยังมีความฉลาดสูง
เทคนิคย่อโมเดลสำคัญคือที่สุดคือ Per-Layer Embeddings (PLE) ที่แยกข้อมูลออกไปเก็บไว้ในสตอเรจ แล้วค่อยนำข้อมูลกลับมาใช้เมื่อรันแต่ละส่วน ทำให้โดยรวมสามารถรันโมเดลโดยใช้แรมไม่ถึงครึ่งของโมเดลเต็มๆ
สถาปัตยกรรมของ Gemma 3n ใช้ MatFormer ที่เปิดให้คอนฟิกโมเดลเป็นหลายขนาดได้ตามการใช้งานจริง เช่น โมเดลรุ่นใหญ่สุด คือ Gemma 3n E4B (E มาจาก effective แปลว่าใช้พื้นที่แรมเท่ากับโมเดลขนาด 4B) ก็จะเลือกคอนฟิกตอนรันให้โหลดโมเดล E2B ขึ้นมาใช้งานได้
ตัวโมเดลรองรับอินพุตทั้งข้อความ, ภาพ, และเสียง สามารถดาวน์โหลดได้แล้วผ่าน HuggingFace หรือทดลองใช้งานผ่าน Google AI Studio
ที่มา - Google Developers Blog
lew Wed, 05/21/2025 - 16:04
Continue reading...
Body
กูเกิลเปิดตัวโมเดลปัญญาประดิษฐ์ Gemma 3n ที่ใช้เทคนิคต่างๆ ในการย่อขนาดโมเดลจนเล็กลงเพียงพอที่จะรันในโทรศัพท์หรือแทบเล็ตได้ โดยยังมีความฉลาดสูง
เทคนิคย่อโมเดลสำคัญคือที่สุดคือ Per-Layer Embeddings (PLE) ที่แยกข้อมูลออกไปเก็บไว้ในสตอเรจ แล้วค่อยนำข้อมูลกลับมาใช้เมื่อรันแต่ละส่วน ทำให้โดยรวมสามารถรันโมเดลโดยใช้แรมไม่ถึงครึ่งของโมเดลเต็มๆ
สถาปัตยกรรมของ Gemma 3n ใช้ MatFormer ที่เปิดให้คอนฟิกโมเดลเป็นหลายขนาดได้ตามการใช้งานจริง เช่น โมเดลรุ่นใหญ่สุด คือ Gemma 3n E4B (E มาจาก effective แปลว่าใช้พื้นที่แรมเท่ากับโมเดลขนาด 4B) ก็จะเลือกคอนฟิกตอนรันให้โหลดโมเดล E2B ขึ้นมาใช้งานได้
ตัวโมเดลรองรับอินพุตทั้งข้อความ, ภาพ, และเสียง สามารถดาวน์โหลดได้แล้วผ่าน HuggingFace หรือทดลองใช้งานผ่าน Google AI Studio
ที่มา - Google Developers Blog
lew Wed, 05/21/2025 - 16:04
Continue reading...