กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


News

ข่าว กูเกิลเปิดตัว EmbeddingGemma โมเดลขนาดเล็ก รันบนมือถือได้ ออฟไลน์ได้ ต้องการแรม 200MB

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อ News 
  • วันที่เริ่มต้น วันที่เริ่มต้น

News 

Active member

สมาชิกทีมงาน
Moderator
Distributor
กูเกิลเปิดตัว EmbeddingGemma โมเดลขนาดเล็ก รันบนมือถือได้ ออฟไลน์ได้ ต้องการแรม 200MB
Body

กูเกิลยังเดินหน้าออกโมเดลขนาดเล็กในตระกูล Gemma ต่อไป หลังจาก Gemma 3 270M ที่เป็นโมเดลตั้งต้นให้นำไปปรับแต่งต่อ ก็ตามมาด้วย EmbeddingGemma โมเดลที่ออกแบบมาสำหรับ on-device AI แบบพร้อมใช้งานทันที

EmbeddingGemma ปรับแต่งมาจาก Gemma 3 อีกที มีขนาดพารามิเตอร์ 308M มีขนาดเล็กพอที่จะทำงานภายใต้แรม 200MB (quantization แล้ว) รันงานในอุปกรณ์แบบออฟไลน์ แต่ถึงแม้ขนาดเล็ก โมเดลมีประสิทธิภาพสูง ตอบเร็ว ทำคะแนนเบนช์มาร์คได้สูงกว่าโมเดลขนาดใกล้เคียงกันตัวอื่นๆ อย่างชัดเจน

ในแง่ของความเข้ากันได้ EmbeddingGemma รองรับการรันบนเฟรมเวิร์ค AI ชื่อดังเกือบทั้งวงการ เช่น sentence-transformers, llama.cpp, MLX, Ollama, LiteRT, transformers.js, LMStudio, Weaviate, Cloudflare, LlamaIndex, LangChain

โมเดลเปิดให้ใช้งานบน HuggingFace, Kaggle, Vertex AI

ที่มา - Google


กูเกิลเปิดตัว EmbeddingGemma โมเดลขนาดเล็ก รันบนมือถือได้ ออฟไลน์ได้  ต้องการแรม 200MB-1.webp


mk Sat, 06/09/2025 - 20:03

Continue reading...
 



กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม ด้านล่าง