กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


News

ข่าว Apple เผยแพร่งานวิจัย LLM ทำนายกิจกรรมผู้ใช้งาน โดยใช้ข้อมูลเสียงกับการเคลื่อนไหว

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อ News 
  • วันที่เริ่มต้น วันที่เริ่มต้น

News 

Active member
สมาชิกทีมงาน
Moderator
Distributor
เจ้าของกระทู้
Apple เผยแพร่งานวิจัย LLM ทำนายกิจกรรมผู้ใช้งาน โดยใช้ข้อมูลเสียงกับการเคลื่อนไหว
Body

เมื่อสัปดาห์ที่แล้ว ทีมวิจัยด้านปัญญาประดิษฐ์ของแอปเปิลได้เผยแพร่รายงานการศึกษาเกี่ยวกับการพัฒนาโมเดล LLM ที่ใช้ข้อมูลเสียงมาประกอบกับข้อมูลการเคลื่อนไหว ทำให้วิเคราะห์ข้อมูลกิจกรรมการเคลื่อนไหวของผู้ใช้งานได้แม่นยำมากขึ้น

โมเดลทดสอบนี้ใช้ข้อมูลจากเซ็นเซอร์สองอย่างคือการเคลื่อนไหวและเสียง เรียนรู้จากชุดข้อมูล Ego4D ที่มีข้อมูลเสียงในกิจกรรมต่าง ๆ เช่น ดูดฝุ่น ทำอาหาร ซักผ้า เล่นบาสเกตบอล เล่นกับสัตว์เลี้ยง อ่านหนังสือ ดูทีวี เป็นต้น แล้วทำงานร่วมกับโมเดล LLM อื่น เป็นโมเดลข้อมูลแบบผสมผสานใหม่ ซึ่งการทดสอบนี้ใช้ Gemini-2.5-pro และ Qwen-32B ผลลัพธ์ที่ได้โมเดลสามารถเรียนรู้จำแนกกิจกรรมต่าง ๆ ได้ดี แม้แต่เป็นกิจกรรมที่ไม่มีในชุดข้อมูลฝึกฝน

เนื่องจากเป็นงานวิจัย แอปเปิลเลยไม่ได้บอกว่ามีแผนพัฒนาต่อยอดโมเดลนี้อย่างไรกับอุปกรณ์ที่มีอยู่ปัจจุบัน

ที่มา: 9to5Mac

arjin Sat, 29/11/2025 - 14:36

Continue reading...
 



กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม ด้านล่าง

ตัวแก้ไขธีม