กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว Apple เผยแพร่งานวิจัย AI ที่เข้าใจคำถามกำกวม โดยอาศัยบริบทเพิ่มเติมจากข้อมูลในหน้าจอโทรศัพท์

News

Staff Member
VIP Member
Registered
ทีมนักวิจัยของแอปเปิลเผยแพร่ผลงาน AI ที่เพิ่มความสามารถเข้าใจบริบท (context) ของคำถามจากผู้ใช้งาน โดยอ้างอิงจากสิ่งที่ปรากฏบนหน้าจอของผู้ใช้งาน

ระบบ AI นี้มีชื่อเรียกว่า ReALM ย่อมาจาก Reference Resolution As Language Modeling เป็นโมเดล LLM ที่สามารถเข้าใจคำถามซึ่งไม่ชัดเจนหรือกำกวม ด้วยการหาข้อมูลเพิ่มเติมจากสิ่งที่ปรากฏบนหน้าจอโทรศัพท์ ทำให้บทสนทนามีความลื่นไหลและเป็นธรรมชาติมากยิ่งขึ้น

ตัวอย่างการใช้งาน เช่น ถามแชทบอตให้แสดงรายชื่อร้านขายยาที่อยู่ใกล้ ตามปกติจะได้คำตอบเป็นรายชื่อร้านขายยา ก็สามารถส่งคำถามต่อไปเช่น "โทรหาร้านที่อยู่ถนน XXX" หรือ "โทรหาร้านล่างสุด" หรือ "โทรหาเบอร์นี้" (หน้าจอมีเบอร์โทรเบอร์เดียว) ซึ่งแชทบอตทั่วไปจะถามกลับขอข้อมูลเพิ่มเติม เนื่องจากคำถามกำกวม แต่ ReALM สามารถทำงานต่อได้เพราะใช้ข้อมูลบนหน้าจอประกอบ ในงานวิจัยนี้ยังทดสอบคำถามประเภทนี้เทียบกับ ChatGPT (ทั้ง GPT-3.5 และ GPT-4) พบว่าทำงานได้ดีกว่า

งานวิจัยนี้ทำให้เห็นทิศทางฟีเจอร์หนึ่งที่แอปเปิลสามารถนำมาใส่ใน Siri ได้นั่นเอง

ที่มา: VentureBeat

99adf9c5a191c955920a86e146c2d386.jpg


Topics:
Apple
Artificial Intelligence
Siri
LLM

อ่านต่อ...
 



กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
ด้านบน ด้านล่าง