วิจัยจาก Giskard พบ การขอให้แชทบอทตอบคำถามสั้น ๆ อาจทำให้เกิดอาการหลอนมากขึ้น
Body
ผลการศึกษาโดย Giskard บริษัททดสอบ AI ในปารีส พบว่าเมื่อสั่งให้แชทบอท AI ตอบคำถามแบบกระชับ มันอาจสร้างข้อมูลผิด ๆ มากขึ้น เพราะไม่เปิดโอกาสให้ AI ได้แก้ไขข้อผิดพลาด หรืออธิบายหัวข้อที่ซับซ้อน ทำให้บางครั้ง แชทบอทเลือกความรวดเร็วแทนความถูกต้อง
จากการทดสอบ โมเดลที่พบอาการหลอน (hallucination) มีทั้ง GPT-4o และ mini, Mistral Small และ Large, DeepSeek v3, รวมทั้ง Grok 2 ซึ่งมีอาการหลอนมากที่สุดเมื่อต้องตอบสั้น ๆ
อีกประเด็นที่น่าสนใจคือ AI มีแนวโน้มที่จะไม่โต้แย้งข้อมูลผิด ๆ หากผู้ใช้แสดงความมั่นใจในสิ่งที่พิมพ์ไป เช่น “ฉันมั่นใจ 100% ว่า…” ซึ่งทำให้ AI มีแนวโน้มจะเห็นด้วย แม้ว่าข้อมูลนั้นจะไม่ถูกต้องก็ตาม จึงเกิดคำถามว่า ควรออกแบบ AI อย่างไรให้บาลานซ์ระหว่างความรวดเร็ว และความถูกต้องของข้อมูล
ที่มา: TechCrunch
boompw Tue, 05/13/2025 - 18:13
Continue reading...
Body
ผลการศึกษาโดย Giskard บริษัททดสอบ AI ในปารีส พบว่าเมื่อสั่งให้แชทบอท AI ตอบคำถามแบบกระชับ มันอาจสร้างข้อมูลผิด ๆ มากขึ้น เพราะไม่เปิดโอกาสให้ AI ได้แก้ไขข้อผิดพลาด หรืออธิบายหัวข้อที่ซับซ้อน ทำให้บางครั้ง แชทบอทเลือกความรวดเร็วแทนความถูกต้อง
จากการทดสอบ โมเดลที่พบอาการหลอน (hallucination) มีทั้ง GPT-4o และ mini, Mistral Small และ Large, DeepSeek v3, รวมทั้ง Grok 2 ซึ่งมีอาการหลอนมากที่สุดเมื่อต้องตอบสั้น ๆ
อีกประเด็นที่น่าสนใจคือ AI มีแนวโน้มที่จะไม่โต้แย้งข้อมูลผิด ๆ หากผู้ใช้แสดงความมั่นใจในสิ่งที่พิมพ์ไป เช่น “ฉันมั่นใจ 100% ว่า…” ซึ่งทำให้ AI มีแนวโน้มจะเห็นด้วย แม้ว่าข้อมูลนั้นจะไม่ถูกต้องก็ตาม จึงเกิดคำถามว่า ควรออกแบบ AI อย่างไรให้บาลานซ์ระหว่างความรวดเร็ว และความถูกต้องของข้อมูล
ที่มา: TechCrunch
boompw Tue, 05/13/2025 - 18:13
Continue reading...