ChatGPT ถูกผู้ใช้โวยหนัก หลังพบปัญหาตอบเพี้ยน สร้างข้อมูลเท็จเพิ่ม แม้ใช้โหมดการค้นหา ขณะที่ความคาดหวังต่อ “GPT-5” ถูกตั้งคำถาม
Body
กระทู้ที่ร้อนแรงที่สุด คะแนนโหวตสูงหลายพัน (6.7K+) ในรอบไม่กี่ ชม. ที่ผ่านมา ผู้ใช้บนชุมชน Reddit ได้ตั้งกระทู้ใน r/ChatGPT เพื่อแชร์ประสบการณ์การใช้งาน ChatGPT "กำลังเสื่อมสภาพลงอย่างเห็นได้ชัด" โดยอ้างว่าโมเดลเริ่มตอบกลับได้แย่ลง สร้างข้อมูลเท็จมากขึ้น (hallucinate) และแสดงพฤติกรรมที่ไม่สมเหตุสมผล แม้ใช้ฟีเจอร์การค้นหาข้อมูล (Search with Bing) เพื่อให้คำตอบอิงจากข้อมูลจริง
หัวข้อกระทู้ที่ตั้งไว้คือ “ChatGPT is completely falling apart” ได้รับความสนใจจากผู้ใช้จำนวนมาก โดยมีผู้แสดงความคิดเห็นกว่าพัน (1.3K+) ข้อความ หลายคนสังเกตเห็นปัญหาเกิดขึ้นในช่วงไม่กี่สัปดาห์ที่ผ่านมา ที่ ChatGPT ให้คำตอบที่คลุมเครือ ไม่แม่นยำ หรือหลีกเลี่ยงคำถามที่ซับซ้อน
ตอบคำถามผิด แม้เปิดโหมดค้นหา
หนึ่งในผู้ใช้ยกตัวอย่างว่า เมื่อถามถึงข้อมูลข่าวล่าสุดหรือสถิติบางอย่าง แม้ ChatGPT เปิดใช้งานโหมดค้นหา แต่กลับไม่อ้างอิงข้อมูลจากผลลัพธ์ที่ปรากฏ หรือบางครั้งสรุปข้อมูลผิดพลาดจากแหล่งที่มาที่ให้ไว้ ขณะที่อีกคนระบุว่า เจอปัญหาการ “ปฏิเสธการตอบคำถาม” มากขึ้น แม้คำถามนั้นไม่มีเนื้อหาละเอียดอ่อนหรือขัดต่อแนวทางการใช้งาน
ช้าลง และตอบแบบซ้ำซาก
นอกจากปัญหาด้านความแม่นยำแล้ว ผู้ใช้หลายคนยังรายงานว่า ความเร็วในการตอบของ ChatGPT ช้าลงอย่างชัดเจน โดยเฉพาะในช่วงเวลาที่มีผู้ใช้งานหนาแน่น บางรายระบุว่าต้องรอหลายนาทีกว่าระบบจะเริ่มพิมพ์คำตอบ หรือบางครั้งการตอบกลับก็ค้างไปกลางคัน ต้องรีเฟรชหน้าเว็บใหม่
อีกประเด็นที่ถูกพูดถึงคือ การเปลี่ยนแปลงน้ำเสียงและโทนการตอบของ ChatGPT ที่ดู "จืดชืด" และ "ซ้ำซาก" มากขึ้น ผู้ใช้บางรายสังเกตว่า โมเดลเริ่มใช้ประโยคมาตรฐานซ้ำ ๆ เช่น “ผมเข้าใจคำถามของคุณ…” หรือ “สิ่งนี้อาจขึ้นอยู่กับบริบท…” แม้ในกรณีที่ไม่จำเป็น ทำให้การสนทนาดูขาดธรรมชาติและไม่เป็นประโยชน์เท่าที่ควร
ไม่สอดคล้องกัน และความจำสั้นลง
ผู้ใช้รายหนึ่งทดลองถามคำถามเดิมซ้ำในช่วงเวลาต่างกัน และพบว่าคำตอบที่ได้จาก ChatGPT มีความไม่สอดคล้องกัน ทั้งในด้านข้อมูลและน้ำเสียง ทำให้ตั้งข้อสังเกตว่า ระบบอาจไม่เสถียรเหมือนช่วงก่อนหน้า
นอกจากนี้ ยังมีผู้ใช้หลายรายสังเกตว่า ความสามารถในการจดจำบริบท (context retention) ของ ChatGPT ดูแย่ลงอย่างชัดเจน โดยเฉพาะในบทสนทนาที่ยาวหรือมีหลายหัวข้อ โมเดลเริ่ม “ลืม” ข้อมูลที่พูดไปก่อนหน้า แม้เพิ่งผ่านไปไม่กี่ข้อความ หรือตอบกลับโดยไม่เชื่อมโยงกับสิ่งที่พูดถึงก่อนหน้า ซึ่งเป็นพฤติกรรมที่ไม่เคยเกิดขึ้นในระดับนี้มาก่อน
กลับลำเอง-เขียนโค้ดผิด-ตอบแบบกลัวเกินเหตุ
มีผู้ใช้รายงานว่า ChatGPT มัก “กลับลำ” หรือเปลี่ยนคำตอบตัวเองในบทสนทนาเดียวกัน โดยไม่มีเหตุผลชัดเจน แม้ใช้คำถามเดิมซ้ำหรือกด regenerate ก็ได้คำตอบที่ขัดแย้งกัน ทำให้ผู้ใช้ไม่มั่นใจในความน่าเชื่อถือของคำตอบ
ด้านการเขียนโค้ด นักพัฒนาหลายคนพบว่า ChatGPT เริ่มแนะนำโค้ดที่ใช้ไม่ได้ หรือใช้ฟังก์ชันที่ถูกยกเลิกไปแล้ว (deprecated) โดยเฉพาะในภาษา Python และ JavaScript บางกรณีให้โค้ดที่มี syntax ผิดพลาดแม้ในระดับพื้นฐาน ซึ่งแตกต่างจากเวอร์ชันก่อนหน้าที่ให้ผลลัพธ์แม่นยำกว่า
อีกหนึ่งปัญหาที่ถูกกล่าวถึงบ่อยคือ การที่ ChatGPT ตอบกลับด้วยท่าที “กลัว” หรือ “ระแวง” มากเกินไป แม้ในบริบทที่ปลอดภัย เช่น การปฏิเสธช่วยเขียนบทสนทนาสมมติเกี่ยวกับการเมือง หรือการเตือนว่า “อาจไม่เหมาะสม” ทั้งที่ไม่มีเนื้อหาที่ก่อให้เกิดความเสี่ยง ซึ่งทำให้การใช้งานดูจำกัดและขาดความยืดหยุ่น
ไม่ยอมรับข้อผิดพลาด และประสบการณ์ใช้งานบนมือถือย่ำแย่
ผู้ใช้บางรายพบว่าเมื่อชี้ให้ ChatGPT เห็นข้อผิดพลาด มันมักจะ “แก้ตัว” แทนการยอมรับ เช่น บอกว่า “ขึ้นอยู่กับการตีความ” หรือ “มีแหล่งข้อมูลบางส่วนที่สนับสนุน” แม้ข้อมูลนั้นผิดชัดเจน ทำให้รู้สึกว่าโมเดลพยายามรักษาภาพลักษณ์มากกว่าการให้ข้อมูลที่ถูกต้อง
ด้านประสบการณ์ใช้งาน ผู้ใช้หลายรายบ่นถึงปัญหาในแอปมือถือ เช่น การโหลดช้า การพิมพ์ค้าง หรือการสูญเสียประวัติการสนทนาโดยไม่ทราบสาเหตุ โดยเฉพาะเมื่อใช้ฟีเจอร์ “Custom Instructions” ที่บางครั้งไม่ถูกนำไปใช้จริง ทำให้รู้สึกว่าระบบไม่เสถียร
ความคาดหวังต่อ GPT-5 ถูกตั้งคำถาม
ในกระทู้เดียวกัน ยังมีผู้ใช้ตั้งคำถามถึงความคาดหวังที่ OpenAI สร้างไว้เกี่ยวกับ “GPT-5” ที่มีข่าวลือและคาดการณ์ต่าง ๆ นานา ทั้งด้านความแม่นยำ การทำงานอัตโนมัติ และการเข้าใจบริบทลึก อย่างไรก็ตาม ผู้ใช้บางรายกลับมองว่า แม้แต่โมเดลปัจจุบันที่อ้างว่าเป็น “GPT-4” ก็ยังแสดงอาการย่ำแย่ลงเมื่อเทียบกับเวอร์ชันก่อนหน้า จึงเกิดข้อสงสัยว่า การโฆษณาหรือการสื่อสารของ OpenAI เกี่ยวกับความก้าวหน้าของโมเดลอาจ “เกินจริง” หรือไม่สอดคล้องกับประสบการณ์การใช้งานจริงของผู้ใช้ทั่วไป
บางคนระบุว่า ช่วงที่ GPT-4 เปิดตัวใหม่ ๆ ระบบทำงานได้แม่นยำและมีเหตุผลมากกว่า แต่หลังจากอัปเดตหลายครั้ง ประสิทธิภาพกลับถดถอย ทั้งที่ไม่มีการประกาศเปลี่ยนแปลงอย่างชัดเจน ทำให้เกิดความรู้สึกว่า “คุณภาพถูกลดทอนลงเพื่อแลกกับความปลอดภัยหรือการควบคุม”
สรุป: ปัญหาไม่ใช่แค่ “แม่นยำ” แต่เกี่ยวกับ “ประสบการณ์ทั้งหมด”
ทั้งหมดนี้สะท้อนว่า ปัญหาที่ผู้ใช้พบไม่ได้มีเพียงด้าน “ความแม่นยำของข้อมูล” เท่านั้น แต่ยังรวมถึง ความสอดคล้อง ความเข้าใจบริบท การตอบสนองต่อข้อผิดพลาด คุณภาพของโค้ด ท่าทีในการสนทนา และประสบการณ์ใช้งานโดยรวม ล้วนเป็นองค์ประกอบสำคัญที่ทำให้ผู้ใช้รู้สึกว่า “ChatGPT กำลังแย่ลง”
กระทู้ดังกล่าวยังคงมีผู้เข้ามาแสดงความคิดเห็นอย่างต่อเนื่อง โดยหลายคนแบ่งปันตัวอย่างการใช้งานที่ผิดพลาด หรือเปรียบเทียบกับประสิทธิภาพของ ChatGPT ในช่วงต้นปีที่ผ่านมา ซึ่งส่วนใหญ่ระบุตรงกันว่า ประสบการณ์การใช้งานดูแย่ลงอย่างชัดเจน แม้กระทั่ง GPT-4 ที่ทาง OpenAI เปิดกลับมาให้ใช้ ก็ไม่เหมือนเดิมแบบที่ผู้ใช้คุ้นเคยเช่นกัน
OpenAI ยังไม่ได้ออกมาชี้แจงอย่างเป็นทางการต่อประเด็นนี้ แต่ในอดีตบริษัทเคยระบุว่า การอัปเดตโมเดลเป็นกระบวนการต่อเนื่อง และอาจส่งผลต่อพฤติกรรมของโมเดลในบางช่วงเวลา
ที่มา - กระทู้ Reddit
Fzo Sat, 30/08/2025 - 10:31
Continue reading...
Body
กระทู้ที่ร้อนแรงที่สุด คะแนนโหวตสูงหลายพัน (6.7K+) ในรอบไม่กี่ ชม. ที่ผ่านมา ผู้ใช้บนชุมชน Reddit ได้ตั้งกระทู้ใน r/ChatGPT เพื่อแชร์ประสบการณ์การใช้งาน ChatGPT "กำลังเสื่อมสภาพลงอย่างเห็นได้ชัด" โดยอ้างว่าโมเดลเริ่มตอบกลับได้แย่ลง สร้างข้อมูลเท็จมากขึ้น (hallucinate) และแสดงพฤติกรรมที่ไม่สมเหตุสมผล แม้ใช้ฟีเจอร์การค้นหาข้อมูล (Search with Bing) เพื่อให้คำตอบอิงจากข้อมูลจริง
หัวข้อกระทู้ที่ตั้งไว้คือ “ChatGPT is completely falling apart” ได้รับความสนใจจากผู้ใช้จำนวนมาก โดยมีผู้แสดงความคิดเห็นกว่าพัน (1.3K+) ข้อความ หลายคนสังเกตเห็นปัญหาเกิดขึ้นในช่วงไม่กี่สัปดาห์ที่ผ่านมา ที่ ChatGPT ให้คำตอบที่คลุมเครือ ไม่แม่นยำ หรือหลีกเลี่ยงคำถามที่ซับซ้อน
ตอบคำถามผิด แม้เปิดโหมดค้นหา
หนึ่งในผู้ใช้ยกตัวอย่างว่า เมื่อถามถึงข้อมูลข่าวล่าสุดหรือสถิติบางอย่าง แม้ ChatGPT เปิดใช้งานโหมดค้นหา แต่กลับไม่อ้างอิงข้อมูลจากผลลัพธ์ที่ปรากฏ หรือบางครั้งสรุปข้อมูลผิดพลาดจากแหล่งที่มาที่ให้ไว้ ขณะที่อีกคนระบุว่า เจอปัญหาการ “ปฏิเสธการตอบคำถาม” มากขึ้น แม้คำถามนั้นไม่มีเนื้อหาละเอียดอ่อนหรือขัดต่อแนวทางการใช้งาน
ช้าลง และตอบแบบซ้ำซาก
นอกจากปัญหาด้านความแม่นยำแล้ว ผู้ใช้หลายคนยังรายงานว่า ความเร็วในการตอบของ ChatGPT ช้าลงอย่างชัดเจน โดยเฉพาะในช่วงเวลาที่มีผู้ใช้งานหนาแน่น บางรายระบุว่าต้องรอหลายนาทีกว่าระบบจะเริ่มพิมพ์คำตอบ หรือบางครั้งการตอบกลับก็ค้างไปกลางคัน ต้องรีเฟรชหน้าเว็บใหม่
อีกประเด็นที่ถูกพูดถึงคือ การเปลี่ยนแปลงน้ำเสียงและโทนการตอบของ ChatGPT ที่ดู "จืดชืด" และ "ซ้ำซาก" มากขึ้น ผู้ใช้บางรายสังเกตว่า โมเดลเริ่มใช้ประโยคมาตรฐานซ้ำ ๆ เช่น “ผมเข้าใจคำถามของคุณ…” หรือ “สิ่งนี้อาจขึ้นอยู่กับบริบท…” แม้ในกรณีที่ไม่จำเป็น ทำให้การสนทนาดูขาดธรรมชาติและไม่เป็นประโยชน์เท่าที่ควร
ไม่สอดคล้องกัน และความจำสั้นลง
ผู้ใช้รายหนึ่งทดลองถามคำถามเดิมซ้ำในช่วงเวลาต่างกัน และพบว่าคำตอบที่ได้จาก ChatGPT มีความไม่สอดคล้องกัน ทั้งในด้านข้อมูลและน้ำเสียง ทำให้ตั้งข้อสังเกตว่า ระบบอาจไม่เสถียรเหมือนช่วงก่อนหน้า
นอกจากนี้ ยังมีผู้ใช้หลายรายสังเกตว่า ความสามารถในการจดจำบริบท (context retention) ของ ChatGPT ดูแย่ลงอย่างชัดเจน โดยเฉพาะในบทสนทนาที่ยาวหรือมีหลายหัวข้อ โมเดลเริ่ม “ลืม” ข้อมูลที่พูดไปก่อนหน้า แม้เพิ่งผ่านไปไม่กี่ข้อความ หรือตอบกลับโดยไม่เชื่อมโยงกับสิ่งที่พูดถึงก่อนหน้า ซึ่งเป็นพฤติกรรมที่ไม่เคยเกิดขึ้นในระดับนี้มาก่อน
กลับลำเอง-เขียนโค้ดผิด-ตอบแบบกลัวเกินเหตุ
มีผู้ใช้รายงานว่า ChatGPT มัก “กลับลำ” หรือเปลี่ยนคำตอบตัวเองในบทสนทนาเดียวกัน โดยไม่มีเหตุผลชัดเจน แม้ใช้คำถามเดิมซ้ำหรือกด regenerate ก็ได้คำตอบที่ขัดแย้งกัน ทำให้ผู้ใช้ไม่มั่นใจในความน่าเชื่อถือของคำตอบ
ด้านการเขียนโค้ด นักพัฒนาหลายคนพบว่า ChatGPT เริ่มแนะนำโค้ดที่ใช้ไม่ได้ หรือใช้ฟังก์ชันที่ถูกยกเลิกไปแล้ว (deprecated) โดยเฉพาะในภาษา Python และ JavaScript บางกรณีให้โค้ดที่มี syntax ผิดพลาดแม้ในระดับพื้นฐาน ซึ่งแตกต่างจากเวอร์ชันก่อนหน้าที่ให้ผลลัพธ์แม่นยำกว่า
อีกหนึ่งปัญหาที่ถูกกล่าวถึงบ่อยคือ การที่ ChatGPT ตอบกลับด้วยท่าที “กลัว” หรือ “ระแวง” มากเกินไป แม้ในบริบทที่ปลอดภัย เช่น การปฏิเสธช่วยเขียนบทสนทนาสมมติเกี่ยวกับการเมือง หรือการเตือนว่า “อาจไม่เหมาะสม” ทั้งที่ไม่มีเนื้อหาที่ก่อให้เกิดความเสี่ยง ซึ่งทำให้การใช้งานดูจำกัดและขาดความยืดหยุ่น
ไม่ยอมรับข้อผิดพลาด และประสบการณ์ใช้งานบนมือถือย่ำแย่
ผู้ใช้บางรายพบว่าเมื่อชี้ให้ ChatGPT เห็นข้อผิดพลาด มันมักจะ “แก้ตัว” แทนการยอมรับ เช่น บอกว่า “ขึ้นอยู่กับการตีความ” หรือ “มีแหล่งข้อมูลบางส่วนที่สนับสนุน” แม้ข้อมูลนั้นผิดชัดเจน ทำให้รู้สึกว่าโมเดลพยายามรักษาภาพลักษณ์มากกว่าการให้ข้อมูลที่ถูกต้อง
ด้านประสบการณ์ใช้งาน ผู้ใช้หลายรายบ่นถึงปัญหาในแอปมือถือ เช่น การโหลดช้า การพิมพ์ค้าง หรือการสูญเสียประวัติการสนทนาโดยไม่ทราบสาเหตุ โดยเฉพาะเมื่อใช้ฟีเจอร์ “Custom Instructions” ที่บางครั้งไม่ถูกนำไปใช้จริง ทำให้รู้สึกว่าระบบไม่เสถียร
ความคาดหวังต่อ GPT-5 ถูกตั้งคำถาม
ในกระทู้เดียวกัน ยังมีผู้ใช้ตั้งคำถามถึงความคาดหวังที่ OpenAI สร้างไว้เกี่ยวกับ “GPT-5” ที่มีข่าวลือและคาดการณ์ต่าง ๆ นานา ทั้งด้านความแม่นยำ การทำงานอัตโนมัติ และการเข้าใจบริบทลึก อย่างไรก็ตาม ผู้ใช้บางรายกลับมองว่า แม้แต่โมเดลปัจจุบันที่อ้างว่าเป็น “GPT-4” ก็ยังแสดงอาการย่ำแย่ลงเมื่อเทียบกับเวอร์ชันก่อนหน้า จึงเกิดข้อสงสัยว่า การโฆษณาหรือการสื่อสารของ OpenAI เกี่ยวกับความก้าวหน้าของโมเดลอาจ “เกินจริง” หรือไม่สอดคล้องกับประสบการณ์การใช้งานจริงของผู้ใช้ทั่วไป
บางคนระบุว่า ช่วงที่ GPT-4 เปิดตัวใหม่ ๆ ระบบทำงานได้แม่นยำและมีเหตุผลมากกว่า แต่หลังจากอัปเดตหลายครั้ง ประสิทธิภาพกลับถดถอย ทั้งที่ไม่มีการประกาศเปลี่ยนแปลงอย่างชัดเจน ทำให้เกิดความรู้สึกว่า “คุณภาพถูกลดทอนลงเพื่อแลกกับความปลอดภัยหรือการควบคุม”
สรุป: ปัญหาไม่ใช่แค่ “แม่นยำ” แต่เกี่ยวกับ “ประสบการณ์ทั้งหมด”
ทั้งหมดนี้สะท้อนว่า ปัญหาที่ผู้ใช้พบไม่ได้มีเพียงด้าน “ความแม่นยำของข้อมูล” เท่านั้น แต่ยังรวมถึง ความสอดคล้อง ความเข้าใจบริบท การตอบสนองต่อข้อผิดพลาด คุณภาพของโค้ด ท่าทีในการสนทนา และประสบการณ์ใช้งานโดยรวม ล้วนเป็นองค์ประกอบสำคัญที่ทำให้ผู้ใช้รู้สึกว่า “ChatGPT กำลังแย่ลง”
กระทู้ดังกล่าวยังคงมีผู้เข้ามาแสดงความคิดเห็นอย่างต่อเนื่อง โดยหลายคนแบ่งปันตัวอย่างการใช้งานที่ผิดพลาด หรือเปรียบเทียบกับประสิทธิภาพของ ChatGPT ในช่วงต้นปีที่ผ่านมา ซึ่งส่วนใหญ่ระบุตรงกันว่า ประสบการณ์การใช้งานดูแย่ลงอย่างชัดเจน แม้กระทั่ง GPT-4 ที่ทาง OpenAI เปิดกลับมาให้ใช้ ก็ไม่เหมือนเดิมแบบที่ผู้ใช้คุ้นเคยเช่นกัน
OpenAI ยังไม่ได้ออกมาชี้แจงอย่างเป็นทางการต่อประเด็นนี้ แต่ในอดีตบริษัทเคยระบุว่า การอัปเดตโมเดลเป็นกระบวนการต่อเนื่อง และอาจส่งผลต่อพฤติกรรมของโมเดลในบางช่วงเวลา
ที่มา - กระทู้ Reddit
Fzo Sat, 30/08/2025 - 10:31
Continue reading...