Meta พบเนื้อหาที่รุนแรง-การคุกคามเพิ่มขึ้น ลบเนื้อหาน้อยลง หลังเปลี่ยนนโยบายการควบคุมเนื้อหา
Body
รายงานความปลอดภัยรายไตรมาสของ Meta ล่าสุด แสดงให้เห็นการเปลี่ยนนโยบายดูแลเนื้อหาที่ Mark Zuckerberg ตัดสินใจลดความเข้มงวดในการจัดการเนื้อหา หรือคำพูดที่แสดงความเกลียดชัง และยกเลิกการลบเนื้อหาเชิงรุกในหลายกรณี แถมยังเลิกใช้บริการตรวจสอบข้อเท็จจริงจากบุคคลที่สามในสหรัฐฯ แล้วหันมาใช้ระบบ Community Notes ที่ให้ผู้ใช้งานช่วยกันตรวจสอบแทน
สิ่งที่เห็นชัดเจนที่สุดคือ เนื้อหาที่เป็นอันตรายเพิ่มขึ้นอย่างมาก เช่น โพสต์ที่มีความรุนแรงหรือภาพรุนแรงมีสัดส่วนเพิ่มขึ้นจาก 0.06–0.07% ในช่วงปลายปี 2024 เป็น 0.09% ในไตรมาสแรกของปี 2025 โดย Meta อธิบายว่าสาเหตุหลักมาจากจำนวนเนื้อหาที่ละเมิดเพิ่มขึ้น และการพยายามลดข้อผิดพลาดจากการลบเนื้อหาที่ไม่ควรลบ
ส่วนเนื้อหาที่เกี่ยวกับการกลั่นแกล้งและคุกคามก็มีสัดส่วนเพิ่มขึ้นเล็กน้อย จาก 0.06–0.07% เป็น 0.07–0.08% โดยมีเหตุการณ์ที่ทำให้ตัวเลขพุ่งในเดือนมีนาคม แม้เปอร์เซ็นต์จะดูเพิ่มขึ้นนิดเดียว แต่สำหรับแพลตฟอร์มที่มีโพสต์นับพันล้านต่อวัน การเพิ่มขึ้นเพียงเล็กน้อยก็หมายถึงเนื้อหาที่เป็นอันตรายจำนวนหลักล้านชิ้น
ขณะเดียวกัน Meta ลบเนื้อหาน้อยลงด้วย โพสต์ที่ถูกจัดการภายใต้นโยบายเกี่ยวกับคำพูดแสดงความเกลียดชังลดลงเหลือ 3.4 ล้านชิ้น ซึ่งเป็นตัวเลขต่ำสุดตั้งแต่ปี 2018 การลบสแปมลดลงจาก 730 ล้านชิ้น เหลือเพียง 366 ล้าน และบัญชีปลอมที่ถูกลบก็ลดลงจาก 1.4 พันล้านเหลือ 1 พันล้าน
ทั้งหมดนี้สะท้อนแนวทางใหม่ของ Meta ที่จะเข้ามาจัดการเฉพาะในกรณีร้ายแรง เช่น การแสวงประโยชน์จากเด็กหรือเนื้อหาก่อการร้าย
นอกจากนี้ Meta ยังลดความผิดพลาดในการตรวจสอบเนื้อหา โดยอ้างว่าสามารถลดข้อผิดพลาดได้ครึ่งหนึ่งในสหรัฐฯ แม้จะไม่ได้อธิบายชัดว่าใช้วิธีใดในการวัดผล แพลตฟอร์มบอกว่ากำลังพยายามหาบาลานซ์ระหว่างการลบเนื้อหาที่เป็นอันตราย และการไม่ลบมากเกินไปจนกระทบเสรีภาพของผู้ใช้งาน
Meta จึงหันไปพึ่ง AI มากขึ้น โดยเฉพาะ LLMs ที่เริ่มทำงานได้ดีกว่ามนุษย์ในบางกรณี และสามารถลบเนื้อหาออกจากคิวตรวจสอบได้ทันที หากมั่นใจว่าไม่ผิดกฎ แต่ในกรณีของผู้ใช้ที่เป็นวัยรุ่น Meta ยังคงใช้การควบคุมเนื้อหาเชิงรุกอยู่ โดยยังซ่อนเนื้อหาที่เป็นอันตราย เช่น การกลั่นแกล้ง ให้โดยอัตโนมัติ
ที่มา: Meta via Business Insider และ Engadget
boompw Mon, 02/06/2025 - 17:38
Continue reading...
Body
รายงานความปลอดภัยรายไตรมาสของ Meta ล่าสุด แสดงให้เห็นการเปลี่ยนนโยบายดูแลเนื้อหาที่ Mark Zuckerberg ตัดสินใจลดความเข้มงวดในการจัดการเนื้อหา หรือคำพูดที่แสดงความเกลียดชัง และยกเลิกการลบเนื้อหาเชิงรุกในหลายกรณี แถมยังเลิกใช้บริการตรวจสอบข้อเท็จจริงจากบุคคลที่สามในสหรัฐฯ แล้วหันมาใช้ระบบ Community Notes ที่ให้ผู้ใช้งานช่วยกันตรวจสอบแทน
สิ่งที่เห็นชัดเจนที่สุดคือ เนื้อหาที่เป็นอันตรายเพิ่มขึ้นอย่างมาก เช่น โพสต์ที่มีความรุนแรงหรือภาพรุนแรงมีสัดส่วนเพิ่มขึ้นจาก 0.06–0.07% ในช่วงปลายปี 2024 เป็น 0.09% ในไตรมาสแรกของปี 2025 โดย Meta อธิบายว่าสาเหตุหลักมาจากจำนวนเนื้อหาที่ละเมิดเพิ่มขึ้น และการพยายามลดข้อผิดพลาดจากการลบเนื้อหาที่ไม่ควรลบ
ส่วนเนื้อหาที่เกี่ยวกับการกลั่นแกล้งและคุกคามก็มีสัดส่วนเพิ่มขึ้นเล็กน้อย จาก 0.06–0.07% เป็น 0.07–0.08% โดยมีเหตุการณ์ที่ทำให้ตัวเลขพุ่งในเดือนมีนาคม แม้เปอร์เซ็นต์จะดูเพิ่มขึ้นนิดเดียว แต่สำหรับแพลตฟอร์มที่มีโพสต์นับพันล้านต่อวัน การเพิ่มขึ้นเพียงเล็กน้อยก็หมายถึงเนื้อหาที่เป็นอันตรายจำนวนหลักล้านชิ้น
ขณะเดียวกัน Meta ลบเนื้อหาน้อยลงด้วย โพสต์ที่ถูกจัดการภายใต้นโยบายเกี่ยวกับคำพูดแสดงความเกลียดชังลดลงเหลือ 3.4 ล้านชิ้น ซึ่งเป็นตัวเลขต่ำสุดตั้งแต่ปี 2018 การลบสแปมลดลงจาก 730 ล้านชิ้น เหลือเพียง 366 ล้าน และบัญชีปลอมที่ถูกลบก็ลดลงจาก 1.4 พันล้านเหลือ 1 พันล้าน
ทั้งหมดนี้สะท้อนแนวทางใหม่ของ Meta ที่จะเข้ามาจัดการเฉพาะในกรณีร้ายแรง เช่น การแสวงประโยชน์จากเด็กหรือเนื้อหาก่อการร้าย
นอกจากนี้ Meta ยังลดความผิดพลาดในการตรวจสอบเนื้อหา โดยอ้างว่าสามารถลดข้อผิดพลาดได้ครึ่งหนึ่งในสหรัฐฯ แม้จะไม่ได้อธิบายชัดว่าใช้วิธีใดในการวัดผล แพลตฟอร์มบอกว่ากำลังพยายามหาบาลานซ์ระหว่างการลบเนื้อหาที่เป็นอันตราย และการไม่ลบมากเกินไปจนกระทบเสรีภาพของผู้ใช้งาน
Meta จึงหันไปพึ่ง AI มากขึ้น โดยเฉพาะ LLMs ที่เริ่มทำงานได้ดีกว่ามนุษย์ในบางกรณี และสามารถลบเนื้อหาออกจากคิวตรวจสอบได้ทันที หากมั่นใจว่าไม่ผิดกฎ แต่ในกรณีของผู้ใช้ที่เป็นวัยรุ่น Meta ยังคงใช้การควบคุมเนื้อหาเชิงรุกอยู่ โดยยังซ่อนเนื้อหาที่เป็นอันตราย เช่น การกลั่นแกล้ง ให้โดยอัตโนมัติ
ที่มา: Meta via Business Insider และ Engadget
boompw Mon, 02/06/2025 - 17:38
Continue reading...