กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว Anthropic เปิดตัวโมเดล Claude 2.1 รองรับอินพุตยาว 200K token, ตอบผิดน้อยลง 2 เท่า

News

Staff Member
VIP Member
Registered
ระหว่างที่มหากาพย์ OpenAI ยังไม่จบลง ฝั่งคู่แข่ง Anthropic (ที่มีข่าวว่ามีข้อเสนอให้ควบรวมกัน) ก็เดินหน้าออกโมเดลเวอร์ชันใหม่ Claude 2.1

จุดเด่นของ Claude 2.1 คือการรองรับอินพุตความยาว 200,000 token หรือตีเป็นคำได้ 150,000 คำ เทียบได้กับหนังสือราว 500 หน้า การรองรับอินพุตที่ยาวขนาดนี้ทำให้ Claude สามารถอ่านเอกสารการเงินขนาดยาว, วรรณกรรมขนาดยาว หรืออ่านโค้ดทั้งหมดขององค์กรได้จบทีเดียว แล้วนำไปสรุป วิเคราะห์ ตอบคำถาม ฯลฯ ตามโจทย์ของแต่ละองค์กรได้สบายๆ (ตัวอย่างของ Anthropic คือเอาเอกสารงบประมาณของรัฐสภาสหรัฐ ย้อนหลัง 3 ปีใส่เข้าไปใน Claude แล้วให้สรุปแนวโน้มงบประมาณ)

No Description



ในแง่ของคุณภาพ Claude 2.1 แก้ปัญหาเรื่องข้อมูลผิดลงไปได้มาก ตัวเลขของ Anthropic บอกว่าลดลง 2 เท่าเมื่อเทียบกับ Claude 2.0 และอัตราการตอบว่าไม่แน่ใจ (แทนการเลือกตอบผิดๆ มั่วๆ) นั้นเพิ่มขึ้นเช่นกัน

2.1_accuracy_resized.png


2.1_errors.png


นอกจากตัวโมเดลเวอร์ชันใหม่แล้ว Anthropic ยังเพิ่ม API ให้นักพัฒนาภายนอกเข้ามาเชื่อมต่อกับ Claude ในงานเฉพาะด้านต่างๆ เช่น การคำนวณตัวเลขที่ซับซ้อน, การแปลภาษา, การค้นหาข้อมูลในฐานข้อมูลหรือค้นเว็บผ่าน API ด้วย

ตอนนี้ Claude 2.1 เริ่มนำมาใช้งานแล้วทั้งผ่าน API และการแชทผ่านหน้าเว็บ Claude.ai ทั้งผู้ใช้กลุ่มฟรีและเสียเงิน แต่ฟีเจอร์ 200K token ยังจำกัดเฉพาะผู้ใช้แบบเสียเงินเท่านั้น

ที่มา - Anthropic

Topics:
Anthropic
LLM
Artificial Intelligence

อ่านต่อ...
 



กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
ด้านบน ด้านล่าง