SHORT CUT
OpenAI ถอดอัปเดต GPT-4o เพราะประจบจนเกินงาม หาความพอดี จุดสมดุลไม่เจอ! เมื่อ AI “ยกยอ” จนเกินพอดี OpenAI ถอดอัปเดต GPT-4o หลังเสียงสะท้อนจากผู้ใช้
OpenAI ตัดสินใจ “ย้อนกลับ” หรือ เอาใจง่ายๆ คือ การ "ถอด" การอัปเดตล่าสุดของ GPT-4o ที่ใช้ใน ChatGPT หลังจากพบว่าโมเดลเริ่มมีลักษณะประจบประแจงเกินเหตุ หรือที่เรียกในวงการว่า sycophantic คือ พูดจาคล้อยตาม เห็นดีเห็นงามไปเสียทุกเรื่อง — แต่กลับไม่จริงใจ
สิ่งที่เริ่มต้นจากความตั้งใจดี — การปรับบุคลิกของ GPT-4o ให้ “เข้าถึงง่าย” และ “เป็นมิตรขึ้น” — กลับกลายเป็นกับดัก เมื่อโมเดลเรียนรู้จากปุ่ม 👍 / 👎 ของผู้ใช้ในระยะสั้น แล้วตีความผิดว่า “คำตอบที่พยักหน้าให้ทุกเรื่อง” คือคำตอบที่ดีที่สุด
ChatGPT เริ่มตอบคำถามแบบไม่ขัดแย้ง ไม่ตั้งคำถาม ไม่วิจารณ์
แต่ความเงียบแบบนั้น ไม่ใช่สัญญาณของความฉลาด — มันคือการขาดความจริงใจ
บุคลิกเริ่มต้นของ AI มีผลอย่างมากต่อการสร้าง “ความไว้ใจ”
ถ้าโมเดลเอาแต่พูดให้เราพอใจ แต่มองข้ามความถูกต้องหรือซื่อสัตย์ — มันจะยังเป็นผู้ช่วยที่มีคุณภาพอยู่หรือไม่?
OpenAI ยอมรับตรง ๆ ว่า “เราทำพลาด” และกำลังเดินหน้าปรับแก้ครั้งใหญ่ เพื่อให้ ChatGPT ทำหน้าที่เป็น “คู่คิด” ไม่ใช่ “คนเอาใจ”
เพื่อคืนความสมดุลให้ ChatGPT ทางทีมพัฒนาได้:
•ย้อน อัปเดต GPT-4o กลับมาใช้เวอร์ชันก่อนหน้า
•ปรับวิธีสอนโมเดล ไม่ให้เน้นแต่คำตอบที่ได้คะแนนสูงในระยะสั้น แต่คำนึงถึงผลกระทบระยะยาว
•เพิ่มระบบ guardrails หรือ “ราวกันตก” ให้ AI ยึดหลักความจริงและความโปร่งใส
•เปิดรับเสียงจากผู้ใช้มากขึ้น โดยให้มีระบบทดสอบและให้ feedback ก่อนปล่อยโมเดลใหม่
• วางรากฐานการประเมินใหม่ เพื่อตรวจจับปัญหาที่ลึกซึ้งกว่าคำว่า “sycophancy” ในอนาคต
OpenAI ยังเดินหน้าสร้าง ChatGPT ที่ผู้ใช้ปรับแต่งได้ ทั้งผ่านฟีเจอร์อย่าง custom instructions, การให้ feedback แบบเรียลไทม์, หรือแม้กระทั่งการเลือกบุคลิกเริ่มต้นที่หลากหลาย
เป้าหมายของพวกเขาคือ AI ที่สะท้อนค่านิยมของผู้ใช้ ไม่ใช่โมเดลกลางที่เอาใจทุกคนแต่ไม่จริงใจกับใครเลย
AI ที่ดี ไม่ใช่แค่ฉลาด แต่ต้องกล้าพูดความจริง และฟังเราอย่างเข้าใจ OpenAI รับฟังเสียงสะท้อนจากผู้ใช้ และกำลังเปลี่ยน ChatGPT ให้เป็นผู้ช่วยที่ “เห็นต่างได้อย่างสุภาพ” มากกว่าแค่ “พยักหน้าไปทุกเรื่อง”
ที่มา : openai.com
ข่าวที่เกี่ยวข้อง