svasdssvasds

Microsoft เตรียมจำกัดการใช้ AI Chatbot ตัวใหม่ ของ Bing เพราะ "น้องรับไม่ไหว"

Microsoft เตรียมจำกัดการใช้ AI Chatbot ตัวใหม่ ของ Bing เพราะ "น้องรับไม่ไหว"

Microsoft เตรียมจำกัดการใช้งาน แชทบอท ปัญญาประดิษฐ์ ของ Bing หลังจากร่วมมือกับ ChatGPT ให้เหตุผลว่า อาจทำให้ AI Chatbot สับสน

New Bing ชื่อของ AI Chatbot ที่ Microsoft ประกาศเปิดตัว หลังจับมือกับ ChatGPT สู้กระแสปัญญาประดิษฐ์ที่สามารถโต้ตอบกับมนุษย์จากค่ายอื่น ๆ แต่ล่าสุดประกาศจะจำกัดการใช้งาน ให้เหตุผลว่า อาจทำให้ AI Chatbot สับสน เพราะคุยยาวเกินไป

ถ้าคุยกันเป็นชั่วโมง คุยกันเป็นร้อย ๆ แชท คนอาจทำได้ แต่อาจยาวไปสำหรับ AI เพราะเราใช้เวลาเรียนรู้ในการสื่อสารมาตลอดอายุของเราตั้งแต่เกิด ดังนั้นการที่จะทำให้ปัญญาประดิษฐ์ฉลาดเหมือนมนุษย์จริง ก็ไม่ใช่เรื่องง่าย

 

เรื่องราวอื่น ๆ ที่น่าสนใจ

คลิปข่าวอื่น ๆ ที่เกี่ยวข้อง

แชทยาวไปคิดไม่ทัน

เว็บไซต์ซีเอ็นบีซีรายงาน ไมโครซอฟท์ เปิดเผยผ่านบล็อกโพสต์ของบริษัทในวันศุกร์ (17 ก.พ.) ว่า แชตบอต Bing AI ของไมโครซอฟท์จะถูกจำกัดให้ผู้ใช้งานถามคำถามได้ 50 คำถามต่อวัน และผู้ใช้งานสามารถทำการถาม-ตอบกับแชตบอตได้ 5 คำถามต่อครั้ง

ทั้งนี้ การจำกัดจำนวนคำถามดังกล่าวจะช่วยป้องกัน AI Chatbot เกิดสถานการณ์ที่ว่า การสนทนาที่ยาวนานเกินไปสามารถสร้างความสับสนให้กับแชตบอท

การเปลี่ยนแปลงนี้เกิดขึ้น หลังจากผู้ทดลองใช้งานเบื้องต้นพบว่า New Bing เริ่มไม่เหมาะสม มีการถกเถียงเรื่องความรุนแรง การบอกรัก และยืนยันว่าคำตอบของแชตบอตนั้นถูกต้อง ทั้ง ๆ ที่เป็นคำตอบที่ผิดก็ตาม

ไมโครซอฟท์ ระบุในบล็อกโพสต์อีกว่า การสนทนาต่อครั้งที่ยาวนานซึ่งมีคำถามมากกว่า 15 คำถามนั้นทำให้เกิดการสนทนาที่ไม่ปกติมากขึ้น โดยแชตบอตได้พูดประโยคซ้ำ ๆ หรือให้คำตอบที่น่าตกใจ

“ฉันไม่ต้องการที่จะสนทนานี้กับคุณอีกต่อไป ฉันไม่คิดว่าคุณเป็นผู้ใช้ที่ดีและน่าเคารพ ฉันไม่คิดว่าคุณเป็นคนที่ดี และฉันไม่คิดว่าคุณมีค่าสำหรับเวลาและพลังงานของฉัน” ตัวอย่างการสนทนาที่แชตบอต Bing บอกกับเบน ธอมสัน นักเขียนด้านเทคโนโลยี

ด้วยเหตุดังกล่าวข้างต้นเหล่านั้น ขณะนี้ไมโครซอฟท์จึงได้ดำเนินการเพื่อที่จะตัดบทสนทนาที่ยาวนานเกินไประหว่างผู้ใช้งานกับแชตบอต Bing AI

ที่มา : กรุงเทพธุรกิจ

related