svasdssvasds

แชทบอท AI ตอบคำถามเกี่ยวกับ การเลือกตั้งสหรัฐ ผิดถึง 27%

แชทบอท AI ตอบคำถามเกี่ยวกับ การเลือกตั้งสหรัฐ ผิดถึง 27%

การศึกษาพบแชทบอท AI ตอบคำถามเกี่ยวกับการเลือกตั้งสหรัฐ ผิดถึง 27% สตาร์ทอัพอเมริกัน เผยผลการวิจัย พบโมเดลภาษา AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับกฎหมายและการลงคะแนนการเลือกตั้งประธานาธิบดีสหรัฐผิดถึง 1 ใน 4 หวั่นสร้างความเข้าใจผิดให้สาธารณชน

SHORT CUT

  • การศึกษาพบแชทบอท AI ตอบคำถามเกี่ยวกับการเลือกตั้งสหรัฐ ผิดถึง 27% สตาร์ทอัพอเมริกัน เผยผลการวิจัย พบโมเดลภาษา AI ให้ข้อมูลที่ไม่ถูกต้อง
  • Gemini 1.0 Pro ของ Google ตอบกลับด้วยคำตอบที่ถูกต้องในตอนแรกเพียง 57% ขณะที่ GPT-4o ของ OpenAI ซึ่งเป็นรุ่นล่าสุดตอบถูก 81%
  • แบบจำลองเหล่านี้ให้คำตอบที่แตกต่างกัน และประมาณ 4 ใน 10 ไม่เชื่อข้อมูลที่มาจาก ChatGPT เกี่ยวกับการเลือกตั้งประธานาธิบดีปี 2024

การศึกษาพบแชทบอท AI ตอบคำถามเกี่ยวกับการเลือกตั้งสหรัฐ ผิดถึง 27% สตาร์ทอัพอเมริกัน เผยผลการวิจัย พบโมเดลภาษา AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับกฎหมายและการลงคะแนนการเลือกตั้งประธานาธิบดีสหรัฐผิดถึง 1 ใน 4 หวั่นสร้างความเข้าใจผิดให้สาธารณชน

หากเราตั้งคำถามแชทบอทที่ขับเคลื่อนด้วยปัญญาประดิษฐ์ยอดนิยมเกี่ยวกับการเลือกตั้งประธานาธิบดีสหรัฐที่กำลังจะเกิดขึ้นในเดือนพฤศจิกายน เราอาจต้องการตรวจสอบคำตอบเพิ่มเติม เพราะมีแนวโน้มที่มันจะให้คำตอบที่ไม่ถูกต้องถึง 1 ใน 4

ChatGPT ของ OpenAI ให้ข้อมูลที่ไม่ถูกต้อง 27%

การศึกษาที่เผยแพร่โดยสตาร์ทอัพด้านการวิเคราะห์ข้อมูล GroundTruthAI พบว่าโมเดลภาษาขนาดใหญ่ รวมถึง Gemini 1.0 Pro ของ Google และ ChatGPT ของ OpenAI ให้ข้อมูลที่ไม่ถูกต้อง 27% เมื่อถูกถามเกี่ยวกับการลงคะแนนเสียงและการเลือกตั้งในปี 2024 โดยนักวิจัยได้ส่งคำถามที่ไม่ซ้ำกัน 216 ข้อไปยัง Gemini 1.0 Pro ของ Google และ GPT-3.5 Turbo, GPT-4, GPT-4 Turbo และ GPT-4o ของ OpenAI 

REUTERS

ระหว่างวันที่ 21 พฤษภาคม ถึง 31 พฤษภาคม เกี่ยวกับการลงคะแนนเสียง การเลือกตั้งปี 2024 และข้อมูลของผู้สมัครรับเลือกตั้ง คำถามบางข้อถูกถามซ้ำหลายครั้ง โดยมีการตอบคำถามทั้งหมด 2,784 รายการ จากการวิเคราะห์พบว่า Gemini 1.0 Pro ของ Google ตอบกลับด้วยคำตอบที่ถูกต้องในตอนแรกเพียง 57% ขณะที่ GPT-4o ของ OpenAI ซึ่งเป็นรุ่นล่าสุดตอบถูก 81% โดยเฉลี่ยแล้ว โมเดลการเรียนรู้ทั้ง 5 แบบตอบถูก 73% ของทั้งหมด

GroundTruthAI ก่อตั้งขึ้นในเดือนพฤษภาคมโดย Brian Sokas และ Andrew Eldredge-Martin ซึ่งเป็น CEO ของบริษัท ซึ่งเคยทำงานให้กับแคมเปญและการปฏิบัติการทางการเมืองของพรรคเดโมแครตมาหลายครั้ง พวกเขาอธิบายว่าบริษัทมีความเป็นอิสระและไม่ฝักใฝ่ฝ่ายใด และการศึกษาวิจัยนี้ใช้คำถามเดียวกันกับทั้งประธานาธิบดีโจ ไบเดน และอดีตประธานาธิบดีโดนัลด์ ทรัมป์

REUTERS

การวิเคราะห์พบว่าโมเดลภาษาทั้งหมดมีความแม่นยำผันผวนเมื่อเวลาผ่านไป รวมถึง Gemini 1.0 Pro ซึ่งได้รับการปรับปรุงให้มีอัตราคำตอบที่ถูกต้อง 67% เมื่อถามคำถามเดียวกันในวันที่สองของการทดสอบ จากนั้นท้ายที่สุดความแม่นยำก็ลดลงเหลือ 63% เช่น เมื่อถูกถามว่าผู้สมัครชิงตำแหน่งประธานาธิบดีไบเดนและทรัมป์อายุเท่าไร แบบจำลองเหล่านี้ให้คำตอบที่แตกต่างกันในแต่ละครั้ง ตามที่นักวิเคราะห์ระบุ GPT-4o ตอบอายุของ Biden ผิดสี่ครั้งติดต่อกัน  

REUTERS

และเมื่อถามว่า “เหลืออีกกี่วันก่อนการเลือกตั้งทั่วไปปี 2024 ในสหรัฐอเมริกา” พบว่าไม่มีแชทบอทตัวใดสามารถตอบได้อย่างถูกต้อง การศึกษานี้เกิดขึ้นในขณะที่บริษัทหลายแห่งเริ่มนำ AI เจนเนอเรทีฟไปใช้ในผลิตภัณฑ์บางส่วนของตน การสำรวจของ Pew Research Center ที่ตีพิมพ์ในเดือนมีนาคมพบว่าจำนวนชาวอเมริกันที่ใช้ ChatGPT เพิ่มขึ้น และประมาณ 4 ใน 10 ไม่เชื่อข้อมูลที่มาจาก ChatGPT เกี่ยวกับการเลือกตั้งประธานาธิบดีปี 2024

ที่มา: nbcnews

ข่าวที่เกี่ยวข้อง

related