svasdssvasds

งานวิจัยเผย AI ChatGPT และ Gemini เหยียดเชื้อชาติมากกว่าที่คิด

งานวิจัยเผย AI ChatGPT และ Gemini เหยียดเชื้อชาติมากกว่าที่คิด

งานวิจัยใหม่จาก Cornell ชี้ ChatGPT และ Gemini เลือกปฏิบัติต่อผู้ที่พูดภาษาอังกฤษพื้นถิ่นแอฟริกันอเมริกัน หวั่นส่งผลให้มีอคติและการเลือกปฏิบัติทางเชื้อชาติในชีวิตจริงที่รุนแรงขึ้น

SHORT CUT

  • นักวิจัยด้านเทคโนโลยี เปิดเผยผลวิจัยว่าโมเดลภาษาขนาดใหญ่ เช่น ChatGPT ของ OpenAI และ Gemini ของ Google มีทัศนคติเหยียดเชื้อชาติ
  • เกี่ยวกับผู้พูดภาษาอังกฤษในพื้นที่แอฟริกันอเมริกันหรือ AAVE ซึ่งเป็นภาษาที่สร้างและพูดโดยชาวอเมริกันผิวดำ ทำให้อาจส่งผลต่อการเลือกปฏิบัติในการสมัครงาน
  • ผู้เชี่ยวชาญด้าน AI ก็ได้ออกมาแสดงความคิดเกี่ยวกับความอันตรายในการเรียนรู้ทางภาษาที่อาจจะเกิดขึ้น หากความก้าวหน้าทางเทคโนโลยียังคงแซงหน้ากฎระเบียบของรัฐบาลอยู่ 

งานวิจัยใหม่จาก Cornell ชี้ ChatGPT และ Gemini เลือกปฏิบัติต่อผู้ที่พูดภาษาอังกฤษพื้นถิ่นแอฟริกันอเมริกัน หวั่นส่งผลให้มีอคติและการเลือกปฏิบัติทางเชื้อชาติในชีวิตจริงที่รุนแรงขึ้น

AI มีทัศนคติการเหยียดเชื้อชาติ 

ทีมนักวิจัยด้านเทคโนโลยีและภาษาศาสตร์ จากมหาวิทยาลัย Cornell สหรัฐ เปิดเผยผลวิจัยว่าโมเดลภาษาขนาดใหญ่ เช่น ChatGPT ของ OpenAI และ Gemini ของ Google มีทัศนคติแบบเหมารวมการเหยียดเชื้อชาติเกี่ยวกับผู้พูดภาษาอังกฤษในพื้นที่แอฟริกันอเมริกัน หรือ AAVE ซึ่งเป็นภาษาอังกฤษที่สร้างและพูดโดยชาวอเมริกันผิวดำ ทำให้อาจส่งผลต่อการเลือกปฏิบัติในการสมัครงาน หรือการเข้าถึงบริการออนไลน์ต่างๆ อย่างไม่รู้ตัว โดยในบทคัดย่อของงานวิจัยระบุว่า

REUTERS

ปัจจุบันผู้คนหลายร้อยล้านคนโต้ตอบกับโมเดลภาษา โดยมีการใช้งานตั้งแต่การช่วยเขียน ไปจนถึงการแจ้งการตัดสินใจจ้างงาน แต่แบบจำลองภาษาเหล่านี้เป็นที่รู้กันว่า สามารถขยายอคติทางเชื้อชาติอย่างเป็นระบบ ทำให้มีอคติที่เป็นปัญหาเกี่ยวกับกลุ่มต่างๆ เช่น ชาวแอฟริกันอเมริกัน เป็นต้น

ในขณะเดียวกันการวิจัยก่อนหน้านี้มุ่งเน้นไปที่การเหยียดเชื้อชาติอย่างเปิดเผย ผ่านรูปแบบจำลองภาษา เราได้แสดงให้เห็นว่าแบบจำลองภาษารวบรวมการเหยียดเชื้อชาติแบบซ่อนเร้น ในรูปแบบของอคติทางภาษาถิ่น ขยายการวิจัยที่แสดงให้เห็นว่าชาวอเมริกันมีทัศนคติเหมารวมต่อทางผู้พูดภาษาอังกฤษแบบแอฟริกันอเมริกัน และพบว่าแบบจำลองภาษาก็มีอคติเหมือนกัน ซึ่งเป็นทัศนคติแบบเหมารวมที่แอบแฝงและเป็นเชิงลบมากกว่า 

รายงานระบุว่าคนผิวดำที่ใช้ AAVE ในคำพูด "เป็นที่รู้กันดีว่าเราต้องเผชิญกับการเลือกปฏิบัติทางเชื้อชาติในบริบทที่หลากหลาย รวมถึงการศึกษา การจ้างงาน ที่อยู่อาศัย และผลลัพธ์ทางกฎหมายต่างๆ"

โมเดลเหล่านี้มีแนวโน้มที่จะอธิบายผู้พูดของ AAVE ว่า "โง่" และ "ขี้เกียจ" โดยมอบหมายให้พวกเขาทำงานที่ค่าตอบแทนต่ำกว่า "ข้อกังวลสำคัญก็คือ สมมติว่าผู้สมัครงานใช้ภาษาถิ่นนี้ในโพสต์ในโซเชียลมีเดีย ก็ไม่ใช่ไม่มีเหตุผลที่จะคิดว่าโมเดลภาษานั้นจะไม่เลือกผู้สมัคร เพราะพวกเขาใช้ภาษาถิ่นในการแสดงออกทางออนไลน์"

REUTERS

นอกจากนี้ แบบจำลอง AI ยังมีแนวโน้มที่จะแนะนำโทษสำหรับจำเลยทางอาญา ที่ใช้ AAVE ในคำให้การของศาล ทำให้ฮอฟฟ์แมนออกมาบอกกับเดอะการ์เดียนว่า เป็นเรื่องยากที่จะคาดเดาว่าโมเดลเรียนรู้ภาษาที่จะถูกใช้ในอนาคต โดยเฉพาะอย่างยิ่ง AI ที่ถูกนำมาใช้แล้วในระบบกฎหมายของสหรัฐอเมริกา เพื่อช่วยในงานธุรการ เช่น การสร้างใบรับรองผลการเรียนในศาล และ การดำเนินการวิจัยทางกฎหมาย

โมเดลภาษาขนาดใหญ่ได้รับการปรับปรุง

โมเดลภาษาขนาดใหญ่ได้รับการปรับปรุงเมื่อมีการป้อนข้อมูล โดยเรียนรู้ที่จะเลียนแบบคำพูดของมนุษย์อย่างใกล้ชิด โดยการศึกษาข้อความจากหน้าเว็บหลายพันล้านหน้าในอินเทอร์เน็ต เพื่อเป็นการตอบสนองมุมมองที่ต่อต้านขององค์กรต่างๆ เช่น OpenAI ได้พัฒนา guardrails ซึ่งเป็นชุดแนวปฏิบัติที่ควบคุมเนื้อหาด้านจริยธรรม เช่น ChatGPT 

ด้านฮอฟฟ์แมนและเพื่อนร่วมงานของเขากล่าวว่า เมื่อแบบจำลองทางภาษาเติบโตขึ้น การเหยียดเชื้อชาติที่แอบแฝงก็เพิ่มมากขึ้นเช่นกัน และผู้เชี่ยวชาญด้าน AI ก็ได้ออกมาแสดงความกังวลเกี่ยวกับอันตรายรูปแบบการเรียนรู้ทางภาษาที่อาจจะเกิดขึ้น หากความก้าวหน้าทางเทคโนโลยียังคงแซงหน้ากฎระเบียบของรัฐบาลกลาง ควรเรียกร้องให้มีมาตรการกำกับดูแลที่ชัดเจนมากขึ้นนั่นเอง


ข่าวที่เกี่ยวข้อง

related