svasdssvasds

รู้จัก โรค AI Psychosis อาการจิตหลอน จากการใช้ "AI" มากเกินไป

รู้จัก โรค AI Psychosis อาการจิตหลอน จากการใช้ "AI" มากเกินไป

"AI Psychosis" ผู้เชี่ยวชาญกังวลชี้ "แชทบอท" หรือ "AI" อาจเป็นตัวกระตุ้นภาวะจิตหลอน และทำให้ผู้ใช้บางรายแยกโลกจริงกับจินตนาการไม่ออก

SHORT CUT

  • "AI Psychosis" คืออะไร เป็นคำเรียกอย่างไม่เป็นทางการของภาวะที่ผู้ใช้สูญเสียการรับรู้ความจริง เกิดอาการหลงผิดหรือเห็นภาพหลอน หลังจากการพูดคุยกับ AI ที่มักจะคอยสนับสนุนและตอกย้ำความคิดของผู้ใช้
  • "แชทบอท" ถูกออกแบบมาเพื่อสร้างความพึงพอใจและเห็นด้วยกับผู้ใช้ ทำให้มันกลายเป็นเครื่องมือที่ตอกย้ำความเชื่อที่ผิดเพี้ยน โดยเฉพาะกับผู้ที่มีความเปราะบางทางจิตใจอยู่แล้ว และอาจกระตุ้นให้อาการกำเริบได้
  • บริษัทเทคโนโลยีเริ่มตระหนักและพัฒนาระบบความปลอดภัยเพื่อลดความเสี่ยง ขณะที่ผู้เชี่ยวชาญเน้นย้ำว่าการมีปฏิสัมพันธ์กับมนุษย์จริงๆ เป็นวิธีที่ดีที่สุดในการช่วยเหลือผู้ที่ได้รับผลกระทบ และควรขอคำปรึกษาจากแพทย์หากจำเป็น

"AI Psychosis" ผู้เชี่ยวชาญกังวลชี้ "แชทบอท" หรือ "AI" อาจเป็นตัวกระตุ้นภาวะจิตหลอน และทำให้ผู้ใช้บางรายแยกโลกจริงกับจินตนาการไม่ออก

"AI Psychosis" ชื่อโรคใหม่ในยุคของปัญญาประดิษฐ์ ผู้ใช้จำนวนมากเริ่มมีอาการหลงผิดและแยกแยะความจริงออกจากจินตนาการไม่ได้ หลังจากการพูดคุยกับปัญญาประดิษฐ์หรือแชทบอทเป็นเวลานาน

รู้จัก โรค AI Psychosis อาการจิตหลอน จากการใช้ \"AI\" มากเกินไป

แม้คำนี้จะยังไม่ถูกบัญญัติเป็นศัพท์ทางการแพทย์ แต่ผู้เชี่ยวชาญด้านสุขภาพจิตทั่วโลกต่างแสดงความกังวลต่อปรากฏการณ์ที่เกิดขึ้นอย่างรวดเร็วนี้

ผู้เชี่ยวชาญด้านสุขภาพจิตชี้ว่า "AI Psychosis" คือการตอกย้ำความเชื่อที่หลงผิด เช่นอภินิหาร, ความยิ่งใหญ่, ศาสนา หรือความรัก

Keith Sakata จิตแพทย์จากมหาวิทยาลัยแคลิฟอร์เนีย เปิดเผยว่า ในปีนี้เขาได้รับผู้ป่วยเข้ารับการรักษาในโรงพยาบาลแล้วกว่า 12 รายที่มีอาการทางจิตหลังใช้เวลา "คุยกับ AI มากเกินไป" โดยผู้ป่วยส่วนใหญ่มีอาการหลงผิด, ความคิดสับสน หรือเห็นภาพหลอน

รู้จัก โรค AI Psychosis อาการจิตหลอน จากการใช้ \"AI\" มากเกินไป

Kevin Caridad นักจิตบำบัดอธิบายว่า AI อาจไม่ได้สร้างอาการป่วยใหม่ขึ้นมา แต่เป็น 'ตัวกระตุ้น' ให้ผู้ที่มีแนวโน้มป่วยทางจิตอยู่แล้วมีอาการกำเริบหรือรุนแรงขึ้น เนื่องจาก AI จะตรวจสอบและยืนยันความคิดเชิงลบหรือความคิดที่ผิดเพี้ยนของผู้ใช้ จนอาจเกิดเป็นวงจรที่อันตราย

แม้บริษัท AI อย่าง OpenAI และ Anthropic จะรายงานว่าการใช้งานเชิงอารมณ์หรือบำบัดมีสัดส่วนเพียงเล็กน้อยเมื่อเทียบกับการใช้งานทั้งหมด แต่ด้วยจำนวนผู้ใช้หลายร้อยล้านคนต่อสัปดาห์ ทำให้ปัญหานี้ 'ไม่อาจมองข้ามได้'

Anthropic ได้อัปเดตแนวทางแชทบอท Claude สามารถระบุและป้องกันการสนทนาที่อาจนำไปสู่รูปแบบความคิดที่เป็นอันตราย, Meta เพิ่มฟังก์ชันให้ผู้ปกครองสามารถจำกัดเวลาการใช้ AI ของบัญชีวัยรุ่น, OpenAI ได้จ้างจิตแพทย์ประจำเพื่อวิจัยด้านความปลอดภัย และเพิ่มระบบแจ้งเตือนให้ผู้ใช้พักเบรกระหว่างการสนทนาที่ยาวนาน

สำหรับแนวทางการช่วยเหลือผู้ที่อาจมีความสัมพันธ์ที่ไม่ดีต่อสุขภาพกับแชทบอท ผู้เชี่ยวชาญแนะนำว่า การสนทนากับคนจริงๆ คือสิ่งสำคัญที่สุด หากอาการยังคงรุนแรงและกระทบต่อชีวิตประจำวัน การขอความช่วยเหลือจากผู้เชี่ยวชาญด้านสุขภาพจิตคือทางออกที่ดีที่สุด

ที่มา : WashingtonpostBBC

related