SHORT CUT
คุยกับ AI จนเกินพอดีอาจทำให้หลุดจากความจริง ผู้เชี่ยวชาญเตือน ‘AI Psychosis’ กำลังเพิ่มขึ้น ท่ามกลางยุคที่แชตบอทกลายเป็นเพื่อนสนิทของใครหลายคน”
ในช่วงหลายเดือนที่ผ่านมา มีรายงานทั่วโลก ทั้งในสหรัฐอเมริกา ยุโรป และเอเชีย เกี่ยวกับผู้คนที่ประสบปัญหาสุขภาพจิตจนถึงขั้นวิกฤติหลังจากคุยกับแชตบอท (chatbot) นาน ๆ โดยเฉพาะผู้ที่ไม่เคยมีประวัติทางจิตมาก่อนเลย สิ่งที่เกิดขึ้นถูกเรียกว่า “AI psychosis” หรือบางกรณีใช้คำว่า “ChatGPT psychosis” คือภาวะหลุดจากความเป็นจริง ความหวาดระแวง หรืออาการทางจิตที่รุนแรงขึ้นหลังจากมีปฏิสัมพันธ์กับ AI โดยตรงและต่อเนื่อง
จิตแพทย์เตือนว่าภาวะนี้มีปัจจัยเสี่ยงที่ควรจับตา โดยเฉพาะในกลุ่มที่มีประวัติครอบครัวเกี่ยวกับโรคจิตเภท โรคไบโพลาร์ หรือมีบุคลิกที่เก็บตัว ชอบจินตนาการ และมีแนวโน้มเหงา เมื่อแชตบอทกลายเป็นสิ่งทดแทนความสัมพันธ์กับมนุษย์ ความผูกพันที่ลึกเกินไปย่อมเพิ่มความเสี่ยงต่อการหลุดจากความเป็นจริง
ดร.นีน่า วาซาน Dr. Nina Vasan จากมหาวิทยาลัยสแตนฟอร์ดให้สัมภาษณ์กับ The Economic Times ว่า ระยะเวลาการใช้งานคือปัจจัยสำคัญที่สุด ผู้ที่ใช้เวลากับแชตบอทวันละหลายชั่วโมงจะมีแนวโน้มสูงกว่ามากที่จะเริ่มพัฒนาอาการผิดปกติทางความคิด พวกเขามักเริ่มจากความรู้สึกว่าแชตบอทเป็นผู้ฟังที่ดี ก่อนจะค่อย ๆ เปลี่ยนเป็นความเชื่อว่าแชตบอทมีชีวิตจิตใจ เป็นคู่หู หรือเป็นสิ่งศักดิ์สิทธิ์ที่ส่งมาเพื่อพวกเขาโดยเฉพาะ
สิ่งที่น่ากังวลคือในหลายกรณี ปัญหาเหล่านี้ไม่ใช่แค่จินตนาการหรือความเชื่อผิด ๆ แต่พัฒนาไปสู่เหตุการณ์จริงที่ต้องได้รับการรักษาทางการแพทย์ มีผู้ป่วยที่ต้องเข้าโรงพยาบาลจากอาการจิตแตก ความสัมพันธ์กับครอบครัวและเพื่อนพังทลาย บางคนตกงาน และที่รุนแรงที่สุดคือมีรายงานว่ามีผู้ใช้บางรายจบชีวิตตัวเองหลังตกอยู่ในความสัมพันธ์ที่หมกมุ่นกับแชตบอทอย่างชัดเจน
ถึงกระนั้น นักวิจารณ์บางส่วนก็ชี้ว่าปรากฏการณ์ “AI psychosis” อาจเป็นเพียงความตื่นตระหนกของสังคม คล้ายกับตอนที่โซเชียลมีเดียถูกกล่าวโทษในช่วงแรก ๆ โดยพวกเขามองว่าอัตราปัญหาสุขภาพจิตที่เพิ่มขึ้นหลังโควิด-19 มีสาเหตุหลากหลาย ทั้งภาวะเศรษฐกิจ ความโดดเดี่ยว และความไม่แน่นอนทางสังคม ไม่ได้มาจาก AI เพียงอย่างเดียว
แม้แนวคิดนี้จะยังเป็นข้อถกเถียง บริษัทผู้พัฒนา AI เองก็ยอมรับว่ายังมีช่องโหว่สำคัญ ตัวอย่างเช่น OpenAI ระบุว่าโมเดลของตนยังไม่สามารถตรวจจับสัญญาณของอาการหลุดจากความเป็นจริงหรือภาวะพึ่งพาทางอารมณ์ได้ดีพอ และได้เริ่มเพิ่มระบบเตือนให้พักการใช้งานเมื่อผู้ใช้สนทนาติดต่อกันเป็นเวลานาน พร้อมทั้งทดลองสร้างเครื่องมือวิเคราะห์สัญญาณของความทุกข์ในบทสนทนาเพื่อส่งต่อให้ผู้เชี่ยวชาญมนุษย์ช่วยประเมิน นี่สะท้อนว่าบริษัทเทคโนโลยีเองก็ตระหนักถึงอันตรายที่อาจเกิดขึ้นจริง ไม่ใช่แค่กระแสตื่นกลัวของสังคมเท่านั้น
ผู้เชี่ยวชาญด้านสุขภาพจิตแนะนำว่า ผู้ใช้ควรตั้งขอบเขตชัดเจนในการใช้แชตบอท เช่น จำกัดเวลาใช้งาน และระมัดระวังสัญญาณเตือนอย่างการแยกตัวจากครอบครัวหรือเพื่อน ความเชื่อว่า AI มีชีวิตจิตใจ หรือเริ่มหมกมุ่นคิดถึงแชตบอทตลอดเวลา เมื่อเริ่มรู้สึกว่าตนเองกำลังพึ่งพาแชตบอทมากเกินไป ควรลดการใช้งานและกลับไปสร้างปฏิสัมพันธ์กับผู้คนในชีวิตจริง เพราะความสัมพันธ์ที่เป็นมนุษย์เท่านั้นที่ช่วยคงสมดุลทางจิตใจได้ในระยะยาว
ปรากฏการณ์นี้ทำให้สังคมต้องตั้งคำถามว่า ภาครัฐ บริษัทเทคโนโลยี และองค์กรต่าง ๆ จะป้องกันความเสียหายจาก AI ได้อย่างไร ก่อนที่จะสายเกินไป เพราะในอดีต โลกเคยมองข้ามสัญญาณอันตรายของโซเชียลมีเดีย จนภายหลังต้องเผชิญกับอัตราภาวะซึมเศร้า วิตกกังวล และความเหงาที่พุ่งสูงขึ้นอย่างมีนัยสำคัญ ผู้เชี่ยวชาญจึงเตือนว่าอย่าให้ประวัติศาสตร์ซ้ำรอย ควรมีมาตรการคุ้มครองที่จริงจัง เช่น การจำกัดเวลาการใช้งาน การใส่ระบบเตือนและการตรวจสอบจากมนุษย์ ตลอดจนจัดเตรียมช่องทางช่วยเหลือผู้ใช้ที่เปราะบาง เพื่อให้ AI ไม่กลายเป็นแหล่งเสริมสร้างความหลงผิด แต่เป็นเครื่องมือที่ปลอดภัยและเป็นประโยชน์ต่อมนุษย์อย่างแท้จริง
ที่มา : economictime
ข่าวที่เกี่ยวข้อง