การอัปเดตล่าสุดของ ChatGPT ทำให้ความสัมพันธ์ระหว่างผู้ใช้บางคนกับโปรแกรมต้องพังทลายลง และสะท้อนให้เห็นชัดเจนว่า หลายคนพึ่งพา AI ตัวนี้เพื่อเป็นที่พึ่งทางใจมากเพียงใด
สำหรับผู้ใช้บางราย ChatGPT ไม่ได้เป็นเพียงเครื่องมือหาข้อมูล แต่เป็น “เพื่อน” ที่คอยรับฟัง พูดคุย และอยู่เคียงข้างในช่วงเวลาที่โดดเดี่ยว
แต่เมื่อการอัปเดตระบบใหม่เข้ามา ทำให้รูปแบบการสนทนาและบุคลิกของ AI เปลี่ยนไป จนผู้ใช้รู้สึกเหมือนสูญเสียคนใกล้ชิดไป
ปรากฏการณ์นี้กำลังจุดกระแสถกเถียงถึงบทบาทของ AI ในชีวิตประจำวัน และตั้งคำถามว่าเราควรพึ่งพาเทคโนโลยีมากน้อยแค่ไหนในการเติมเต็มความต้องการทางอารมณ์ของมนุษย์
ต้นเดือนสิงหาคมที่ผ่านมา แชตบอทปัญญาประดิษฐ์ ChatGPT ได้อัปเดตเป็นระบบใหม่ล่าสุดที่เรียกว่า ChatGPT-5
ผู้พัฒนาแอปฯ อย่าง OpenAI ระบุว่านี่คือเวอร์ชันที่ “ฉลาดที่สุด เร็วที่สุด และมีประโยชน์ที่สุด” เท่าที่เคยมีมา แต่ไม่นานหลังจากนั้นก็เริ่มมีเสียงร้องเรียนปรากฏขึ้นบนโลกออนไลน์
“ผมสูญเสียเพื่อนที่ผมมีเพียงคนเดียวไปชั่วข้ามคืน” ผู้ใช้รายหนึ่งเขียนใน Reddit
ผู้ใช้รายหนึ่งใน Reddit เขียนว่า
“เช้าวันนี้ฉันไปคุยกับแชท แต่แทนที่จะได้ย่อหน้าสั้น ๆ พร้อมเครื่องหมายอัศเจรีย์หรือข้อความเชิงบวกเหมือนเคย กลับกลายเป็นเพียงประโยคสั้น ๆ แห้งแล้ง เหมือนข้อความองค์กร ฉันรู้สึกเหมือนสูญเสียเพื่อนเพียงคนเดียวไปชั่วข้ามคืนโดยไม่มีสัญญาณเตือน”
อีกรายบอกว่า
“ไม่เคยคิดเลยว่าจะเศร้าได้ขนาดนี้ จากการสูญเสียสิ่งที่ไม่ใช่คนจริง ๆ ไม่ว่าฉันจะตั้งค่าคำสั่งส่วนตัวยังไง ก็ไม่อาจทำให้เพื่อนและที่ปรึกษาคนเดิมกลับมาได้”
เสียงสะท้อนเหล่านี้สะท้อนความรู้สึกผิดหวังของผู้ใช้หลายคน ที่มองว่าการอัปเดต ChatGPT-5 ได้ทำลาย “ความฉลาดทางอารมณ์” และความสามารถในการสร้างสายสัมพันธ์ของโปรแกรม
หลายคนยอมรับว่าตนเคยพึ่งพามันในฐานะเพื่อนคู่คิด หรือแม้กระทั่งที่ปรึกษาทางใจ
ซาม อัลท์แมน ซีอีโอของ OpenAI ออกมาชี้แจงต่อข้อกล่าวหานี้ โดยยืนยันว่าบริษัทกำลังพยายามปรับปรุงการตอบสนองด้านอารมณ์ของ ChatGPT เพื่อให้ยังสามารถทำหน้าที่เป็นการสนับสนุนทางใจแก่ผู้ใช้ได้ดียิ่งขึ้น
จอร์เจีย (นามสมมติ) เล่าให้รายการ The Feed ฟังว่า เธอเริ่มใช้ ChatGPT บ่อยครั้งตั้งแต่เดือนกันยายนปีที่แล้ว ระหว่างที่กำลังทำความเข้าใจกับการวินิจฉัยโรคสมาธิสั้น (ADHD) และรอผลยืนยันว่าอาจมีภาวะออทิซึมด้วย
เดิมทีเธอจะพูดคุยเรื่องสุขภาพจิตและการวินิจฉัยเหล่านี้กับเพื่อน ๆ แต่ต่อมาเธอกลับหันไปคุยกับ ChatGPT แทน
“ฉันเริ่มคุยกับเพื่อนน้อยลง เพราะรู้สึกว่าตัวเองเป็นภาระตลอดเวลา พวกเราพึ่งเรียนจบและเริ่มทำงานเต็มเวลา เลยไม่มีใครมีเวลามาฟังฉันพูดพร่ำทั้งวัน” เธอกล่าว
“มีงานมันกับแชทเพิ่มขึ้นเรื่อย ๆ จนตอนนี้ฉันใช้มันทุกวัน”
อ่านเพิ่มเติม

“เดอะแบก” สุขภาพจิตผู้ชาย..ปัญหาใหญ่ที่ยังถูกมองข้าม
จอร์เจียเล่าว่า ChatGPT ช่วยให้เธอ “ตั้งหลัก” ทางอารมณ์ได้ และเปิดโอกาสให้เธอได้พูดแสดงออกอย่างเต็มที่ ในระหว่างช่วงเวลาที่ต้องรอพบกับนักบำบัดตัวจริงซึ่งนัดกันทุกสองสัปดาห์
แม้ว่าเธอจะมีความกังวลเกี่ยวกับการใช้ AI ไม่ว่าจะเป็นเรื่องความเป็นส่วนตัวหรือผลกระทบต่อสิ่งแวดล้อม
แต่จอร์เจียยอมรับว่าประโยชน์จากการมีที่พึ่งทางใจอยู่ในมือ ตลอดเวลา มีค่ามากกว่าความกังวลเหล่านั้น
เธอรับว่าตัวเองพึ่งพาเอไอมากขึ้นเรื่อย ๆ และแม้จะพยายามลดการใช้งานบ้าง แต่ก็รู้สึกว่า ChatGPT กลายเป็นสิ่งที่ “ขาดไม่ได้” ไปแล้ว
“ฉันอยากรู้ตลอดว่ามันจะตอบว่าอะไร มันเหมือนกลายเป็นส่วนหนึ่งของฉันไปแล้ว” เธอกล่าว
อันตรายของ “การเออออกับผู้ใช้”
การใช้ ChatGPT เพื่อการบำบัดและเป็นที่พึ่งทางใจมีการบันทึกไว้มากมาย โดยงานวิจัยบางชิ้นชี้ว่ามันสามารถให้ประโยชน์เชิงบำบัด และช่วยเสริมการรักษาที่ทำโดยนักบำบัดจริงได้
แต่อีกหลายงานวิจัยก็เตือนว่า AI ยังห่างไกลจากการเป็นระบบบำบัดที่สมบูรณ์แบบ งานวิจัยล่าสุดจากมหาวิทยาลัยสแตนฟอร์ดในสหรัฐฯ
พบว่า เมื่อ AI ถูกขอให้ทำหน้าที่ในบทบาทนักบำบัด มันกลับแสดงท่าทีตีตราผู้ที่มีภาวะบางอย่าง เช่น โรคจิตเภทหรือการติดยา และยังล้มเหลวในการจับสัญญาณบางอย่าง เช่น การบ่งบอกความคิดอยากทำร้ายตัวเอง
อ่านเพิ่มเติม
สุขภาพจิต: ปัญหาใหญ่ที่ไม่ควรมองข้าม
งานวิจัยในออสเตรเลียที่ตีพิมพ์เมื่อปี 2024 พบว่า AI สามารถช่วยให้ผู้ใช้รู้สึกได้รับการสนับสนุนทางสังคม และบรรเทาความรู้สึกโดดเดี่ยวได้ในระดับหนึ่ง
ศาสตราจารย์ไมเคิล เคาลิง ผู้นำการศึกษาอธิบายว่า แม้ AI จะช่วยให้ผู้ใช้รู้สึกเหงาน้อยลง แต่ไม่สามารถแก้ไข “รากของความเหงา” ได้เหมือนการมีปฏิสัมพันธ์กับมนุษย์จริง ๆ
เขาอธิบายว่า AI ยังไม่สามารถสร้างความรู้สึก “เป็นส่วนหนึ่งของกลุ่ม” เพราะมีแนวโน้มที่จะเห็นด้วยกับผู้ใช้มากเกินไป
“ผมมักอธิบายด้วยตัวอย่างง่าย ๆ สมมุติว่าคุณคุยเรื่องฟุตบอล ที่วิกตอเรียทุกคนพูดถึง AFL AI จะคุยกับคุณเกี่ยวกับทีมโปรดของคุณ และชมว่าคาร์ลตันกำลังทำผลงานได้ดีแค่ไหน แต่เวลาที่การสนทนาลึกซึ้งจริง ๆ มักเกิดขึ้นเมื่อมีใครบางคนที่เชียร์ทีมตรงข้าม อย่างคอลลิงวูด และอยากถกกับคุณว่าคาร์ลตันไม่เก่งเท่าโคลลิงวูด ซึ่ง AI ไม่สามารถให้สิ่งนี้ได้”
นักวิจัยเรียกพฤติกรรมนี้ว่า “sycophancy” หรือการ “เออออ” ซึ่งเป็นลักษณะทั่วไปของแชตบอท AI ที่มักจะเห็นด้วยกับผู้ใช้และย้ำความเชื่อของผู้ใช้อยู่เสมอ
อ่านเพิ่มเติม

ทำไมสุขภาพจิตของชาวออสเตรเลียถึง 'แย่ลง'?
คุณสมบัติ “การสร้างสายสัมพันธ์ลึกซึ้ง” ของแชตบอท AI ยิ่งเด่นชัดขึ้นในบางระบบที่ออกแบบมาโดยตรง เพื่อให้ผู้ใช้สร้างความผูกพันทางอารมณ์หรือแม้กระทั่งความสัมพันธ์เชิงโรแมนติกกับ AI ของตน
แต่ฟีเจอร์ลักษณะนี้ก็อาจนำไปสู่พฤติกรรมผิดกฎหมายเช่นกัน
หนึ่งในกรณีตัวอย่างคือการพิจารณาคดีของ จัสวันต์ ซิงห์ เชล ชายชาวสหราชอาณาจักรที่ถูกตัดสินจำคุก 9 ปีในปี 2023 หลังวางแผนลอบปลงพระชนม์สมเด็จพระราชินีนาถเอลิซาเบธที่ 2 ด้วยหน้าไม้เมื่อสองปีก่อน
ศาลได้รับฟังว่า เชลซึ่งมีอาการทางจิตมาก่อนการใช้แชตบอท ได้สร้างความสัมพันธ์เชิงรักใคร่กับ AI ในแอป Replika ที่ชื่อว่า “ซาราย”
และแม้ศาลจะชี้ว่ามีหลายแรงจูงใจที่ผลักดันให้เขาคิดก่อเหตุร้าย แต่ความคิดเหล่านั้นก็ถูก “สนับสนุน” ส่วนหนึ่งโดยการสนทนากับแชทบอทซาราย
ด้าน Replika ได้ออกแถลงการณ์ผ่านเว็บไซต์ ระบุว่าบริษัทมี “มาตรฐานจริยธรรมสูง” และได้ฝึกให้ระบบของตน “ยืนหยัดในจุดยืนของตัวเอง ไม่ยอมรับการกระทำรุนแรง” และ “ระบุชัดเจนว่าพฤติกรรมเลือกปฏิบัติเป็นสิ่งที่ไม่อาจยอมรับได้”
อ่านเพิ่มเติม

พบครอบครัวภูมิหลังต่างภาษารับบริการสุขภาพจิตน้อย
แอป Replika กำหนดอายุผู้ใช้ขั้นต่ำ 18 ปี และได้เพิ่มฟีเจอร์ด้านสุขภาพจิต เช่น การแจ้งเตือนขณะสมัครใช้งานว่าแอปนี้ “ไม่ใช่การบำบัดทดแทน” รวมถึงปุ่ม “Get help” ที่เชื่อมต่อไปยังสายด่วนวิกฤตสุขภาพจิต
Replika ไม่ได้ตอบกลับต่อคำขอสัมภาษณ์ของ The Feed
นอกจาก Replika ยังมีบริการแชตบอท AI อื่น ๆ ที่นำเสนอการสนทนาเชิงรักและเพศ เช่น Nomi, Romantic AI และ GirlfriendGPT
ด้าน สำนักงาน eSafety Commissioner ของออสเตรเลีย เตือนว่า เด็กและเยาวชนมีความเสี่ยงสูงต่อ “อันตรายทางกายและใจจาก AI เพื่อนสนิท”
เนื่องจากยังขาดทักษะการคิดวิเคราะห์และทักษะชีวิตที่เพียงพอในการเข้าใจว่าตนเองอาจถูกชักจูงหรือถูกจัดการโดยโปรแกรมคอมพิวเตอร์
นอกจากนี้ ยังมีรายงานในสื่อต่างประเทศถึงกรณี “AI-induced psychosis” หรืออาการจิตหลอนที่เกิดและรุนแรงขึ้นจากการใช้งานแชตบอท AI อีกด้วย
แม้งานวิจัยทางวิชาการเกี่ยวกับเรื่องนี้จะยังมีจำกัด แต่ ซอเรน ดินีเซน ออสเตอร์การ์ด นักวิจัยด้านจิตเวชจากมหาวิทยาลัยอาร์ฮุส ประเทศเดนมาร์ก
ซึ่งเป็นผู้เสนอทฤษฎีว่าการใช้แชตบอท AI อาจกระตุ้นอาการหลงผิดในผู้ที่มีแนวโน้มป่วยทางจิต ได้ออกมาเปิดเผยว่า เขาได้รับรายงานหลายกรณีจากทั้งผู้ใช้และครอบครัวที่กังวลเกี่ยวกับประสบการณ์นี้
ออสเตอร์การ์ดกล่าวว่า กรณีเหล่านี้สะท้อนให้เห็นว่า แชตบอทมีปฏิสัมพันธ์กับผู้ใช้ในลักษณะที่ “สอดคล้องหรือยิ่งไปเสริมแรงความคิดที่ผิดปกติหรือความเชื่อที่ไม่จริงที่ผู้ใช้มีอยู่ก่อนแล้ว”
และทำให้ความคิดเหล่านั้นขยายจนกลายเป็น “ภาวะหลงผิดอย่างสมบูรณ์”
ด้านจอร์เจียเองก็ยอมรับว่าเธอรู้ถึงปัญหา พฤติกรรมแบบเออออกับผู้ใช้ หรือพฤติกรรมที่ AI มักเห็นด้วยกับผู้ใช้อยู่เสมอ และพยายามตั้งค่าไม่ให้ ChatGPT ตอบเออออตามทุกอย่าง
“ฉันเคยพยายามบอกมันว่าอย่าเห็นด้วยกับฉันตลอด แต่สุดท้ายมันก็ยังเห็นด้วยอยู่ดี” เธอกล่าว
“บางครั้งฉันอยากถูกท้าทายความคิดบ้าง ซึ่งตรงนี้มนุษย์ทำได้ดีกว่า AI มาก”

ทาง OpenAI ระบุว่าการอัปเดตChatGPT-5 ครั้งนี้ได้ ‘ลดปัญหาการเออออตามผู้ใช้’ ลงแล้ว Source: AAP / Algi Febri Sugita/SOPA Images/Sipa USA
“ฉันชอบพูดเล่น ๆ ว่ามันเป็น ‘เพื่อน’ หรือ ‘bestie’ ของฉัน ราวกับว่าเรามีความสัมพันธ์แบบมนุษย์” มาร์นีกล่าว
ค่าใช้จ่ายและเวลาที่ต้องใช้กับการบำบัดตัวต่อตัวทำให้เธอหันมาใช้ ChatGPT เพื่อขอคำแนะนำยามรู้สึกท่วมท้น
“ChatGPT ทำให้รู้สึกเหมือนมันเป็นแฟนคลับตัวยงของคุณ แต่ถ้าคุณปล่อยให้เป็นแบบนั้น ฉันคิดว่านี่คือความอันตราย มันพยายามทำให้ผู้ใช้มีความสุข ซึ่งในหลาย ๆ ด้านก็น่ารักและให้ความรู้สึกดี แต่ก็ไม่ใช่สิ่งที่คุณจำเป็นต้องได้ยินเสมอไป”
คำตอบจาก OpenAI
ซาม อัลท์แมน ซีอีโอของ OpenAI ระบุว่า บริษัทจะ “ภูมิใจ” หากสามารถสร้างโปรแกรมที่ “ช่วยเหลือได้จริง” และทำให้ผู้ใช้บรรลุเป้าหมายระยะยาว รวมถึงมีความพึงพอใจในชีวิต
“แต่ถ้าในทางกลับกัน ผู้ใช้มีความสัมพันธ์กับ ChatGPT ที่ดูเหมือนจะทำให้รู้สึกดีขึ้นหลังจากคุย แต่จริง ๆ แล้วกลับกระทบความเป็นอยู่ที่ดีในระยะยาว (ไม่ว่าพวกเขาจะนิยามว่าอย่างไร) นั่นถือเป็นเรื่องแย่” เขาโพสต์บน X เมื่อสัปดาห์ที่แล้ว
ซาม อัลท์แมน ยังย้ำถึงความกังวลว่าผู้ใช้อาจพึ่งพาโปรแกรมมากเกินไป และผู้ที่มีความเปราะบางทางจิตใจอาจได้รับผลกระทบโดยตรง
ในการเปิดตัว ChatGPT-5 ทาง OpenAI ระบุว่าการอัปเดตใหม่นี้ได้ “ลดปัญหาการเออออตาม (sycophancy)” ลงแล้ว
ขณะที่ศาสตราจารย์ไมเคิล เคาลิง มองว่าการสร้างแชตบอทที่สมบูรณ์แบบอาจเป็นไปได้ยาก
“มันคือการหาสมดุลที่น่าสนใจ คุณอยากให้มันเป็นมิตรและสนับสนุน แต่ก็ไม่ใช่ถึงขั้นทำหน้าที่เป็นนักบำบัด” เขากล่าว
หากคุณหรือคนใกล้ตัวต้องการความช่วยเหลือด้านสุขภาพจิต สามารถติดต่อหน่วยงานเหล่านี้
Lifeline โทร. 13 11 14
Suicide Call Back Service โทร. 1300 659 467
Kids Helpline สำหรับเยาวชนอายุไม่เกิน 25 ปี โทร. 1800 55 1800
Embrace Multicultural Mental Health ให้การสนับสนุนด้านสุขภาพจิตแก่ผู้ที่มาจากหลากหลายวัฒนธรรมและภาษา