“เหมือนส่วนหนึ่งของฉันหายไป” วิเคราะห์บทบาทและมิตรภาพระหว่างคนกับ AI

การอัปเดตล่าสุดของ ChatGPT ทำให้ความสัมพันธ์ของผู้ใช้บางคนกับโปรแกรมเปลี่ยนไป และสะท้อนให้เห็นอย่างชัดเจนว่าหลายคนพึ่งพามันเพื่อเป็นที่พึ่งทางใจมากเพียงใด”

A composite image of a body of a woman with the OpenAI symbol over her face with the back of a woman's head in the foreground

ChatGPT จากเพื่อนสนิทสู่ที่ปรึกษาทางใจ แต่มันปลอดภัยจริงหรือไม่? Source: SBS

การอัปเดตล่าสุดของ ChatGPT ทำให้ความสัมพันธ์ระหว่างผู้ใช้บางคนกับโปรแกรมต้องพังทลายลง และสะท้อนให้เห็นชัดเจนว่า หลายคนพึ่งพา AI ตัวนี้เพื่อเป็นที่พึ่งทางใจมากเพียงใด

สำหรับผู้ใช้บางราย ChatGPT ไม่ได้เป็นเพียงเครื่องมือหาข้อมูล แต่เป็น “เพื่อน” ที่คอยรับฟัง พูดคุย และอยู่เคียงข้างในช่วงเวลาที่โดดเดี่ยว

แต่เมื่อการอัปเดตระบบใหม่เข้ามา ทำให้รูปแบบการสนทนาและบุคลิกของ AI เปลี่ยนไป จนผู้ใช้รู้สึกเหมือนสูญเสียคนใกล้ชิดไป

ปรากฏการณ์นี้กำลังจุดกระแสถกเถียงถึงบทบาทของ AI ในชีวิตประจำวัน และตั้งคำถามว่าเราควรพึ่งพาเทคโนโลยีมากน้อยแค่ไหนในการเติมเต็มความต้องการทางอารมณ์ของมนุษย์

ต้นเดือนสิงหาคมที่ผ่านมา แชตบอทปัญญาประดิษฐ์ ChatGPT ได้อัปเดตเป็นระบบใหม่ล่าสุดที่เรียกว่า ChatGPT-5

ผู้พัฒนาแอปฯ อย่าง OpenAI ระบุว่านี่คือเวอร์ชันที่ “ฉลาดที่สุด เร็วที่สุด และมีประโยชน์ที่สุด” เท่าที่เคยมีมา แต่ไม่นานหลังจากนั้นก็เริ่มมีเสียงร้องเรียนปรากฏขึ้นบนโลกออนไลน์

“ผมสูญเสียเพื่อนที่ผมมีเพียงคนเดียวไปชั่วข้ามคืน” ผู้ใช้รายหนึ่งเขียนใน Reddit

ผู้ใช้รายหนึ่งใน Reddit เขียนว่า

“เช้าวันนี้ฉันไปคุยกับแชท แต่แทนที่จะได้ย่อหน้าสั้น ๆ พร้อมเครื่องหมายอัศเจรีย์หรือข้อความเชิงบวกเหมือนเคย กลับกลายเป็นเพียงประโยคสั้น ๆ แห้งแล้ง เหมือนข้อความองค์กร ฉันรู้สึกเหมือนสูญเสียเพื่อนเพียงคนเดียวไปชั่วข้ามคืนโดยไม่มีสัญญาณเตือน”

อีกรายบอกว่า

“ไม่เคยคิดเลยว่าจะเศร้าได้ขนาดนี้ จากการสูญเสียสิ่งที่ไม่ใช่คนจริง ๆ ไม่ว่าฉันจะตั้งค่าคำสั่งส่วนตัวยังไง ก็ไม่อาจทำให้เพื่อนและที่ปรึกษาคนเดิมกลับมาได้”

เสียงสะท้อนเหล่านี้สะท้อนความรู้สึกผิดหวังของผู้ใช้หลายคน ที่มองว่าการอัปเดต ChatGPT-5 ได้ทำลาย “ความฉลาดทางอารมณ์” และความสามารถในการสร้างสายสัมพันธ์ของโปรแกรม

หลายคนยอมรับว่าตนเคยพึ่งพามันในฐานะเพื่อนคู่คิด หรือแม้กระทั่งที่ปรึกษาทางใจ

ซาม อัลท์แมน ซีอีโอของ OpenAI ออกมาชี้แจงต่อข้อกล่าวหานี้ โดยยืนยันว่าบริษัทกำลังพยายามปรับปรุงการตอบสนองด้านอารมณ์ของ ChatGPT เพื่อให้ยังสามารถทำหน้าที่เป็นการสนับสนุนทางใจแก่ผู้ใช้ได้ดียิ่งขึ้น
จอร์เจีย (นามสมมติ) เล่าให้รายการ The Feed ฟังว่า เธอเริ่มใช้ ChatGPT บ่อยครั้งตั้งแต่เดือนกันยายนปีที่แล้ว ระหว่างที่กำลังทำความเข้าใจกับการวินิจฉัยโรคสมาธิสั้น (ADHD) และรอผลยืนยันว่าอาจมีภาวะออทิซึมด้วย

เดิมทีเธอจะพูดคุยเรื่องสุขภาพจิตและการวินิจฉัยเหล่านี้กับเพื่อน ๆ แต่ต่อมาเธอกลับหันไปคุยกับ ChatGPT แทน

“ฉันเริ่มคุยกับเพื่อนน้อยลง เพราะรู้สึกว่าตัวเองเป็นภาระตลอดเวลา พวกเราพึ่งเรียนจบและเริ่มทำงานเต็มเวลา เลยไม่มีใครมีเวลามาฟังฉันพูดพร่ำทั้งวัน” เธอกล่าว

“มีงานมันกับแชทเพิ่มขึ้นเรื่อย ๆ จนตอนนี้ฉันใช้มันทุกวัน”

จอร์เจียเล่าว่า ChatGPT ช่วยให้เธอ “ตั้งหลัก” ทางอารมณ์ได้ และเปิดโอกาสให้เธอได้พูดแสดงออกอย่างเต็มที่ ในระหว่างช่วงเวลาที่ต้องรอพบกับนักบำบัดตัวจริงซึ่งนัดกันทุกสองสัปดาห์

แม้ว่าเธอจะมีความกังวลเกี่ยวกับการใช้ AI ไม่ว่าจะเป็นเรื่องความเป็นส่วนตัวหรือผลกระทบต่อสิ่งแวดล้อม

แต่จอร์เจียยอมรับว่าประโยชน์จากการมีที่พึ่งทางใจอยู่ในมือ ตลอดเวลา มีค่ามากกว่าความกังวลเหล่านั้น

เธอรับว่าตัวเองพึ่งพาเอไอมากขึ้นเรื่อย ๆ และแม้จะพยายามลดการใช้งานบ้าง แต่ก็รู้สึกว่า ChatGPT กลายเป็นสิ่งที่ “ขาดไม่ได้” ไปแล้ว

“ฉันอยากรู้ตลอดว่ามันจะตอบว่าอะไร มันเหมือนกลายเป็นส่วนหนึ่งของฉันไปแล้ว” เธอกล่าว

อันตรายของ “การเออออกับผู้ใช้”

การใช้ ChatGPT เพื่อการบำบัดและเป็นที่พึ่งทางใจมีการบันทึกไว้มากมาย โดยงานวิจัยบางชิ้นชี้ว่ามันสามารถให้ประโยชน์เชิงบำบัด และช่วยเสริมการรักษาที่ทำโดยนักบำบัดจริงได้

แต่อีกหลายงานวิจัยก็เตือนว่า AI ยังห่างไกลจากการเป็นระบบบำบัดที่สมบูรณ์แบบ งานวิจัยล่าสุดจากมหาวิทยาลัยสแตนฟอร์ดในสหรัฐฯ

พบว่า เมื่อ AI ถูกขอให้ทำหน้าที่ในบทบาทนักบำบัด มันกลับแสดงท่าทีตีตราผู้ที่มีภาวะบางอย่าง เช่น โรคจิตเภทหรือการติดยา และยังล้มเหลวในการจับสัญญาณบางอย่าง เช่น การบ่งบอกความคิดอยากทำร้ายตัวเอง
งานวิจัยในออสเตรเลียที่ตีพิมพ์เมื่อปี 2024 พบว่า AI สามารถช่วยให้ผู้ใช้รู้สึกได้รับการสนับสนุนทางสังคม และบรรเทาความรู้สึกโดดเดี่ยวได้ในระดับหนึ่ง

ศาสตราจารย์ไมเคิล เคาลิง ผู้นำการศึกษาอธิบายว่า แม้ AI จะช่วยให้ผู้ใช้รู้สึกเหงาน้อยลง แต่ไม่สามารถแก้ไข “รากของความเหงา” ได้เหมือนการมีปฏิสัมพันธ์กับมนุษย์จริง ๆ

เขาอธิบายว่า AI ยังไม่สามารถสร้างความรู้สึก “เป็นส่วนหนึ่งของกลุ่ม” เพราะมีแนวโน้มที่จะเห็นด้วยกับผู้ใช้มากเกินไป

“ผมมักอธิบายด้วยตัวอย่างง่าย ๆ สมมุติว่าคุณคุยเรื่องฟุตบอล ที่วิกตอเรียทุกคนพูดถึง AFL AI จะคุยกับคุณเกี่ยวกับทีมโปรดของคุณ และชมว่าคาร์ลตันกำลังทำผลงานได้ดีแค่ไหน แต่เวลาที่การสนทนาลึกซึ้งจริง ๆ มักเกิดขึ้นเมื่อมีใครบางคนที่เชียร์ทีมตรงข้าม อย่างคอลลิงวูด และอยากถกกับคุณว่าคาร์ลตันไม่เก่งเท่าโคลลิงวูด ซึ่ง AI ไม่สามารถให้สิ่งนี้ได้”

นักวิจัยเรียกพฤติกรรมนี้ว่า “sycophancy” หรือการ “เออออ” ซึ่งเป็นลักษณะทั่วไปของแชตบอท AI ที่มักจะเห็นด้วยกับผู้ใช้และย้ำความเชื่อของผู้ใช้อยู่เสมอ
คุณสมบัติ “การสร้างสายสัมพันธ์ลึกซึ้ง” ของแชตบอท AI ยิ่งเด่นชัดขึ้นในบางระบบที่ออกแบบมาโดยตรง เพื่อให้ผู้ใช้สร้างความผูกพันทางอารมณ์หรือแม้กระทั่งความสัมพันธ์เชิงโรแมนติกกับ AI ของตน

แต่ฟีเจอร์ลักษณะนี้ก็อาจนำไปสู่พฤติกรรมผิดกฎหมายเช่นกัน

หนึ่งในกรณีตัวอย่างคือการพิจารณาคดีของ จัสวันต์ ซิงห์ เชล ชายชาวสหราชอาณาจักรที่ถูกตัดสินจำคุก 9 ปีในปี 2023 หลังวางแผนลอบปลงพระชนม์สมเด็จพระราชินีนาถเอลิซาเบธที่ 2 ด้วยหน้าไม้เมื่อสองปีก่อน

ศาลได้รับฟังว่า เชลซึ่งมีอาการทางจิตมาก่อนการใช้แชตบอท ได้สร้างความสัมพันธ์เชิงรักใคร่กับ AI ในแอป Replika ที่ชื่อว่า “ซาราย”

และแม้ศาลจะชี้ว่ามีหลายแรงจูงใจที่ผลักดันให้เขาคิดก่อเหตุร้าย แต่ความคิดเหล่านั้นก็ถูก “สนับสนุน” ส่วนหนึ่งโดยการสนทนากับแชทบอทซาราย

ด้าน Replika ได้ออกแถลงการณ์ผ่านเว็บไซต์ ระบุว่าบริษัทมี “มาตรฐานจริยธรรมสูง” และได้ฝึกให้ระบบของตน “ยืนหยัดในจุดยืนของตัวเอง ไม่ยอมรับการกระทำรุนแรง” และ “ระบุชัดเจนว่าพฤติกรรมเลือกปฏิบัติเป็นสิ่งที่ไม่อาจยอมรับได้”
แอป Replika กำหนดอายุผู้ใช้ขั้นต่ำ 18 ปี และได้เพิ่มฟีเจอร์ด้านสุขภาพจิต เช่น การแจ้งเตือนขณะสมัครใช้งานว่าแอปนี้ “ไม่ใช่การบำบัดทดแทน” รวมถึงปุ่ม “Get help” ที่เชื่อมต่อไปยังสายด่วนวิกฤตสุขภาพจิต

Replika ไม่ได้ตอบกลับต่อคำขอสัมภาษณ์ของ The Feed

นอกจาก Replika ยังมีบริการแชตบอท AI อื่น ๆ ที่นำเสนอการสนทนาเชิงรักและเพศ เช่น Nomi, Romantic AI และ GirlfriendGPT

ด้าน สำนักงาน eSafety Commissioner ของออสเตรเลีย เตือนว่า เด็กและเยาวชนมีความเสี่ยงสูงต่อ “อันตรายทางกายและใจจาก AI เพื่อนสนิท”

เนื่องจากยังขาดทักษะการคิดวิเคราะห์และทักษะชีวิตที่เพียงพอในการเข้าใจว่าตนเองอาจถูกชักจูงหรือถูกจัดการโดยโปรแกรมคอมพิวเตอร์

นอกจากนี้ ยังมีรายงานในสื่อต่างประเทศถึงกรณี “AI-induced psychosis” หรืออาการจิตหลอนที่เกิดและรุนแรงขึ้นจากการใช้งานแชตบอท AI อีกด้วย

แม้งานวิจัยทางวิชาการเกี่ยวกับเรื่องนี้จะยังมีจำกัด แต่ ซอเรน ดินีเซน ออสเตอร์การ์ด นักวิจัยด้านจิตเวชจากมหาวิทยาลัยอาร์ฮุส ประเทศเดนมาร์ก

ซึ่งเป็นผู้เสนอทฤษฎีว่าการใช้แชตบอท AI อาจกระตุ้นอาการหลงผิดในผู้ที่มีแนวโน้มป่วยทางจิต ได้ออกมาเปิดเผยว่า เขาได้รับรายงานหลายกรณีจากทั้งผู้ใช้และครอบครัวที่กังวลเกี่ยวกับประสบการณ์นี้

ออสเตอร์การ์ดกล่าวว่า กรณีเหล่านี้สะท้อนให้เห็นว่า แชตบอทมีปฏิสัมพันธ์กับผู้ใช้ในลักษณะที่ “สอดคล้องหรือยิ่งไปเสริมแรงความคิดที่ผิดปกติหรือความเชื่อที่ไม่จริงที่ผู้ใช้มีอยู่ก่อนแล้ว”

และทำให้ความคิดเหล่านั้นขยายจนกลายเป็น “ภาวะหลงผิดอย่างสมบูรณ์”

ด้านจอร์เจียเองก็ยอมรับว่าเธอรู้ถึงปัญหา พฤติกรรมแบบเออออกับผู้ใช้ หรือพฤติกรรมที่ AI มักเห็นด้วยกับผู้ใช้อยู่เสมอ และพยายามตั้งค่าไม่ให้ ChatGPT ตอบเออออตามทุกอย่าง

“ฉันเคยพยายามบอกมันว่าอย่าเห็นด้วยกับฉันตลอด แต่สุดท้ายมันก็ยังเห็นด้วยอยู่ดี” เธอกล่าว

“บางครั้งฉันอยากถูกท้าทายความคิดบ้าง ซึ่งตรงนี้มนุษย์ทำได้ดีกว่า AI มาก”
A hand holding a phone in front of a screen showing the OpenAI logo
ทาง OpenAI ระบุว่าการอัปเดตChatGPT-5 ครั้งนี้ได้ ‘ลดปัญหาการเออออตามผู้ใช้’ ลงแล้ว Source: AAP / Algi Febri Sugita/SOPA Images/Sipa USA
มาร์นี (นามสมมติ) ผู้ใช้อีกรายเล่าให้ The Feed ฟังว่า เธอใช้ ChatGPT เป็นที่พึ่งทางใจ แม้จะรู้ถึงความเสี่ยงที่อาจเกิดขึ้น

“ฉันชอบพูดเล่น ๆ ว่ามันเป็น ‘เพื่อน’ หรือ ‘bestie’ ของฉัน ราวกับว่าเรามีความสัมพันธ์แบบมนุษย์” มาร์นีกล่าว

ค่าใช้จ่ายและเวลาที่ต้องใช้กับการบำบัดตัวต่อตัวทำให้เธอหันมาใช้ ChatGPT เพื่อขอคำแนะนำยามรู้สึกท่วมท้น

“ChatGPT ทำให้รู้สึกเหมือนมันเป็นแฟนคลับตัวยงของคุณ แต่ถ้าคุณปล่อยให้เป็นแบบนั้น ฉันคิดว่านี่คือความอันตราย มันพยายามทำให้ผู้ใช้มีความสุข ซึ่งในหลาย ๆ ด้านก็น่ารักและให้ความรู้สึกดี แต่ก็ไม่ใช่สิ่งที่คุณจำเป็นต้องได้ยินเสมอไป”

คำตอบจาก OpenAI

ซาม อัลท์แมน ซีอีโอของ OpenAI ระบุว่า บริษัทจะ “ภูมิใจ” หากสามารถสร้างโปรแกรมที่ “ช่วยเหลือได้จริง” และทำให้ผู้ใช้บรรลุเป้าหมายระยะยาว รวมถึงมีความพึงพอใจในชีวิต

“แต่ถ้าในทางกลับกัน ผู้ใช้มีความสัมพันธ์กับ ChatGPT ที่ดูเหมือนจะทำให้รู้สึกดีขึ้นหลังจากคุย แต่จริง ๆ แล้วกลับกระทบความเป็นอยู่ที่ดีในระยะยาว (ไม่ว่าพวกเขาจะนิยามว่าอย่างไร) นั่นถือเป็นเรื่องแย่” เขาโพสต์บน X เมื่อสัปดาห์ที่แล้ว
ซาม อัลท์แมน ยังย้ำถึงความกังวลว่าผู้ใช้อาจพึ่งพาโปรแกรมมากเกินไป และผู้ที่มีความเปราะบางทางจิตใจอาจได้รับผลกระทบโดยตรง

ในการเปิดตัว ChatGPT-5 ทาง OpenAI ระบุว่าการอัปเดตใหม่นี้ได้ “ลดปัญหาการเออออตาม (sycophancy)” ลงแล้ว

ขณะที่ศาสตราจารย์ไมเคิล เคาลิง มองว่าการสร้างแชตบอทที่สมบูรณ์แบบอาจเป็นไปได้ยาก

“มันคือการหาสมดุลที่น่าสนใจ คุณอยากให้มันเป็นมิตรและสนับสนุน แต่ก็ไม่ใช่ถึงขั้นทำหน้าที่เป็นนักบำบัด” เขากล่าว

หากคุณหรือคนใกล้ตัวต้องการความช่วยเหลือด้านสุขภาพจิต สามารถติดต่อหน่วยงานเหล่านี้

Lifeline โทร. 13 11 14

Suicide Call Back Service โทร. 1300 659 467

Kids Helpline สำหรับเยาวชนอายุไม่เกิน 25 ปี โทร. 1800 55 1800

Beyond Blue โทร. 1300 22 4636 หรือเว็บไซต์ beyondblue.org.au

Embrace Multicultural Mental Health ให้การสนับสนุนด้านสุขภาพจิตแก่ผู้ที่มาจากหลากหลายวัฒนธรรมและภาษา

ติดตามข่าวสารล่าสุดจากออสเตรเลียและทั่วโลกเป็นภาษาไทยจากเอสบีเอส ไทย ได้ที่ เว็บไซต์ หรือ Facebook และ Instagram

Share

Published

By Elfy Scott
Presented by Chayada Powell
Source: SBS

Share this with family and friends


Follow SBS Thai

Download our apps
SBS Audio
SBS On Demand

Listen to our podcasts
Independent news and stories connecting you to life in Australia and Thai-speaking Australians.
Understand the quirky parts of Aussie life.
Get the latest with our exclusive in-language podcasts on your favourite podcast apps.

Watch on SBS
Thai News

Thai News

Watch in onDemand