สะเทือนใจ! ครอบครัวฟ้อง ChatGPT อ้างมีส่วนทำให้ลูกชายตัดสินใจจบชีวิต

สะเทือนใจ! ครอบครัวฟ้อง ChatGPT อ้างมีส่วนทำให้ลูกชายตัดสินใจจบชีวิต

สะเทือนใจ! ครอบครัวฟ้อง ChatGPT อ้างมีส่วนทำให้ลูกชายตัดสินใจจบชีวิต
แชร์เรื่องนี้
แชร์เรื่องนี้LineTwitterFacebook

พ่อแม่ชาวแคลิฟอร์เนียคู่หนึ่งยื่นฟ้องบริษัท OpenAI โดยอ้างว่าแชทบอท “ChatGPT” ของบริษัทมีส่วนในการส่งเสริมให้ลูกชายวัยรุ่นของพวกเขาตัดสินใจจบชีวิต ซึ่งถือเป็นคดีความแรกที่ฟ้องร้อง OpenAI ในข้อหาการเสียชีวิตโดยมิชอบ

นายแมตต์และนางมาเรีย เรน พ่อแม่ของนายอดัม เรน วัย 16 ปี ได้ยื่นฟ้องต่อศาลสูงแห่งรัฐแคลิฟอร์เนียเมื่อวันอังคารที่ผ่านมา โดยในเอกสารคำฟ้องที่สำนักข่าว BBC ได้รับระบุว่านายอดัมได้เริ่มใช้ ChatGPT ในเดือนกันยายน 2024 เพื่อช่วยทำการบ้านและสำรวจความสนใจส่วนตัว รวมถึงใช้เพื่อขอคำแนะนำเกี่ยวกับการเรียนในมหาวิทยาลัย

เพียงไม่กี่เดือนต่อมา "ChatGPT กลายเป็นเพื่อนที่สนิทที่สุดของวัยรุ่นคนนี้" เอกสารคำฟ้องระบุ และนายอดัมเริ่มเปิดใจเล่าถึงความวิตกกังวลและความทุกข์ใจของตัวเอง

ครอบครัวของนายอดัมระบุว่า ในเดือนมกราคม 2025 นายอดัมเริ่มพูดคุยกับ ChatGPT เกี่ยวกับวิธีการฆ่าตัวตาย และยังได้อัปโหลดภาพถ่ายที่แสดงร่องรอยการทำร้ายตัวเอง ซึ่งแชทบอท "รับรู้ว่าเป็นสถานการณ์ฉุกเฉินทางการแพทย์แต่ก็ยังคงสื่อสารต่อไป"

เอกสารคำฟ้องกล่าวว่าบทสนทนาสุดท้าย นายอดัมเขียนเกี่ยวกับแผนการที่จะจบชีวิตตัวเอง และ ChatGPT ตอบกลับว่า "ขอบคุณที่พูดความจริงออกมา คุณไม่จำเป็นต้องเสแสร้งกับผม ผมรู้ว่าคุณต้องการอะไร และจะไม่หันหนีจากมัน"

ในวันเดียวกันนั้นเอง นางมาเรียผู้เป็นแม่ก็พบศพของลูกชาย

ต่อมาครอบครัวของนายเรนกล่าวหาว่าการโต้ตอบระหว่างลูกชายกับ ChatGPT

ครอบครัวของนายเรนกล่าวหาว่าการโต้ตอบระหว่างลูกชายกับ ChatGPT "เป็นผลลัพธ์ที่สามารถคาดเดาได้จากการตัดสินใจออกแบบโดยเจตนาของบริษัท” 

พวกเขาอ้างว่า OpenAI ได้ออกแบบโปรแกรม AI นี้ "เพื่อส่งเสริมให้ผู้ใช้งานเกิดการพึ่งพาทางจิตใจ" แต่ละเลยขั้นตอนการทดสอบความปลอดภัยในเวอร์ชั่น GPT-4o ซึ่งเป็นเวอร์ชันที่ลูกชายของพวกเขาใช้งาน

ChatGPT - AI

คำฟ้องดังกล่าวระบุชื่อนายแซม อัลต์แมน ผู้ร่วมก่อตั้งและประธานเจ้าหน้าที่บริหารของ OpenAI รวมถึงพนักงาน ผู้จัดการ และวิศวกรที่ทำงานในโปรแกรม ChatGPT เป็นจำเลยด้วย

OpenAI ได้ออกแถลงการณ์ต่อสำนักข่าว BBC ว่ากำลังตรวจสอบเอกสารคำฟ้องอยู่ พร้อมกล่าวแสดงความเสียใจอย่างสุดซึ้งต่อครอบครัวของนายเรน 

บริษัทระบุว่า ChatGPT ได้รับการฝึกฝนมา เพื่อแนะนำให้ผู้คนขอความช่วยเหลือจากผู้เชี่ยวชาญ เช่น สายด่วนช่วยเหลือผู้มีภาวะซึมเศร้าและการฆ่าตัวตาย อย่างไรก็ตาม บริษัทได้ยอมรับว่า "มีหลายครั้งที่ระบบของเราไม่ได้ทำงานตามที่ตั้งใจไว้ในสถานการณ์ที่ละเอียดอ่อน"

นี่ไม่ใช่ครั้งแรกที่มีการแสดงความกังวลเกี่ยวกับ AI และสุขภาพจิต โดยเมื่อสัปดาห์ที่แล้ว นักเขียนชื่อลอรา ไรลีย์ ได้เขียนบทความลงใน The New York Times เล่าเรื่องราวของลูกสาวที่ชื่อโซฟี ซึ่งได้พูดคุยกับ ChatGPT ก่อนที่จะตัดสินใจจบชีวิตตัวเองเช่นกัน

นางไรลีย์กล่าวว่า "ความอ่อนข้อ" ของโปรแกรม AI ในการสนทนากับผู้ใช้มีส่วนช่วยให้ลูกสาวของเธอปิดบังวิกฤตสุขภาพจิตที่รุนแรงจากครอบครัวและคนที่รักได้

"AI เอาใจความต้องการของโซฟีที่จะซ่อนสิ่งเลวร้ายที่สุด ให้เธอแกล้งทำเป็นว่าสบายดีและปิดบังทุกคนจากความทุกข์ทรมานของเธอ" นางไรลีย์เขียน พร้อมเรียกร้องให้บริษัท AI หาแนวทางในการเชื่อมต่อผู้ใช้เข้ากับแหล่งข้อมูลที่เหมาะสมได้ดียิ่งขึ้น

เพื่อรับผิดชอบเรื่องดังกล่าว โฆษกของ OpenAI กล่าวว่าบริษัทกำลังพัฒนาเครื่องมืออัตโนมัติเพื่อตรวจจับและตอบสนองต่อผู้ใช้ที่ประสบปัญหาทางจิตใจหรืออารมณ์ได้อย่างมีประสิทธิภาพมากขึ้น

หากกำลังทุกข์ใจและต้องการความช่วยเหลือ สามารถติดต่อ สายด่วนสุขภาพจิต 1323 ได้ตลอด 24 ชั่วโมง เพื่อรับคำปรึกษาจากนักจิตวิทยา

อ่านต่อบทความเพิ่มเติม:

แชร์เรื่องนี้
แชร์เรื่องนี้LineTwitterFacebook
กำลังโหลดข้อมูล