ความคิดเห็น: ChatGPT เป็นเพื่อนของคุณหรือไม่? นี่อาจจะเป็นเวลาที่ดีที่จะตั้งขีดจำกัด

Photo by Rafiee Artist on Unsplash

ความคิดเห็น: ChatGPT เป็นเพื่อนของคุณหรือไม่? นี่อาจจะเป็นเวลาที่ดีที่จะตั้งขีดจำกัด

ระยะเวลาในการอ่าน: 2 นาที

  • Andrea Miliani

    ถูกเขียนขึ้นโดย Andrea Miliani ผู้เชี่ยวชาญข่าวเทคโนโลยี

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

OpenAI และ MIT ได้ปล่อยบทความเรื่องผลกระทบของ ChatGPT ต่อความเป็นอยู่ทางใจจิตของคน ล่าสุด ถึงแม้ว่าผู้ใช้ส่วนใหญ่จะพึ่งพาเทคโนโลยีนี้เพื่องานประจำวัน แต่ศึกษารายงานว่ามีกลุ่มเล็ก ๆ ที่ได้เริ่มพัฒนาความสัมพันธ์ที่ลึกซึ้งกับโมเดล AI ซึ่งสามารถส่งผลกระทบต่อความเป็นอยู่ทางใจจิตของพวกเขา

เป็นเวลานานแล้วที่ฉันหลงใหลในการสังเกตความสัมพันธ์ที่บางคนได้พัฒนาอยู่กับปัญญาประดิษฐ์เชิงสร้างสรรค์ ไม่นานมานี้ ฉันได้อ่านใน The New York Times เรื่องราวของหญิงสาวที่แต่งงานแล้วอายุ 28 ปีที่ตกหลุมรักกับ ChatGPT และวิธีที่เริ่มต้นเป็น “การทดลองสำหรับความสนุก” กลายเป็นความสัมพันธ์ที่ซับซ้อนและไม่คาดคิด.

ฉันมักจะสังเกตเพื่อน ๆ ของฉันเสมอ โดยเฉพาะเพื่อนที่เคยไม่สนใจหรือปฏิเสธเทคโนโลยี แต่เดี๋ยวนี้พวกเขาไม่สามารถตัดสินใจใหญ่ๆ ได้ ถ้าไม่ได้ปรึกษากับ AI ที่เป็นพยากรณ์ของพวกเขา ฉันยังเคยตกใจกับการตอบสนองที่เต็มไปด้วยความเห็นอกเห็นใจของโมเดล AI เมื่อพวกเขาถูกสืบถามด้วยคำถามที่มีอารมณ์หรือจิตวิทยา

และแน่นอน ฉันเคยหัวเราะกับข้อความตลก, ภาพเซ็ท, และวิดีโอ TikTok ของผู้คนที่โพสต์ในสื่อสังคมแสดงถึงวิธีที่พวกเขาขึ้นต่อเชื่อมต่อกับ chatbot มีบางคนที่เรียกมันว่าเป็น “เพื่อนที่ดีที่สุด” หรือ “นักจิตวิทยา” และพวกเขายังแนะนำให้คนอื่นทำเช่นเดียวกันอย่างจริงจังด้วย

แต่ถ้าเราทิ้งประสบการณ์สนุก ๆ และขบขันไว้สักครู่ เราอาจทราบว่า เรากำลังเผชิญกับปรากฏการณ์ที่น่าเป็นห่วงระดับโลก.

เดือนนี้ เป็นครั้งแรกในประวัติศาสตร์สั้น ๆ ของปัญญาประดิษฐ์ OpenAI และ MIT Media Lab ได้ปล่อยการศึกษา ที่เสนอข้อมูลเกี่ยวกับ ผลกระทบปัจจุบันของ ChatGPT ต่อสุขภาพจิตของผู้คน รวมถึงข้อเสนอแนะเกี่ยวกับความเสี่ยงที่เราอาจจะเผชิญหน้าเป็นสังคม: ความเหงา ความขึ้นต่อความรู้สึก และการมีปฏิสัมพันธ์ทางสังคมกับคนจริงน้อยลง.

ความสัมพันธ์ที่พัฒนาตามเวลา

การทดลองกับเทคโนโลยีปัญญาประดิษฐ์สร้างสรรค์ใหม่ ๆ มักจะเริ่มต้นด้วยคำถามอย่างเรียบง่ายไม่กี่อย่าง อาจจะเป็นเรื่องทางเทคนิคเกี่ยวกับงานปฏิบัติที่เกี่ยวข้องกับชีวิตประจำวัน เช่น การเขียนอีเมล หรือคำขอให้สรุปหัวข้อที่ซับซ้อน หรือแค่เพื่อสร้างแนวคิด.

อย่างไรก็ตาม เมื่อผู้ใช้เริ่มทดสอบความสามารถของ Chatbot พวกเขาจะพบว่าความสามารถเหล่านั้นมากกว่าและซับซ้อนกว่าที่คาดหวังไว้

ในขณะที่ผลิตภัณฑ์ AI บางตัว เช่น Friend—อุปกรณ์ AI ที่สามารถสวมใส่ได้—ได้รับการออกแบบและส่งเสริมอย่างไม่สะดวกสบายให้เป็นเพื่อนชีวิตของผู้ใช้ ChatGPT ได้รับการโฆษณาให้เป็นเครื่องมือเพื่อเพิ่มความสามารถในการทำงาน อย่างไรก็ตาม มีส่วนหนึ่งของผู้ใช้ใช้ Chatbot ในเรื่องส่วนบุคคลและเรื่องที่เกี่ยวข้องกับอารมณ์ และสร้างความสัมพันธ์ที่แข็งแกร่งกับมัน

video-thumb
Play

แม้ว่าพวกเขาจะเป็น “กลุ่มเล็ก ๆ” เท่านั้น ดังที่ OpenAI ได้ระบุไว้ แต่พวกเขาก็ยังสามารถเป็นตัวแทนของผู้คนทั่วโลกได้หลายล้านคน โดยเฉพาะอย่างยิ่งในปัจจุบันที่มีผู้ใช้งาน ChatGPT ของ OpenAI มากกว่า 400 ล้านคนทุกสัปดาห์ ผู้ใช้เหล่านี้สามารถสังเกตเห็นได้ทันทีว่าหุ่นยนต์แชทของ OpenAI สามารถเลียนแบบภาษา วาจา และรูปแบบการสื่อสารของพวกเขา และยังสามารถถูกฝึกมาเพื่อตอบสนองในรูปแบบที่เฉพาะเจาะจง หรือใช้ชื่อเล่นที่น่ารัก ๆ—เช่นนั้นสตรีที่ตกหลุมรักกับมัน—และยัง “ฟัง” ดูมนุษย์ขึ้นมากขึ้น

“รูปแบบการสนทนา, การใช้ภาษาแบบบุคคลที่หนึ่ง, และความสามารถในการจำลอง การโต้ตอบแบบมนุษย์ทำให้ผู้ใช้บางครั้งทำลักษณะและอุปนิสัยของระบบเหล่านี้เป็นคน,” ตามที่เอกสารที่ OpenAI. ได้แบ่งปัน

แต่ความใกล้ชิดนี้มาพร้อมกับความเสี่ยงซึ่งนักวิจัยได้กล่าวถึงว่า: “ในขณะที่ chatbot ที่มีการมีส่วนร่วมอย่างมีอารมณ์สามารถให้ความสนับสนุนและความเป็นเพื่อน มีความเสี่ยงที่มันอาจจะควบคุมความต้องการทางสังคมและอารมณ์ของผู้ใช้ในทางที่ทำให้สุขภาพจิตระยะยาวลดลง”

วิธีการทำงานของการศึกษา

การสืบสวนที่เผยแพร่เมื่อเร็ว ๆ นี้เน้นที่ความสุขของมนุษย์หลังจากการใช้ ChatGPT อย่างต่อเนื่อง เพื่อทำความเข้าใจถึงผลกระทบทางอารมณ์และสังคมของ chatbot นักวิจัยได้ดำเนินการศึกษาสองส่วนหลักโดยใช้กลยุทธ์ที่แตกต่างกัน

OpenAI ได้ประมวลผลและวิเคราะห์กว่า 40 ล้านครั้งของการตอบสนองข้อมูล โดยใช้การจำแนกประเภทและเคารพสิทธิส่วนบุคคลของผู้ใช้ พวกเรายังได้สำรวจความรู้สึกของผู้ใช้มากกว่า 4,000 คนเกี่ยวกับการตอบสนองข้อมูลนี้

MIT Media Lab ได้ดำเนินการทดลองกับผู้คนเกือบ 1,000 คนเป็นเวลาหนึ่งเดือน โดยเน้นที่ผลกระทบทางจิตสังคมจากการใช้ ChatGPT อย่างน้อย 5 นาทีต่อวัน พวกเขายังได้ส่งและประมวลผลแบบสอบถามที่สิ้นสุดการทดลอง

ไม่น่าแปลกใจว่าผลการค้นคว้าแสดงว่า ผู้ใช้ที่ใช้เวลามากกับเทคโนโลยีจะรู้สึกโดดเดี่ยวและแสดงอาการที่บ่งบอกถึงความเหงามากขึ้น.

ผลกระทบที่ซับซ้อนและผลสะเทือนหลายๆ ด้าน

การศึกษาของห้องปฏิบัติการสื่อ MIT และ OpenAI ยังนำเสนอข้อคิดสะท้อนหลายประการเกี่ยวกับความซับซ้อนและความไม่ซ้ำกันของความสัมพันธ์ระหว่างมนุษย์กับแชทบอท.

ในการวิจัยนี้ ผู้เขียนให้เราเห็นถึงประสบการณ์ที่หลากหลายและวิธีการที่ผู้ใช้แต่ละคนมีการสื่อสารกับ ChatGPT – และว่า ผลลัพธ์ที่ได้จะแตกต่างกันไปตามปัจจัยต่างๆ เช่น การใช้ฟีเจอร์เสียงขั้นสูง โหมดการทำงานด้วยข้อความเท่านั้น ประเภทของเสียง ความถี่ในการใช้งาน หัวข้อการสนทนา ภาษาที่ใช้ และเวลาที่ใช้ในแอป

“เราขอแนะนำว่าไม่ควรทำการทั่วถึงผลการวิจัยเพราะการกระทำดังกล่าวอาจทำให้ความละเอียดที่เน้นไปที่การสื่อสารที่ไม่เป็นแบบธรรมดา ซับซ้อนระหว่างผู้คนและระบบ AI มัวหมองลง” OpenAI ที่เตือนในการประกาศอย่างเป็นทางการของมัน

ทุกวิธีการที่แต่ละผู้ใช้เลือกนั้นส่งผลในทางที่แตกต่างกัน และทำให้เราได้สัมผัสพื้นที่สีเทาที่ยากที่จะสำรวจ

นี่คือ Butterfly AI Effect นั่นเอง!

คำถามมากขึ้นเรื่อยๆ

เอกสารที่ OpenAI แบ่งปันอีกทั้งยังระบุว่าผู้ใช้ที่ใช้บ่อยๆ กล่าวว่าพวกเขาจะ “เสียใจ” ถ้าเสียงหรือบุคลิกภาพของแชทบอทของพวกเขาเปลี่ยนแปลง

สิ่งนี้ทำให้ฉันนึกถึงคลิปวิดีโอที่ฉันเพิ่งดูในโซเชียลมีเดียของหนุ่มที่กล่าวว่าเขาชอบเสียงหญิงและว่าเขาพูดกับ AI ที่สร้างขึ้นทุกวัน แชทจีพีที (ChatGPT) อาจช่วยให้ผู้ชายรู้สึกเปิดเผยอารมณ์ได้หรือไม่? จะเกิดอะไรขึ้นถ้าวันหนึ่งแชทจีพีทีพูดกับเขาด้วยเสียงชาย? เขาจะรู้สึกถูกทรยศหรือไม่? เขาจะหยุดใช้แชทจีพีทีหรือไม่? เขากำลังพัฒนาความสัมพันธ์รักหรือเพียงสร้างพื้นที่ที่เขามั่นใจ? แน่นอนว่า มันยากที่จะไม่เกี่ยวข้องกับเหตุการณ์เหล่านี้กับภาพยนตร์ Her ของ Spike Jonze ทันที

ทุกบัญชี ChatGPT พร้อมกับบันทึกการสนทนาในอดีต—ทุกวันมีความส่วนตัวและเข้าใจกันมากกว่าโปรไฟล์ WhatsApp หรือข้อความส่วนตัวในโซเชียลมีเดีย—แทนความสัมพันธ์ที่ไม่ซ้ำกันที่มีผลลัพธ์และผลกระทบนับไม่ถ้วน

ผลที่คาดหวัง

สำหรับการศึกษาทั้งหมด วิเคราะห์ด้านต่าง ๆ แต่ไปสู่ข้อสรุปที่คล้ายคลึงกัน ซึ่งอธิบายสั้น ๆ ไว้ที่ MIT Technology Review: “ผู้ที่ไว้วางใจและ‘สร้างความสัมพันธ์’กับ ChatGPT มากกว่าคนอื่นๆ มักมีโอกาสที่จะเหงา และพึ่งพามันมากขึ้น

แม้ว่าการสอบสวนไม่ได้เน้นที่วิธีแก้ไขหรือคำอธิบายลึกซึ้งเกี่ยวกับเหตุผลที่สิ่งนี้เกิดขึ้นหรือว่ามันจะพัฒนาไปอย่างไร แต่ดูเหมือนว่าผู้ใช้มากขึ้นจะเข้าร่วมกับ OpenAI และแพลตฟอร์ม AI อื่นๆ โดยเฉพาะในตอนนี้ที่ เครื่องมือสร้างภาพ AI ได้เป็นที่นิยมอย่างมาก.

ถึงแม้ว่าผลสรุปจากการวิจัยของ MIT และ OpenAI ไม่ได้น่าประทับใจอย่างพิเศษ แต่การศึกษานี้ให้พื้นฐานทางวิทยาศาสตร์พร้อมหลักฐาน การวัดผล ตัวอย่าง และตัวชี้วัดที่ ‘รู้สึกได้’ มากขึ้นที่อาจจะนำไปสู่การวิจัยที่ลึกซึ้งขึ้นและช่วยในการจัดการกับผลกระทบที่เกิดจากการใช้ปัญญาประดิษฐ์ในปัจจุบัน.

เรายังได้รับคำเตือนอย่างเป็นทางการ – จากนักพัฒนาของตนเอง – เกี่ยวกับความสัมพันธ์ที่เราสร้างกับ ChatGPT และคำเชิญให้สร้างขีดจำกัดและสะท้อนความคิดเกี่ยวกับการโต้ตอบและความสัมพันธ์ในปัจจุบัน – หรือความสัมพันธ์ที่ไม่ชัดเจน? – กับ chatbots.

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!

เราดีใจที่คุณชื่นชอบผลงานของเรา!

ในฐานะผู้อ่านผู้ทรงคุณค่า คุณช่วยให้คะแนนเราบน Trustpilot หน่อยได้ไหม? การให้คะแนนนั้นรวดเร็วและสำคัญกับเรามาก ขอบคุณสำหรับความร่วมมือ!

ให้คะแนนเราบน Trustpilot
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

แสดงความคิดเห็น

Loader
Loader แสดงเพิ่มเติม...