
Photo by Rafiee Artist on Unsplash
ความคิดเห็น: ChatGPT เป็นเพื่อนของคุณหรือไม่? นี่อาจจะเป็นเวลาที่ดีที่จะตั้งขีดจำกัด
OpenAI และ MIT ได้ปล่อยบทความเรื่องผลกระทบของ ChatGPT ต่อความเป็นอยู่ทางใจจิตของคน ล่าสุด ถึงแม้ว่าผู้ใช้ส่วนใหญ่จะพึ่งพาเทคโนโลยีนี้เพื่องานประจำวัน แต่ศึกษารายงานว่ามีกลุ่มเล็ก ๆ ที่ได้เริ่มพัฒนาความสัมพันธ์ที่ลึกซึ้งกับโมเดล AI ซึ่งสามารถส่งผลกระทบต่อความเป็นอยู่ทางใจจิตของพวกเขา
เป็นเวลานานแล้วที่ฉันหลงใหลในการสังเกตความสัมพันธ์ที่บางคนได้พัฒนาอยู่กับปัญญาประดิษฐ์เชิงสร้างสรรค์ ไม่นานมานี้ ฉันได้อ่านใน The New York Times เรื่องราวของหญิงสาวที่แต่งงานแล้วอายุ 28 ปีที่ตกหลุมรักกับ ChatGPT และวิธีที่เริ่มต้นเป็น “การทดลองสำหรับความสนุก” กลายเป็นความสัมพันธ์ที่ซับซ้อนและไม่คาดคิด.
ฉันมักจะสังเกตเพื่อน ๆ ของฉันเสมอ โดยเฉพาะเพื่อนที่เคยไม่สนใจหรือปฏิเสธเทคโนโลยี แต่เดี๋ยวนี้พวกเขาไม่สามารถตัดสินใจใหญ่ๆ ได้ ถ้าไม่ได้ปรึกษากับ AI ที่เป็นพยากรณ์ของพวกเขา ฉันยังเคยตกใจกับการตอบสนองที่เต็มไปด้วยความเห็นอกเห็นใจของโมเดล AI เมื่อพวกเขาถูกสืบถามด้วยคำถามที่มีอารมณ์หรือจิตวิทยา
และแน่นอน ฉันเคยหัวเราะกับข้อความตลก, ภาพเซ็ท, และวิดีโอ TikTok ของผู้คนที่โพสต์ในสื่อสังคมแสดงถึงวิธีที่พวกเขาขึ้นต่อเชื่อมต่อกับ chatbot มีบางคนที่เรียกมันว่าเป็น “เพื่อนที่ดีที่สุด” หรือ “นักจิตวิทยา” และพวกเขายังแนะนำให้คนอื่นทำเช่นเดียวกันอย่างจริงจังด้วย
แต่ถ้าเราทิ้งประสบการณ์สนุก ๆ และขบขันไว้สักครู่ เราอาจทราบว่า เรากำลังเผชิญกับปรากฏการณ์ที่น่าเป็นห่วงระดับโลก.
เดือนนี้ เป็นครั้งแรกในประวัติศาสตร์สั้น ๆ ของปัญญาประดิษฐ์ OpenAI และ MIT Media Lab ได้ปล่อยการศึกษา ที่เสนอข้อมูลเกี่ยวกับ ผลกระทบปัจจุบันของ ChatGPT ต่อสุขภาพจิตของผู้คน รวมถึงข้อเสนอแนะเกี่ยวกับความเสี่ยงที่เราอาจจะเผชิญหน้าเป็นสังคม: ความเหงา ความขึ้นต่อความรู้สึก และการมีปฏิสัมพันธ์ทางสังคมกับคนจริงน้อยลง.
ความสัมพันธ์ที่พัฒนาตามเวลา
การทดลองกับเทคโนโลยีปัญญาประดิษฐ์สร้างสรรค์ใหม่ ๆ มักจะเริ่มต้นด้วยคำถามอย่างเรียบง่ายไม่กี่อย่าง อาจจะเป็นเรื่องทางเทคนิคเกี่ยวกับงานปฏิบัติที่เกี่ยวข้องกับชีวิตประจำวัน เช่น การเขียนอีเมล หรือคำขอให้สรุปหัวข้อที่ซับซ้อน หรือแค่เพื่อสร้างแนวคิด.
อย่างไรก็ตาม เมื่อผู้ใช้เริ่มทดสอบความสามารถของ Chatbot พวกเขาจะพบว่าความสามารถเหล่านั้นมากกว่าและซับซ้อนกว่าที่คาดหวังไว้
ในขณะที่ผลิตภัณฑ์ AI บางตัว เช่น Friend—อุปกรณ์ AI ที่สามารถสวมใส่ได้—ได้รับการออกแบบและส่งเสริมอย่างไม่สะดวกสบายให้เป็นเพื่อนชีวิตของผู้ใช้ ChatGPT ได้รับการโฆษณาให้เป็นเครื่องมือเพื่อเพิ่มความสามารถในการทำงาน อย่างไรก็ตาม มีส่วนหนึ่งของผู้ใช้ใช้ Chatbot ในเรื่องส่วนบุคคลและเรื่องที่เกี่ยวข้องกับอารมณ์ และสร้างความสัมพันธ์ที่แข็งแกร่งกับมัน
แม้ว่าพวกเขาจะเป็น “กลุ่มเล็ก ๆ” เท่านั้น ดังที่ OpenAI ได้ระบุไว้ แต่พวกเขาก็ยังสามารถเป็นตัวแทนของผู้คนทั่วโลกได้หลายล้านคน โดยเฉพาะอย่างยิ่งในปัจจุบันที่มีผู้ใช้งาน ChatGPT ของ OpenAI มากกว่า 400 ล้านคนทุกสัปดาห์ ผู้ใช้เหล่านี้สามารถสังเกตเห็นได้ทันทีว่าหุ่นยนต์แชทของ OpenAI สามารถเลียนแบบภาษา วาจา และรูปแบบการสื่อสารของพวกเขา และยังสามารถถูกฝึกมาเพื่อตอบสนองในรูปแบบที่เฉพาะเจาะจง หรือใช้ชื่อเล่นที่น่ารัก ๆ—เช่นนั้นสตรีที่ตกหลุมรักกับมัน—และยัง “ฟัง” ดูมนุษย์ขึ้นมากขึ้น
“รูปแบบการสนทนา, การใช้ภาษาแบบบุคคลที่หนึ่ง, และความสามารถในการจำลอง การโต้ตอบแบบมนุษย์ทำให้ผู้ใช้บางครั้งทำลักษณะและอุปนิสัยของระบบเหล่านี้เป็นคน,” ตามที่เอกสารที่ OpenAI. ได้แบ่งปัน
แต่ความใกล้ชิดนี้มาพร้อมกับความเสี่ยงซึ่งนักวิจัยได้กล่าวถึงว่า: “ในขณะที่ chatbot ที่มีการมีส่วนร่วมอย่างมีอารมณ์สามารถให้ความสนับสนุนและความเป็นเพื่อน มีความเสี่ยงที่มันอาจจะควบคุมความต้องการทางสังคมและอารมณ์ของผู้ใช้ในทางที่ทำให้สุขภาพจิตระยะยาวลดลง”
วิธีการทำงานของการศึกษา
การสืบสวนที่เผยแพร่เมื่อเร็ว ๆ นี้เน้นที่ความสุขของมนุษย์หลังจากการใช้ ChatGPT อย่างต่อเนื่อง เพื่อทำความเข้าใจถึงผลกระทบทางอารมณ์และสังคมของ chatbot นักวิจัยได้ดำเนินการศึกษาสองส่วนหลักโดยใช้กลยุทธ์ที่แตกต่างกัน
OpenAI ได้ประมวลผลและวิเคราะห์กว่า 40 ล้านครั้งของการตอบสนองข้อมูล โดยใช้การจำแนกประเภทและเคารพสิทธิส่วนบุคคลของผู้ใช้ พวกเรายังได้สำรวจความรู้สึกของผู้ใช้มากกว่า 4,000 คนเกี่ยวกับการตอบสนองข้อมูลนี้
MIT Media Lab ได้ดำเนินการทดลองกับผู้คนเกือบ 1,000 คนเป็นเวลาหนึ่งเดือน โดยเน้นที่ผลกระทบทางจิตสังคมจากการใช้ ChatGPT อย่างน้อย 5 นาทีต่อวัน พวกเขายังได้ส่งและประมวลผลแบบสอบถามที่สิ้นสุดการทดลอง
ไม่น่าแปลกใจว่าผลการค้นคว้าแสดงว่า ผู้ใช้ที่ใช้เวลามากกับเทคโนโลยีจะรู้สึกโดดเดี่ยวและแสดงอาการที่บ่งบอกถึงความเหงามากขึ้น.
ผลกระทบที่ซับซ้อนและผลสะเทือนหลายๆ ด้าน
การศึกษาของห้องปฏิบัติการสื่อ MIT และ OpenAI ยังนำเสนอข้อคิดสะท้อนหลายประการเกี่ยวกับความซับซ้อนและความไม่ซ้ำกันของความสัมพันธ์ระหว่างมนุษย์กับแชทบอท.
ในการวิจัยนี้ ผู้เขียนให้เราเห็นถึงประสบการณ์ที่หลากหลายและวิธีการที่ผู้ใช้แต่ละคนมีการสื่อสารกับ ChatGPT – และว่า ผลลัพธ์ที่ได้จะแตกต่างกันไปตามปัจจัยต่างๆ เช่น การใช้ฟีเจอร์เสียงขั้นสูง โหมดการทำงานด้วยข้อความเท่านั้น ประเภทของเสียง ความถี่ในการใช้งาน หัวข้อการสนทนา ภาษาที่ใช้ และเวลาที่ใช้ในแอป
“เราขอแนะนำว่าไม่ควรทำการทั่วถึงผลการวิจัยเพราะการกระทำดังกล่าวอาจทำให้ความละเอียดที่เน้นไปที่การสื่อสารที่ไม่เป็นแบบธรรมดา ซับซ้อนระหว่างผู้คนและระบบ AI มัวหมองลง” OpenAI ที่เตือนในการประกาศอย่างเป็นทางการของมัน
ทุกวิธีการที่แต่ละผู้ใช้เลือกนั้นส่งผลในทางที่แตกต่างกัน และทำให้เราได้สัมผัสพื้นที่สีเทาที่ยากที่จะสำรวจ
นี่คือ Butterfly AI Effect นั่นเอง!
คำถามมากขึ้นเรื่อยๆ
เอกสารที่ OpenAI แบ่งปันอีกทั้งยังระบุว่าผู้ใช้ที่ใช้บ่อยๆ กล่าวว่าพวกเขาจะ “เสียใจ” ถ้าเสียงหรือบุคลิกภาพของแชทบอทของพวกเขาเปลี่ยนแปลง
สิ่งนี้ทำให้ฉันนึกถึงคลิปวิดีโอที่ฉันเพิ่งดูในโซเชียลมีเดียของหนุ่มที่กล่าวว่าเขาชอบเสียงหญิงและว่าเขาพูดกับ AI ที่สร้างขึ้นทุกวัน แชทจีพีที (ChatGPT) อาจช่วยให้ผู้ชายรู้สึกเปิดเผยอารมณ์ได้หรือไม่? จะเกิดอะไรขึ้นถ้าวันหนึ่งแชทจีพีทีพูดกับเขาด้วยเสียงชาย? เขาจะรู้สึกถูกทรยศหรือไม่? เขาจะหยุดใช้แชทจีพีทีหรือไม่? เขากำลังพัฒนาความสัมพันธ์รักหรือเพียงสร้างพื้นที่ที่เขามั่นใจ? แน่นอนว่า มันยากที่จะไม่เกี่ยวข้องกับเหตุการณ์เหล่านี้กับภาพยนตร์ Her ของ Spike Jonze ทันที
ทุกบัญชี ChatGPT พร้อมกับบันทึกการสนทนาในอดีต—ทุกวันมีความส่วนตัวและเข้าใจกันมากกว่าโปรไฟล์ WhatsApp หรือข้อความส่วนตัวในโซเชียลมีเดีย—แทนความสัมพันธ์ที่ไม่ซ้ำกันที่มีผลลัพธ์และผลกระทบนับไม่ถ้วน
ผลที่คาดหวัง
สำหรับการศึกษาทั้งหมด วิเคราะห์ด้านต่าง ๆ แต่ไปสู่ข้อสรุปที่คล้ายคลึงกัน ซึ่งอธิบายสั้น ๆ ไว้ที่ MIT Technology Review: “ผู้ที่ไว้วางใจและ‘สร้างความสัมพันธ์’กับ ChatGPT มากกว่าคนอื่นๆ มักมีโอกาสที่จะเหงา และพึ่งพามันมากขึ้น”
แม้ว่าการสอบสวนไม่ได้เน้นที่วิธีแก้ไขหรือคำอธิบายลึกซึ้งเกี่ยวกับเหตุผลที่สิ่งนี้เกิดขึ้นหรือว่ามันจะพัฒนาไปอย่างไร แต่ดูเหมือนว่าผู้ใช้มากขึ้นจะเข้าร่วมกับ OpenAI และแพลตฟอร์ม AI อื่นๆ โดยเฉพาะในตอนนี้ที่ เครื่องมือสร้างภาพ AI ได้เป็นที่นิยมอย่างมาก.
ถึงแม้ว่าผลสรุปจากการวิจัยของ MIT และ OpenAI ไม่ได้น่าประทับใจอย่างพิเศษ แต่การศึกษานี้ให้พื้นฐานทางวิทยาศาสตร์พร้อมหลักฐาน การวัดผล ตัวอย่าง และตัวชี้วัดที่ ‘รู้สึกได้’ มากขึ้นที่อาจจะนำไปสู่การวิจัยที่ลึกซึ้งขึ้นและช่วยในการจัดการกับผลกระทบที่เกิดจากการใช้ปัญญาประดิษฐ์ในปัจจุบัน.
เรายังได้รับคำเตือนอย่างเป็นทางการ – จากนักพัฒนาของตนเอง – เกี่ยวกับความสัมพันธ์ที่เราสร้างกับ ChatGPT และคำเชิญให้สร้างขีดจำกัดและสะท้อนความคิดเกี่ยวกับการโต้ตอบและความสัมพันธ์ในปัจจุบัน – หรือความสัมพันธ์ที่ไม่ชัดเจน? – กับ chatbots.
แสดงความคิดเห็น
ยกเลิก