ความคิดเห็น: โรควิปลาสจาก AI ประสบการณ์ที่เรายังไม่พร้อมรับมือ

Image generated with DALL·E through ChatGPT

ความคิดเห็น: โรควิปลาสจาก AI ประสบการณ์ที่เรายังไม่พร้อมรับมือ

ระยะเวลาในการอ่าน: 2 นาที

  • Andrea Miliani

    ถูกเขียนขึ้นโดย Andrea Miliani ผู้เชี่ยวชาญข่าวเทคโนโลยี

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

แม้จะมีการสัญญาอย่างต่อเนื่องเกี่ยวกับการลดการฮาลูลูซิเนชั่นของ AI แต่เครื่องมือ AI ขนาดใหญ่—จาก ChatGPT ถึง Perplexity ถึง Gemini และ Apple Intelligence—ยังคงสร้างข้อมูลที่เป็นเท็จ โดยมีผลกระทบที่น่าตกใจอย่างบ่อยครั้ง ผู้เชี่ยวชาญรวมถึงบุคคลที่เตือนเรื่องความเสี่ยงของ AI ได้ตกเป็นเหยื่อของเนื้อหาที่ถูกประดิษฐ์ขึ้น และแม้แต่เครื่องมือชั้นสูงเช่น Deep Research ยังคงสร้างรายงานที่เป็นเท็จ ดูเหมือนว่าความจริงยังคงอยู่ในมือของมนุษย์

Chatbots ได้รับการปรับปรุงให้ดีขึ้นตลอดหลายปี—ดีขึ้นอย่างมาก อย่างไรก็ตาม มีปัญหาหนึ่งที่ยังไม่ได้รับการแก้ไขอย่างเต็มที่ ซึ่งเรียกว่า “ฮาลูลูซิเนชั่น”

แชทบอตที่เรารักล้ำค่า แบ่งปันคำตอบที่ยอดเยี่ยมให้กับคำถามของเราด้วยความมุ่งมั่นและความมั่นใจเหมือนยอดาแห่งวิทยาศาสตร์คดี แม้กระทั่งเมื่อพวกเขาทำผิดอย่างร้ายแรง และเราเชื่อพวกเขา บางครั้งเราเชื่ออย่างบอดคล้อง.

นักวิทยาศาสตร์หลายคน, ผู้เชี่ยวชาญ, และแม้กระทั่งนักพัฒนา Chatbot ได้เตือนเรื่องภาวะฮาลูซิเนชั่นเป็นเวลาหลายปีแล้ว อย่างไรก็ตาม, ขณะที่การนำมาใช้ได้แพร่กระจายอย่างรวดเร็ว—OpenAI รายงานว่ามีผู้ใช้งานรายสัปดาห์ถึง 400 ล้านคน เพียงไม่กี่วันที่ผ่านมา—แต่ความรู้เกี่ยวกับ AI ยังไม่ทันตามมา.

การศึกษาล่าสุด, คดีศาล, และเหตุการณ์ที่น่าตื่นเต้นยังคงแสดงให้เห็นว่าข้อมูลที่ผิดพลาดนั้นอันตรายไปกว่าที่เราเข้าใจ

มันแย่ไปกว่าที่เราคิด

ในตอนแรก, การสามารถจับได้ว่า AI ผิดพลาดในระดับสูงนั้นค่อนข้างตลก — เช่นเรื่องการสรุปที่อายุขาวโดย Gemini ที่สร้างโดย AI ที่แนะนำให้ผู้ใช้เพิ่ม “กาวไม่มีสารพิษในซอส” สำหรับสูตรพิซซ่า หรือแนะนำให้ทาน “หินขนาดเล็กหนึ่งชิ้นต่อวัน” ในปีที่ผ่านมา แต่ตอนที่เราเริ่มไว้วางใจใน AI ได้อีกครั้ง, สถานการณ์ก็เริ่มรุนแรงขึ้น, นำไปสู่ความกังวลที่เพิ่มขึ้น

ในเดือนธันวาคม เราได้เห็น เครื่องมือ AI ของ Apple สร้างหัวข้อข่าว และสร้างข้อมูลที่เท็จและทำให้เกิดความสับสน ด้วยการอ้างอิงเท็จว่า BBC ได้ประกาศว่า Luigi Mangione ยิงตนเอง หลังจากเหตุการณ์นี้ สำนักพิมพ์ได้ยื่นคำร้องต่อ Apple และเริ่มทำการวิจัยเกี่ยวกับความถูกต้องของ AI ทำนองสร้างขณะวิเคราะห์เนื้อหาข่าว

ผลการค้นหาของ BBC ที่เผยแพร่เพียงไม่กี่วันที่ผ่านมา ได้เปิดเผยข้อมูลที่น่าเป็นห่วง: 51% ของคำตอบที่ AI Chatbots ยอดนิยมให้มีปัญหาอย่างมาก 13% ของคำพูดที่โมเดลให้เป็นการปั้นสร้างขึ้นมาอย่างสมบูรณ์แบบ และมีข้อมูลที่ไม่ถูกต้องถึง 19%

วัยรุ่นเป็นกลุ่มที่ได้รับผลกระทบมากที่สุด เนื่องจากพวกเขามักจะยากที่จะแยกข่าวปลอมกับข่าวจริง และสามารถถูกสร้างขึ้นมาได้ง่ายๆ ด้วยเนื้อหาที่สร้างโดย AI การศึกษาที่เผยแพร่ในเดือนมกราคม แสดงว่า 35% ของวัยรุ่นได้ถูกหลอกลวงด้วยเนื้อหาปลอมที่สร้างขึ้นโดยโมเดล AI และมี 22% ที่แบ่งปันข้อมูลปลอม

แต่มันไม่ใช่แค่วัยรุ่นและผู้คนที่หลงใหลเท่านั้นที่หลงเชื่อในภาพลวงตาเหล่านี้ และมันไม่ใช่แค่ Gemini หรือ Apple Intelligence เท่านั้น

ไม่มีโมเดล AI ที่รอด ไม่มีอุตสาหกรรมที่ปลอดภัย

การวิจัยที่ดำเนินโดย BBC ได้ยืนยันปัญหาอีกหนึ่ง: โมเดล AI ทั้งหมดมีอาการภาวะภาพลวงตา ผู้เชี่ยวชาญได้พิจารณาโมเดลที่ได้รับความนิยมมากที่สุด เช่น ChatGPT, Gemini, Perplexity และ Copilot โมเดล AI ไม่มีใดมีการยกเว้นจากข้อผิดพลาด Anthropic มีหน้าเว็บที่อธิบายเรื่องนี้ แนะนำความคิดเห็นเกี่ยวกับวิธีการลดภาวะภาพลวงตา

“แม้แต่โมเดลภาษาที่พัฒนาขึ้นมากที่สุด เช่น Claude บางครั้งก็ยังสามารถสร้างข้อความที่ไม่เป็นความจริงหรือไม่สอดคล้องกับบริบทที่กำหนด” เอกสาร กล่าว บริษัท AI อื่น ๆ ยังได้แบ่งปันหน้าที่เหมือนกันมีเคล็ดลับและเทคนิคในการหลีกเลี่ยงเนื้อหาปลอม แต่มันไม่ง่ายอย่างที่คิด และมันยังเป็นปัญหาที่ไม่ได้รับการแก้ไขมานาน

ในปี 2023 ที่ผ่านมา, OpenAI ได้ประกาศว่ากำลังทำงานเกี่ยวกับวิธีใหม่ที่สร้างสรรค์ในการกำจัดภาพลวงตา แต่อย่างที่เราทราบ ปัญหานี้ยังคงเป็นปัญหาที่ใหญ่ในปัจจุบัน

ในเดือนมกราคม 2024—มากกว่าหนึ่งปีที่แล้ว—CEO ชื่อ Aravind Srinivas ได้กล่าวว่า ภาพลวงตาของ Perplexity โดยส่วนใหญ่เกิดขึ้นในบัญชีที่ไม่ได้ชำระค่าใช้จ่าย “ส่วนใหญ่ของการร้องเรียนมาจากเวอร์ชั่นฟรีของผลิตภัณฑ์” คุณ Srinivas อธิบายและเพิ่มเติมว่าพวกเขากำลังเพิ่มการใช้งาน GPU มากขึ้นเพื่อแก้ปัญหา อย่างไรก็ตาม ในเดือนตุลาคม, New York Post และ Dow Jones ได้ยื่นคำร้องทางกฎหมาย ต่อ Perplexity—เนื่องจากโมเดลของพวกเขาทำให้ข่าวปลอมมีที่มาจากสื่อของพวกเขา—และเครื่องมือ AI ที่สตาร์ทอัปพัฒนาให้กับการเลือกตั้งของสหรัฐฯ ได้ถูกทดสอบโดยผู้เชี่ยวชาญที่เผยผลสอบทานที่ไม่สอดคล้องกัน, สรุปที่ไม่ถูกต้อง, และภาพลวงตา.

โรคภาพลวงตากำลังแพร่กระจายไปยังระดับวิทยาศาสตร์และวิชาการ

หนึ่งในปัญหาที่ใหญ่ที่สุดในตอนนี้คือ แม้แต่ผู้เชี่ยวชาญรวมถึงผู้ที่เตือนเรื่องความเสี่ยงและอันตรายของ AI ก็ยังหลงเชื่อในเครื่องมือที่มักจะหลงภาพหลอนเหล่านี้.

ในเดือนธันวาคม, ศาสตราจารย์และผู้เชี่ยวชาญด้านเทคโนโลยีและข้อมูลปลอมจาก Stanford Jeff Hancock ถูกกล่าวหาว่าใช้ AI ในการจัดทำคำให้การในศาล. Hancock ได้ส่งคำให้การยืนยันที่ยาวถึง 12 หน้าเพื่อป้องกันกฎหมายของรัฐในปี 2023 ที่ออกเพื่อห้ามการใช้ deepfakes ประกอบด้วย 15 อ้างอิง. แต่อ้างอิงสองอย่างนั้นไม่สามารถหาได้ที่ไหนเลย – เพราะ ChatGPT, เครื่องมือ AI ที่เป็นที่ชื่นชอบของผู้เชี่ยวชาญด้านข้อมูลปลอมนั้น ได้ทำการสร้างขึ้นมาเอง.

แฮนค็อคซึ่งได้รับกำหนดเพื่อสอน “ความจริง, ความไว้วางใจ และเทคโนโลยี” ปีนี้—ได้อธิบายว่าเขาใช้ chatbot ของ OpenAI เพื่อจัดระเบียบการอ้างอิงของเขาซึ่งนำไปสู่การมโนเพี้ยน นักวิจัยขออภัย—และยืนยันในส่วนสำคัญของการประกาศของเขา—และสอนให้เราทุกคนได้รับบทเรียนที่มีค่าว่าแม้ผู้เชี่ยวชาญและคนที่รู้ที่สุดเรื่องความเสี่ยงของ AI ก็ยังมีความเป็นไปได้ที่จะได้รับผลกระทบจากมัน

ศาสตราจารย์แฮนค็อคไม่ได้เป็นคนเดียวที่ส่งเอกสารที่มีการประดิษฐ์ข้อมูลโดย AI ในศาล แน่นอน คดีอื่น ๆ ที่เกี่ยวข้องกับการฟ้อง Walmart ได้รับความนิยมเพราะทนายความใช้คดีที่ปลอมโดย AI เพื่อสร้างเหตุผลของพวกเขา ในความเป็นจริง ปัญหานี้มีความถี่ขึ้นในศาลของสหรัฐอเมริกาจนทนายความของ Morgan & Morgan ได้ส่งอีเมลไปยังทนายความกว่า 1,000 คน เตือนถึงความเสี่ยงของการใช้การอ้างอิงที่สร้างขึ้นด้วย AI และสมาคมทนายความแห่งอเมริกาได้เตือนสมาชิก 400,000 คนของมันเกี่ยวกับกฎหมายจริยธรรมของทนายความ—รวมถึงข้อมูลที่สร้างขึ้นด้วย AI

การวิจัยลึก ด้วย

หนึ่งในเครื่องมือ AI ที่ได้รับความนิยมมากที่สุดในขณะนี้คือ “Deep Research” ซึ่งถูกออกแบบมาสำหรับผู้เชี่ยวชาญและนักวิทยาศาสตร์ที่กำลังมองหาผลลัพธ์ที่ซับซ้อนมากขึ้นในงานวิจัยของพวกเขา การฮาลูซินเนชันไม่ได้ขาดจากเครื่องมือนี้เช่นกัน แม้ว่า รุ่นของ OpenAI ในเบื้องต้นต้องการสมัครสมาชิก Pro ในราคา $200 เพื่อเข้าถึง

ผู้ใช้ บน Reddit ได้แสดงความกังวลเกี่ยวกับปัญหานี้ โดยรายงานว่า รุ่นที่ได้รับความนิยมทั้งหมดที่มีเครื่องมือวิจัยลึก—Perplexity, ChatGPT และ DeepSeek— มีการฮาลูซินเนชัน นักวิจัยและผู้เชี่ยวชาญ AI ก็ได้แบ่งปันผลสำรวจที่น่าเป็นห่วงในแพลตฟอร์มโซเชียลมีเดียอื่น ๆ อย่าง X ด้วย

“เครื่องมือนี้สร้างรายงานที่เขียนได้สวยงามและมีการโต้แย้งที่ดี,” เขียนโดยผู้ใช้หนึ่งคน ผู้ใช้เครื่องมือ Deep Research ของ OpenAI เพื่อศึกษาคณิตศาสตร์ที่เยาวชนทำ “ปัญหาคือทุกอย่างที่เครื่องมือนี้สร้างขึ้นมาทั้งหมดเป็นการจินตนาการเท่านั้น”

“Deep Research สร้างสถิติและการวิเคราะห์ที่ไม่เป็นจริงขึ้นมาอย่างมาก โดยอ้างว่ามันรวบรวมข้อมูลจากพันๆบทความและสมมุติว่ามันสามารถรวบรวมข้อมูลเกี่ยวกับปีเกิดของแต่ละผู้เขียนจากแหล่งที่เชื่อถือได้,” แชร์โดย อีกคนหนึ่ง “ทุกอย่างนี้ไม่เป็นความจริง”

ความจริงยังคงอยู่ในมือของมนุษย์

แชทบอตจะเลิกภาวะฝันร้ายเมื่อไหร่? จุดอ่อนของ AI มีการเห็นแก่ตามานานหลายปี — เราเห็นมันในรายการโปรดแคสต์เรื่อง Planet Money เมื่อพวกเขาทดสอบตอนที่สร้างขึ้นโดย AI ในปี 2023, และเรายังคงเห็นมันในโมเดลที่ทันสมัยที่สุด แม้แต่โมเดลที่ออกแบบมาเพื่อใช้งานเฉพาะกับกลุ่มผู้เชี่ยวชาญและผู้ใช้ที่มีความรู้ด้านเทคโนโลยี.

อาจจะถึงเวลาที่เราต้องยอมรับว่าปัญหานี้ยังคงค้างอยู่ และเข้าใจว่าเราต้องรับผิดชอบต่อสิ่งที่เราสร้างและแบ่งปันโดยใช้เครื่องมือ AI.

ที่เป็นประเด็นคือ แม้ว่ามันจะดูเหมือนเป็นปัญหาที่รู้จักกันดี แต่ผู้เชี่ยวชาญด้านความเสี่ยงของ AI ตัวเองก็ยังตกเป็นเหยื่อของการเขียนที่โน้มน้าวและมีเหตุผลดีของ AI นี่เป็นเรื่องที่น่าเป็นห่วงแน่นอน สถานการณ์จึงกลายเป็นซับซ้อนยิ่งขึ้นเมื่อการนำมาใช้ยังคงเร่งขึ้นอย่างรวดเร็ว โดยทำให้การรู้รอบคอบทางดิจิทัลนั้นล้าสมัย ในขณะที่ความไม่สอดคล้องและการอ้างอิงที่ถูกประดิษฐ์ขึ้นก็เพิ่มขึ้น.

กรณีที่ภาพลวงตาที่ AI สร้างขึ้นถูกเปิดเผยมักจะเป็นกรณีที่ต้องใช้การตรวจสอบข้อมูลอย่างสำคัญ—สิ่งที่ Zuckerberg ควรจะได้รับการเตือนความจำในตอนนี้เนื่องจากเขาได้ยุติฝ่ายตรวจสอบข้อมูลของเขา แล้ว ซึ่งสิ่งนี้เป็นไปในทางที่ชัดเจนในศาล ที่ทนายความและผู้พิพากษาทำงานเพื่อตรวจสอบข้อเท็จจริงและคดี และในสื่อข่าว ที่ความถูกต้องและการตรวจสอบแหล่งข้อมูลมีความสำคัญมาก

แต่เกี่ยวกับกรณีที่ไม่มีใครตรวจสอบรายละเอียดเหล่านี้ล่ะ? จะเกิดอะไรขึ้นในบริบทที่เป็นประจำวันหรือส่วนบุคคลมากขึ้น? ในตอนนี้ นักเรียนล้านคนกำลังจำคำตอบที่ AI สร้างขึ้นสำหรับการศึกษาของพวกเขา ผู้ใช้กำลังปฏิบัติตามคำสั่งที่ AI ให้เพื่อรักษาอาการของพวกเขา และผู้อื่น ๆ กำลังเรียนรู้เรื่องใหม่ ๆ โดยไว้วางใจในเทคโนโลยีอย่างเต็มที่

ผลที่ตามมาจากความเป็นจริงใหม่ที่เรากำลังเผชิญหน้านี้นั้นไม่สามารถวัดหรือทายได้ และความจริง – ในขณะนี้ – อยู่ในมือของผู้ที่ใช้เวลาสงสัยและตรวจสอบ

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!

เราดีใจที่คุณชื่นชอบผลงานของเรา!

ในฐานะผู้อ่านผู้ทรงคุณค่า คุณช่วยให้คะแนนเราบน Trustpilot หน่อยได้ไหม? การให้คะแนนนั้นรวดเร็วและสำคัญกับเรามาก ขอบคุณสำหรับความร่วมมือ!

ให้คะแนนเราบน Trustpilot
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

แสดงความคิดเห็น

Loader
Loader แสดงเพิ่มเติม...