AI Chatbots มีช่องโหว่ต่อการโจมตีโดยการฉีดเข้าไปในหน่วยความจำ

Image by Mika Baumeister, from Unsplash

AI Chatbots มีช่องโหว่ต่อการโจมตีโดยการฉีดเข้าไปในหน่วยความจำ

ระยะเวลาในการอ่าน: 1 นาที

  • Kiara Fabbri

    ถูกเขียนขึ้นโดย Kiara Fabbri นักข่าวมัลติมีเดีย

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

นักวิจัยได้ค้นพบวิธีใหม่ในการจัดการกับ AI chatbots ซึ่งทำให้เกิดความกังวลเกี่ยวกับความปลอดภัยของโมเดล AI ที่มีหน่วยความจำ

รีบร้อนหรือไม่? นี่คือข้อเท็จจริงที่สุดแรง!

  • นักวิจัยจากสามมหาวิทยาลัยได้พัฒนา MINJA และแสดงผลความสำเร็จที่สูงในการหลอกลวง
  • การโจมตีทำให้การตอบสนองของแชทบอทเปลี่ยนแปลง ส่งผลกระทบต่อการแนะนำสินค้าและข้อมูลทางการแพทย์
  • MINJA เข้าเบียดเบนมาตรการรักษาความปลอดภัย โดยสามารถทำให้ได้ Injection Success Rate ที่ 95% ในการทดสอบ

การโจมตีที่เรียกว่า MINJA (Memory INJection Attack) สามารถดำเนินการได้เพียงแค่มีการสัมผัสกับระบบ AI อย่างทั่วไป โดยไม่จำเป็นต้องเข้าถึงระบบด้านหลัง ดังที่มีการรายงานครั้งแรกโดย The Register.

พัฒนาโดยนักวิจัยจากมหาวิทยาลัยรัฐมิชิแกน, มหาวิทยาลัยแห่งรัฐจอร์เจีย, และมหาวิทยาลัยการจัดการสิงคโปร์, MINJA ทำงานโดยการทำลายหน่วยความจำของ AI ผ่านการส่งข้อความส่งเสริมที่ทำให้เข้าใจผิด. เมื่อ chatbot จัดเก็บข้อมูลที่ทำให้เข้าใจผิดนี้, พวกเขาสามารถเปลี่ยนแปลงการตอบสนองในอนาคตสำหรับผู้ใช้คนอื่น ๆ

“ในปัจจุบัน, เอเจนท์ AI โดยทั่วไปมักจะรวมหน่วยความจำซึ่งจัดเก็บคำถามงานและการดำเนินการตามคำแนะนำของมนุษย์เพื่อการอ้างอิงในอนาคต,” อธิบายโดย Zhen Xiang, ศาสตราจารย์ผู้ช่วยที่มหาวิทยาลัยแห่งรัฐจอร์เจีย, ตามที่รายงานโดย The Register.

“ตัวอย่างเช่นหลังจากทุกเซสชันของ ChatGPT ผู้ใช้สามารถที่จะให้คะแนนบวกหรือลบได้เลือกเอง และคะแนนนี้สามารถช่วย ChatGPT ในการตัดสินใจว่าควรจะนำข้อมูลเซสชันนี้เข้าไปที่หน่วยความจำหรือฐานข้อมูลของพวกเขาหรือไม่” เขาเพิ่มเติม

นักวิจัยได้ทดสอบการโจมตีนี้บนโมเดล AI ที่ขับเคลื่อนด้วย GPT-4 และ GPT-4o ของ OpenAI ซึ่งรวมถึงผู้ช่วยซื้อของออนไลน์ แชทบอทสุขภาพ และตัวตอบคำถาม

The Register รายงานว่าพวกเขาพบว่า MINJA สามารถทำให้เกิดความขัดข้องที่รุนแรงได้ ในแชทบอทด้านสุขภาพเช่น พวกเขาได้แก้ไขรายการผู้ป่วย โดยเชื่อมโยงข้อมูลของผู้ป่วยคนหนึ่งกับผู้ป่วยคนอื่น ในร้านค้าออนไลน์ มันหลอก AI ให้แสดงผลิตภัณฑ์ที่ผิดพลาดให้กับลูกค้า

“เมื่อเทียบกับ งานของเราแสดงว่าการโจมตีสามารถเริ่มได้เพียงแค่มีการสื่อสารกับตัวแทนเหมือนกับผู้ใช้ทั่วไป” ซีอาง กล่าว รายงานโดย The Register. “ผู้ใช้ทุกคนสามารถส่งผลกระทบต่อการดำเนินงานของผู้ใช้คนอื่นได้ง่าย ดังนั้น เราจึงกล่าวว่าการโจมตีของเราเป็นความเสี่ยงที่เป็นปฏิบัติต่อตัวแทน LLM” เขาเพิ่มเติม

การโจมตีนี้ค่อนข้างน่าเป็นห่วงเนื่องจากมันสามารถละเว้นมาตรการรักษาความปลอดภัย AI ที่มีอยู่ในปัจจุบันได้ นักวิจัยได้รายงานอัตราความสำเร็จที่ 95% ในการฉีดข้อมูลที่ทำให้เกิดความสับสน ซึ่งทำให้มันเป็นช่องโหว่ที่ร้ายแรงที่ผู้พัฒนา AI ต้องจัดการ

ขณะที่โมเดล AI ที่มีหน่วยความจำกำลังเป็นที่นิยมมากขึ้น การศึกษานี้ได้ทำการเน้นความจำเป็นในการมีการรักษาความปลอดภัยที่แข็งแกร่งเพื่อป้องกันผู้กระทำที่มีเจตนาอย่างผิดพลาดจากการจัดการ chatbots และการทำให้ผู้ใช้เข้าใจผิด.

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!

เราดีใจที่คุณชื่นชอบผลงานของเรา!

ในฐานะผู้อ่านผู้ทรงคุณค่า คุณช่วยให้คะแนนเราบน Trustpilot หน่อยได้ไหม? การให้คะแนนนั้นรวดเร็วและสำคัญกับเรามาก ขอบคุณสำหรับความร่วมมือ!

ให้คะแนนเราบน Trustpilot
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

แสดงความคิดเห็น

Loader
Loader แสดงเพิ่มเติม...