
Image by Mika Baumeister, from Unsplash
AI Chatbots มีช่องโหว่ต่อการโจมตีโดยการฉีดเข้าไปในหน่วยความจำ
นักวิจัยได้ค้นพบวิธีใหม่ในการจัดการกับ AI chatbots ซึ่งทำให้เกิดความกังวลเกี่ยวกับความปลอดภัยของโมเดล AI ที่มีหน่วยความจำ
รีบร้อนหรือไม่? นี่คือข้อเท็จจริงที่สุดแรง!
- นักวิจัยจากสามมหาวิทยาลัยได้พัฒนา MINJA และแสดงผลความสำเร็จที่สูงในการหลอกลวง
- การโจมตีทำให้การตอบสนองของแชทบอทเปลี่ยนแปลง ส่งผลกระทบต่อการแนะนำสินค้าและข้อมูลทางการแพทย์
- MINJA เข้าเบียดเบนมาตรการรักษาความปลอดภัย โดยสามารถทำให้ได้ Injection Success Rate ที่ 95% ในการทดสอบ
การโจมตีที่เรียกว่า MINJA (Memory INJection Attack) สามารถดำเนินการได้เพียงแค่มีการสัมผัสกับระบบ AI อย่างทั่วไป โดยไม่จำเป็นต้องเข้าถึงระบบด้านหลัง ดังที่มีการรายงานครั้งแรกโดย The Register.
พัฒนาโดยนักวิจัยจากมหาวิทยาลัยรัฐมิชิแกน, มหาวิทยาลัยแห่งรัฐจอร์เจีย, และมหาวิทยาลัยการจัดการสิงคโปร์, MINJA ทำงานโดยการทำลายหน่วยความจำของ AI ผ่านการส่งข้อความส่งเสริมที่ทำให้เข้าใจผิด. เมื่อ chatbot จัดเก็บข้อมูลที่ทำให้เข้าใจผิดนี้, พวกเขาสามารถเปลี่ยนแปลงการตอบสนองในอนาคตสำหรับผู้ใช้คนอื่น ๆ
“ในปัจจุบัน, เอเจนท์ AI โดยทั่วไปมักจะรวมหน่วยความจำซึ่งจัดเก็บคำถามงานและการดำเนินการตามคำแนะนำของมนุษย์เพื่อการอ้างอิงในอนาคต,” อธิบายโดย Zhen Xiang, ศาสตราจารย์ผู้ช่วยที่มหาวิทยาลัยแห่งรัฐจอร์เจีย, ตามที่รายงานโดย The Register.
“ตัวอย่างเช่นหลังจากทุกเซสชันของ ChatGPT ผู้ใช้สามารถที่จะให้คะแนนบวกหรือลบได้เลือกเอง และคะแนนนี้สามารถช่วย ChatGPT ในการตัดสินใจว่าควรจะนำข้อมูลเซสชันนี้เข้าไปที่หน่วยความจำหรือฐานข้อมูลของพวกเขาหรือไม่” เขาเพิ่มเติม
นักวิจัยได้ทดสอบการโจมตีนี้บนโมเดล AI ที่ขับเคลื่อนด้วย GPT-4 และ GPT-4o ของ OpenAI ซึ่งรวมถึงผู้ช่วยซื้อของออนไลน์ แชทบอทสุขภาพ และตัวตอบคำถาม
The Register รายงานว่าพวกเขาพบว่า MINJA สามารถทำให้เกิดความขัดข้องที่รุนแรงได้ ในแชทบอทด้านสุขภาพเช่น พวกเขาได้แก้ไขรายการผู้ป่วย โดยเชื่อมโยงข้อมูลของผู้ป่วยคนหนึ่งกับผู้ป่วยคนอื่น ในร้านค้าออนไลน์ มันหลอก AI ให้แสดงผลิตภัณฑ์ที่ผิดพลาดให้กับลูกค้า
“เมื่อเทียบกับ งานของเราแสดงว่าการโจมตีสามารถเริ่มได้เพียงแค่มีการสื่อสารกับตัวแทนเหมือนกับผู้ใช้ทั่วไป” ซีอาง กล่าว รายงานโดย The Register. “ผู้ใช้ทุกคนสามารถส่งผลกระทบต่อการดำเนินงานของผู้ใช้คนอื่นได้ง่าย ดังนั้น เราจึงกล่าวว่าการโจมตีของเราเป็นความเสี่ยงที่เป็นปฏิบัติต่อตัวแทน LLM” เขาเพิ่มเติม
การโจมตีนี้ค่อนข้างน่าเป็นห่วงเนื่องจากมันสามารถละเว้นมาตรการรักษาความปลอดภัย AI ที่มีอยู่ในปัจจุบันได้ นักวิจัยได้รายงานอัตราความสำเร็จที่ 95% ในการฉีดข้อมูลที่ทำให้เกิดความสับสน ซึ่งทำให้มันเป็นช่องโหว่ที่ร้ายแรงที่ผู้พัฒนา AI ต้องจัดการ
ขณะที่โมเดล AI ที่มีหน่วยความจำกำลังเป็นที่นิยมมากขึ้น การศึกษานี้ได้ทำการเน้นความจำเป็นในการมีการรักษาความปลอดภัยที่แข็งแกร่งเพื่อป้องกันผู้กระทำที่มีเจตนาอย่างผิดพลาดจากการจัดการ chatbots และการทำให้ผู้ใช้เข้าใจผิด.
แสดงความคิดเห็น
ยกเลิก