มหาวิทยาลัยชิคาโกของ “Glaze และ Nightshade” นำเสนอวิธีป้องกันต่อศิลปินต่อ AI
รีบร้อน? นี่คือข้อมูลสำคัญที่คุณต้องรู้!
- Glaze และ Nightshade ช่วยป้องกันการนำงานของศิลปินไปใช้ในการฝึกฝน AI โดยไม่ได้รับอนุญาต
- Glaze ทำหน้าที่ปกปิดภาพเพื่อป้องกันไม่ให้ AI ทำซ้ำสไตล์ของศิลปิน
- Nightshade ทำให้ AI สับสนโดยการเพิ่ม “พิกเซลที่ถูกพิษ” ซึ่งทำให้ข้อมูลที่ใช้ในการฝึกฝนเสียหาย
ศิลปินกำลังต่อสู้กลับต่อรูปแบบ AI ที่ใช้งานอย่างเหยียดหยามด้วยGlaze และ Nightshade ซึ่งเป็นเครื่องมือสองชิ้นที่พัฒนาขึ้นโดย Ben Zhao และทีมงานของเขาที่ SAND Lab ของ University of Chicago ดังที่รายงานวันนี้โดย MIT Technology Review.
เครื่องมือเหล่านี้มุ่งเน้นที่จะปกป้องงานศิลปะจากการถูกนำมาใช้โดยไม่ได้รับความยินยอมเพื่อฝึกฝนรูปแบบ AI ซึ่งเป็นการปฏิบัติที่สร้างความเห็นใจจากผู้สร้างหลายๆ คนว่าเป็นการขโมย. Glaze ที่ได้รับการดาวน์โหลดมากกว่า 4 ล้านครั้งนับตั้งแต่การปล่อยในเดือนมีนาคม 2023 จะปกปิดภาพโดยการเพิ่มการเปลี่ยนแปลงที่อ่อนๆ ที่ทำให้ AI ไม่สามารถเรียนรู้สไตล์ของศิลปินได้ ตามที่ MIT บอกมา.
Nightshade ซึ่งเป็น “คู่แข่ง” ที่ทำให้รู้สึกไม่พอใจ ได้ทำให้โมเดล AI ไร้สาระเพิ่มขึ้น โดยการเพิ่มการเปลี่ยนแปลงที่มองไม่เห็น ซึ่งอาจทำให้การเรียนรู้ AI มีความผิดพลาด หากนำไปใช้ในการฝึกฝน ตามที่ MIT ได้ระบุไว้
เครื่องมือเหล่านี้ได้รับแ inspiration จากความกังวลของศิลปินเกี่ยวกับการเพิ่มขึ้นอย่างรวดเร็วของ AI ที่สร้างสรรค์ ซึ่งมักพึ่งภาพออนไลน์ในการสร้างผลงานใหม่ MIT รายงานว่า Karla Ortiz ภาพวาดแฟนตาซีและผู้สร้างผลงานคนอื่น ๆ ได้แสดงความกังวลเกี่ยวกับความสูญเสียในการทำงานของพวกเขา เมื่อโมเดล AI ทำซ้ำสไตล์เฉพาะของพวกเขาโดยไม่ได้รับอนุญาตหรือชำระค่าใช้จ่าย
สำหรับศิลปิน การโพสต์ออนไลน์เป็นสิ่งที่จำเป็นสำหรับการเพิ่มความเห็นและรายได้ แต่หลายคนพิจารณาเอางานของพวกเขาออกเพื่อหลีกเลี่ยงการถูกก็อปปี้เพื่อใช้ในการฝึก AI ซึ่งเป็นการกระทบต่ออาชีพของพวกเขา ดังที่ MIT ได้ระบุไว้
Nightshade ซึ่งเปิดตัวหลังจาก Glaze ปีหนึ่ง มีการป้องกันที่รุนแรงมากขึ้น ตามที่ MIT รายงาน โดยการเพิ่ม “พิกเซลที่ถูกพิษ” ลงในภาพ มันทำให้การฝึก AI ขัดข้อง ทำให้โมเดลทำผลลัพธ์ที่ผิดเพี้ยนหากภาพเหล่านี้ถูกก็อปปี้
ผลของ Nightshade ในเชิงสัญลักษณ์ได้ส resonated กับศิลปิน ซึ่งพวกเขามองว่าเป็นความยุติธรรมทางวรรณกรรม: หากงานของพวกเขาถูกโจรกรรมเพื่อฝึก AI, มันสามารถทำลายระบบที่กำลังใช้ประโยชน์จากมัน
MIT โต้ว่าเครื่องมือเหล่านี้ได้พบการสงสัยบ้าง เนื่องจากศิลปินเริ่มที่กังวลเกี่ยวกับความเป็นส่วนตัวของข้อมูล ในการตอบสนองต่อสิ่งนี้, SAND Lab ได้ปล่อยเวอร์ชั่นของ Glaze ที่ทำงานแบบออฟไลน์ ทำให้แน่ใจว่าไม่มีการถ่ายโอนข้อมูลและสร้างความไว้วางใจกับศิลปินที่ระแวงการถูกใช้ประโยชน์.
ห้องแล็บยังได้ขยายการเข้าถึงล่าสุดโดยการหารือความร่วมมือกับ Cara ซึ่งเป็นแพลตฟอร์มสังคมใหม่ที่ไม่อนุญาตให้มีเนื้อหาที่สร้างขึ้นโดย AI ดังที่ MIT ได้ระบุไว้
Zhao และทีมของเขามุ่งมั่นที่จะเปลี่ยนแปลงแนวโน้มความสัมพันธ์ทางอำนาจระหว่างผู้สร้างเนื้อหาแต่ละบุคคลและบริษัท AI
โดยการนำเครื่องมือที่ปกป้องความคิดสร้างสรรค์จากบริษัทใหญ่ๆ มาใช้งาน จ้าวหวังว่าจะสามารถสนับสนุนศิลปินให้สามารถควบคุมงานของตัวเองได้ และนิยามใหม่มาตรฐานจริยธรรมเพื่อ AI และทรัพย์สินทางปัญญา ดังที่ MIT กล่าวไว้
การทำงานนี้กำลังได้รับการสนับสนุนที่เติบโตขึ้น แต่มีผู้เชี่ยวชาญบางคนเตือนว่าเครื่องมือเหล่านี้อาจไม่สามารถให้การป้องกันที่ปลอดภัยทุกวันได้ เนื่องจากแฮกเกอร์และนักพัฒนา AI กำลังสำรวจวิธีการหลีกเลี่ยงมาตรการป้องกันเหล่านี้ ดังที่ MIT ได้ระบุไว้
ด้วย Glaze และ Nightshade ที่สามารถใช้งานได้ฟรี ปัจจุบันห้องปฏิบัติการ SAND ของ Zhao ยังคงเป็นผู้นำทางในการปกป้องความสมบูรณ์ของศิลปะต่อมูลนิธิที่กำลังขยายอิทธิพลของการสร้างเนื้อหาที่ขับเคลื่อนด้วย AI.
แสดงความคิดเห็น
ยกเลิก