โมเดล AI ของ Google อยู่ภายใต้การสอบสวนของยุโรป

Image from Trustedreviews

โมเดล AI ของ Google อยู่ภายใต้การสอบสวนของยุโรป

ระยะเวลาในการอ่าน: 1 นาที

  • Kiara Fabbri

    ถูกเขียนขึ้นโดย: Kiara Fabbri นักข่าวมัลติมีเดีย

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

คณะกรรมการคุ้มครองข้อมูล (DPC) ได้ประกาศวันนี้ว่าจะทำการสอบสวน Google เพื่อตรวจสอบว่าบริษัทได้ปฏิบัติตามกฎหมายในสหภาพยุโรปเกี่ยวกับการคุ้มครองข้อมูลหรือไม่ในการพัฒนาโมเดล AI ของตน ซึ่งเป็น Pathways Language Model 2 (PaLM 2).

PaLM2 เป็นโมเดลภาษาขนาดใหญ่ที่ใช้ในหลายๆ บริการ AI รวมถึงการสรุปอีเมล Google ได้แถลงว่าจะร่วมมือกับการสอบสวน ดังที่ AP ได้รายงานไว้.

การสอบสวนจะประเมินว่า Google ควรจะดำเนินการประเมินผลกระทบต่อการคุ้มครองข้อมูล (DPIA) เพื่อประเมินความเสี่ยงที่อาจจะเกิดขึ้นต่อสิทธิและเสรีภาพของบุคคลจากเทคโนโลยี AI ของบริษัทหรือไม่

การสอบสวนนี้เป็นส่วนหนึ่งของความพยายามอย่างกว้างขวางของ DPC ในการรับรองการปฏิบัติตามกฎระเบียบการคุ้มครองข้อมูลในภาค AI ทั่วยุโรป การประมวลผลข้ามเขตภูมิศาสตร์ซึ่งเกี่ยวข้องกับการจัดการข้อมูลข้ามหลายประเทศในสหภาพยุโรปหรือส่งผลกระทบต่อบุคคลในหลายประเทศ ได้รับการส่องสว่างเป็นพิเศษ

เครื่องมือ AI แบบสร้างสรรค์ที่รู้จักกันดีจากการสร้างข้อมูลที่น่าเชื่อถือแต่เป็นเท็จและการเข้าถึงข้อมูลส่วนบุคคล สร้างความเสี่ยงทางกฎหมายที่สำคัญ ตามที่ TechCrunch ได้ระบุไว้ หน่วยงาน DPC ที่มีหน้าที่ในการตรวจสอบว่า Google ปฏิบัติตามกฎระเบียบการปกป้องข้อมูลทั่วไป (GDPR) หรือไม่

เพื่อวัตถุประสงค์นี้ DPC สามารถปรับค่าปรับสูงสุด 4% ของรายได้ประจำปีทั่วโลกของบริษัทแม่ของ Google ซึ่งคือ Alphabet ในกรณีที่มีการละเมิด ตามที่ TechCrunch รายงาน

Google ได้สร้างเครื่องมือ AI ที่สร้างสรรค์หลากหลายรูปแบบ รวมถึง Gemini series ซึ่งเป็นโมเดลภาษาขนาดใหญ่ (ก่อนหน้านี้เรียกว่า Bard) ที่ใช้สำหรับการประยุกต์ใช้งานหลากหลายรูปแบบ รวมถึงการเพิ่มประสิทธิภาพการค้นหาบนเว็บผ่าน AI chatbots ตามที่ TechCrunch รายงาน

เครื่องมือหลักๆ ในเหล่านี้คือ Google’s PaLM2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ที่เป็นฐานซึ่งเปิดตัวในงานประชุมนักพัฒนา I/O ในปีที่ผ่านมา ตามที่ TechCrunch รายงาน

เดือนที่แล้ว, บริษัท X ของ Elon Musk ก็ได้รับการสอบสวนจากนักกฎหมายยุโรปเกี่ยวกับการใช้ข้อมูลผู้ใช้สำหรับการฝึก AI ด้วย การถูกสอบสวนก็มีอยู่ หน่วยงาน DPC ได้เริ่มการสอบสวนหลังจากที่ได้รับการร้องเรียนว่า X กำลังใช้ข้อมูลผู้ใช้ในเทคโนโลยี Grok AI โดยไม่ได้รับความยินยอมอย่างถูกต้อง แม้ว่า X ได้ยอมรับที่จะจำกัดการประมวลผลข้อมูล, แต่ยังไม่ได้รับองค์การปรับใดๆ

การสอบสวนนี้เป็นส่วนหนึ่งของการพยายามของ DPC ในการควบคุมการใช้ข้อมูลส่วนบุคคลในการพัฒนา AI ในสหภาพยุโรป การรับรองของสหภาพยุโรปต่อArtificial Intelligence Act เป็นขั้นตอนสำคัญในการสร้างกรอบกฎหมายสำหรับเทคโนโลยี AI ภายในสหภาพยุโรป

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ
Please wait 5 minutes before posting another comment.
Comment sent for approval.

แสดงความคิดเห็น

แสดงเพิ่มเติม...