ข้อผิดพลาดที่สร้างขึ้นด้วย AI ในเอกสารศาลนำไปสู่ปัญหาทางกฎหมายสำหรับทนายความ

Photo by Saúl Bucio on Unsplash

ข้อผิดพลาดที่สร้างขึ้นด้วย AI ในเอกสารศาลนำไปสู่ปัญหาทางกฎหมายสำหรับทนายความ

ระยะเวลาในการอ่าน: 1 นาที

  • Andrea Miliani

    ถูกเขียนขึ้นโดย Andrea Miliani ผู้เชี่ยวชาญข่าวเทคโนโลยี

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

รายงานที่แชร์โดย Reuters เมื่อวันก่อนนำเสนอว่า ภาพลวงตาของ AI — ความผิดพลาดและข้อมูลปลอมที่สร้างขึ้นด้วยรุ่น AI สร้างสรรค์ — กำลังสร้างปัญหาทางกฎหมายในศาลที่สหรัฐอเมริกา

รีบหรือไม่? นี่คือเรื่องย่อที่คุณต้องรู้!

  • ทนายความ Morgan & Morgan ส่งอีเมลถึง 1,000 ทนายความเตือนเกี่ยวกับความเสี่ยงของ AI.
  • กรณีล่าสุดของทนายความวอลมาร์ทที่ยอมรับว่าใช้ AI สำหรับคดีของพวกเขาได้ทำให้เกิดการตื่นตัวในสังคมกฎหมาย.
  • การใช้ภาพลวงตาของบอทสนทนาในคำให้การในศาลเป็นปัญหาที่เกิดขึ้นบ่อยในปีหลายปีที่ผ่านมา.

เดือนนี้ ทนายความจากสำนักงาน Morgan & Morgan ได้ส่งอีเมลเตือนความเสี่ยงที่จะเกิดขึ้นกับทนายความมากกว่า 1,000 คนเกี่ยวกับการใช้งานแชทบอทและกรณีปลอมที่สร้างขึ้นโดยปัญญาประดิษฐ์

เมื่อไม่กี่วันที่ผ่านมา ทนายความสองคนที่วายอมิ่ง รับอนุญาติที่ทำการรวมคดีปลอมที่ถูก AI สร้างขึ้นในการยื่นเอกสารศาลสำหรับการฟ้อง Walmart และ ผู้พิพากษาศาลอาญาตระเบิดว่าจะลงโทษพวกเขา

เดือนธันวาคมที่ผ่านมา ศาสตราจารย์จาก Stanford และผู้เชี่ยวชาญด้านข้อมูลปลอม Jeff Hancock ถูกกล่าวหาว่าใช้ AI เพื่อสร้างการอ้างอิงในคำป่านศาลเป็นส่วนหนึ่งของคำให้การของเขาในการป้องกันกฎหมายของรัฐปี 2023 ที่ให้โทษการใช้ deepfakes เพื่อส่งผลกระทบต่อการเลือกตั้ง

มีกรณีหลายๆ รายที่เกิดขึ้นเช่นนี้ในหลายปีที่ผ่านมา ทำให้เกิดการเผชิญหน้าทางกฎหมายและเพิ่มความยุ่งยากให้แก่ผู้พิพากษาและคู่ความ ทั้ง Morgan & Morgan และ Walmart ปฏิเสธที่จะแสดงความคิดเห็นเกี่ยวกับปัญหานี้

AI แบบสร้างสรรค์ได้ช่วยลดเวลาในการวิจัยสำหรับทนายความ แต่การภาวนาของมันอาจทำให้เกิดค่าใช้จ่ายที่สำคัญ ในปีที่ผ่านมา การสำรวจของ Thomson Reuters ได้เปิดเผยว่า 63% ของทนายความใช้ AI ในงาน และมี 12% ทำเช่นนั้นอย่างประจำ

ปีที่แล้ว, สมาคมทนายความอเมริกันได้เตือนสมาชิก 400,000 คนของตนเกี่ยวกับกฎจริยธรรมของทนายความ ซึ่งรวมถึงทนายความต้องยืนยันข้อมูลทั้งหมดในคำร้องที่เขายื่นของศาล และได้ระบุว่านี้รวมถึงข้อมูลที่สร้างขึ้นโดย AI แม้ว่าจะไม่ตั้งใจก็ตาม – เช่นในกรณีของ Hancock .

“เมื่อทนายความถูกจับได้ที่ใช้ ChatGPT หรือเครื่องมือ AI สร้างสรรค์ใด ๆ เพื่อสร้างการอ้างอิงโดยไม่ตรวจสอบ นั่นคือความไม่สามารถ โดยบริสุทธิ์และเรียบง่าย,” อาจารย์ Andrew Perlman, คณบดีของ คณะกฎหมายมหาวิทยาลัยซัฟฟอล์ก กล่าวกับ Reuters.

เมื่อไม่กี่วันที่ผ่านมา, ทาง BBC ก็ได้แชร์รายงานเตือนภัยเกี่ยวกับการสร้างคำพูดปลอมโดย AI และปัญหาที่เกิดขึ้นกับเครื่องมือ AI ในวงการข่าวสาร ซึ่งเป็นเรื่องที่ควรให้ความสำคัญ.

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!

เราดีใจที่คุณชื่นชอบผลงานของเรา!

ในฐานะผู้อ่านผู้ทรงคุณค่า คุณช่วยให้คะแนนเราบน Trustpilot หน่อยได้ไหม? การให้คะแนนนั้นรวดเร็วและสำคัญกับเรามาก ขอบคุณสำหรับความร่วมมือ!

ให้คะแนนเราบน Trustpilot
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

แสดงความคิดเห็น

Loader
Loader แสดงเพิ่มเติม...