AI สร้างสรรค์ปลุกความหวั่นไหวในวงการวิทยาศาสตร์ เมื่อข้อมูลปลอมคุกคามความน่าเชื่อถือ

Image by Freepik

AI สร้างสรรค์ปลุกความหวั่นไหวในวงการวิทยาศาสตร์ เมื่อข้อมูลปลอมคุกคามความน่าเชื่อถือ

ระยะเวลาในการอ่าน: 1 นาที

  • Kiara Fabbri

    ถูกเขียนขึ้นโดย Kiara Fabbri นักข่าวมัลติมีเดีย

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

รีบร้อนหรือเปล่า? ดูข้อมูลสำคัญๆ ได้ที่นี่!

  • AI สร้างสรรค์ทำให้สามารถสร้างข้อมูลและภาพทางวิทยาศาสตร์ที่เป็นความจริงแต่เป็นเท็จได้อย่างรวดเร็ว
  • นักวิจัยมีความยากลำบากในการตรวจจับภาพที่สร้างขึ้นจาก AI เนื่องจากไม่มีสัญญาณที่ชัดเจนของการจัดการ
  • รูปภาพที่สร้างขึ้นด้วย AI อาจจะอยู่ในวารสารทางวิทยาศาสตร์แล้ว

ภาพที่สร้างขึ้นด้วย AI กำลังทำให้นักวิจัยและผู้จัดพิมพ์เป็นห่วงอย่างมาก เนื่องจากเครื่องมือ AI ที่สร้างขึ้นใหม่ทำให้สามารถสร้างข้อมูลวิทยาศาสตร์และภาพปลอมได้ง่ายอย่างน่าตกใจ ดังที่ระบุไว้ในประกาศข่าวโดย Nature.

ความก้าวหน้านี้ทำให้ความน่าเชื่อถือของวรรณกรรมวิชาการตกอยู่ในความเสี่ยง ทั้งนั้น ผู้เชี่ยวชาญกลัวว่าจะมีการเพิ่มขึ้นของการศึกษาที่ประดิษฐ์โดย AI ซึ่งอาจจะยากที่จะระบุได้.

Jana Christopher นักวิเคราะห์ความซื่อสัตย์ของภาพที่ FEBS Press ในประเทศเยอรมนี ได้เน้นว่า การพัฒนาอย่างรวดเร็วของ AI ที่สร้างสรรค์นั้นกำลังเพิ่มความกังวลเกี่ยวกับศักยภาพในการถูกนำไปใช้ในทางที่ไม่เหมาะสมในวงการวิทยาศาสตร์

“คนที่ทำงานในสาขาของฉัน — ความซื่อสัตย์ของภาพและจริยธรรมในการเผยแพร่ — กำลังเริ่มส่งเสริมความกังวลเกี่ยวกับความเป็นไปได้ที่มันอาจเสนอให้” นางเจนได้กล่าวอย่างที่รายงานโดย Nature.

เธอบันทึกว่า ในขณะที่บางวารสารอาจยอมรับข้อความที่สร้างโดย AI ภายใต้ข้อบังคับบางประการ ภาพและข้อมูลที่สร้างขึ้นด้วย AI ถูกมองว่าเป็นการละเมิดขอบเขตที่อาจส่งผลกระทบอย่างลึกซึ้งต่อความซื่อสัตย์ในการวิจัย ดังที่ Nature ได้เสนอไป

การตรวจจับภาพที่สร้างขึ้นด้วย AI นี้ได้กลายเป็นความท้าทายหลัก ดังที่ Nature ได้กล่าว ไม่เหมือนกับการปรับแต่งดิจิตอลในอดีต ภาพที่สร้างขึ้นด้วย AI มักขาดสัญญาณปกติของการปลอม ทำให้ยากที่จะพิสูจน์การหลอกลวงใด ๆ

ผู้เชี่ยวชาญด้านการสืบสวนภาพ เอลิซาเบธ บิค และนักวิจัยคนอื่นๆ แนะนำว่ารูปภาพที่สร้างขึ้นด้วย AI โดยเฉพาะในวิทยาศาสตร์เซลล์และโมเลกุล อาจจะมีอยู่แล้วในวรรณกรรมที่เผยแพร่ตามที่ Nature รายงาน.

เครื่องมือเช่น ChatGPT นั้นถูกใช้เป็นประจำในการเขียนบทความ ซึ่งสามารถระบุได้จากวลีที่เฉพาะเจาะจงของ chatbot ที่ยังไม่ได้รับการแก้ไข แต่รูปภาพที่สร้างขึ้นด้วย AI นั้นยากที่จะสามารถจับเจอได้ ตอบสนองต่อความท้าทายเหล่านี้ บริษัทเทคโนโลยีและสถาบันวิจัยกำลังพัฒนาเครื่องมือในการตรวจจับ ดังที่ Nature ได้ระบุ.

เครื่องมือที่มีการขับเคลื่อนด้วย AI อย่าง Imagetwin และ Proofig กำลังนำทางโดยการฝึกอัลกอริทึมของตนเพื่อระบุเนื้อหา AI ที่สร้างขึ้น ดร. ดรอร์ โคโลดกิน-กัล ผู้ร่วมก่อตั้ง Proofig รายงานว่าเครื่องมือของเขาสามารถตรวจจับภาพ AI ได้ 98% ของเวลา แต่เขาชี้แจงว่าการตรวจสอบจากมนุษย์ยังคงเป็นสิ่งสำคัญในการยืนยันผล ตามที่ Nature รายงาน

ในโลกของการเผยแพร่ วารสารเช่น Science ใช้ Proofig สำหรับการสแกนครั้งแรกของการส่งมอบ และยักษ์ใหญ่ด้านการเผยแพร่อย่าง Springer Nature กำลังพัฒนาเครื่องมือเฉพาะของตน Geppetto และ SnapShot สำหรับการระบุความผิดปกติในข้อความและภาพ ตามที่ Nature รายงาน

องค์กรอื่น ๆ เช่นสมาคมนานาชาติของผู้จัดพิมพ์วิทยาศาสตร์ ทางเทคนิคและแพทย์ ก็กำลังเปิดตัวโครงการต่าง ๆ เพื่อต่อสู้กับโรงงานผลิตกระดาษและรักษาความซื่อสัตย์ในการวิจัย ดังที่รายงานโดย Nature.

อย่างไรก็ตาม ผู้เชี่ยวชาญเตือนว่าผู้จัดพิมพ์ต้องดำเนินการอย่างรวดเร็ว นักสืบภาพวิทยาศาสตร์ Kevin Patrick กังวลว่า หากการดำเนินการช้าลง สาระที่สร้างด้วย AI อาจกลายเป็นปัญหาที่ยังไม่ได้รับการแก้ไขในวรรณกรรมวิชาการ ดังที่รายงานโดย Nature.

แม้จะมีข้อกังวลเหล่านี้อยู่ แต่หลายคนยังคงยังมีความหวังว่าเทคโนโลยีในอนาคตจะสามารถพัฒนาไปสู่การตรวจจับการหลอกลวงที่สร้างขึ้นด้วย AI ในปัจจุบัน ซึ่งเป็นวิธีการระยะยาวในการรักษาความบริสุทธิ์ของการวิจัยทางวิชาการ.

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!

เราดีใจที่คุณชื่นชอบผลงานของเรา!

ในฐานะผู้อ่านผู้ทรงคุณค่า คุณช่วยให้คะแนนเราบน Trustpilot หน่อยได้ไหม? การให้คะแนนนั้นรวดเร็วและสำคัญกับเรามาก ขอบคุณสำหรับความร่วมมือ!

ให้คะแนนเราบน Trustpilot
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

แสดงความคิดเห็น

Loader
Loader แสดงเพิ่มเติม...