
Image generated with DALL·E through ChatGPT
ความคิดเห็น: การหลอกลวงด้วย Deepfake กำลังใช้พลังความรักและความไว้วางใจเพื่อหลอกลวงอย่างที่ยังไม่เคยมีมาก่อน
การหลอกลวงที่ขับเคลื่อนด้วย AI กำลังเพิ่มขึ้น โดยผู้ร้ายไซเบอร์ใช้เทคโนโลยีดีพฟากในการสร้างวิดีโอและภาพที่น่าเชื่อถือเพื่อควบคุมผู้เป็นเหยื่อ จากสตรีฝรั่งเศสที่เชื่อว่าเธอกำลังช่วย Brad Pitt ถึงเหยื่อที่ถูกโน้มน้าวโดยดีพฟากคุณภาพสูง ขอบเขตระหว่างความเป็นจริงและการหลอกลวงกำลังเบลอลงไป ทำให้เครื่องมือ AI ที่พัฒนาขึ้นมากำลังเพิ่มความเสี่ยง
หลายคนจากเราได้เห็นข่าวนี้ในเดือนมกราคม: หญิงฝรั่งเศสคนหนึ่งสูญเสียเงินกว่า 850,000 ดอลลาร์ให้กับคนหลอกลวง เพราะเธอเชื่อว่าเธอกำลังให้เงินให้ Brad Pitt — ชายที่เธอคิดว่าเธอมีความสัมพันธ์มาเกินกว่าหนึ่งปีแล้ว
นักฉ้อโกงได้ใช้เทคโนโลยีปัญญาประดิษฐ์แบบสร้างสรรค์ขั้นสูงในการสร้าง “ภาพเซลฟี่” และสร้างหลักฐานที่ปลอมแปลง ทำให้เหยื่อของพวกเขา, แอนน์—นักออกแบบสตรีอายุ 53 ปีที่กำลังจะหย่าร้าง—เชื่อในเรื่องราวที่น่าสะเทือนใจของพิตต์ที่ปลอมแปลงที่มีความต้องการด้านการแพทย์เร่งด่วน เขาอ้างว่าเงินของเขาถูกตรึงเนื่องจากการหย่าร้างกับแองเจลิน่า โจลี่.
แอนน์ตัดสินใจอย่างกล้าหาญ—และเสี่ยง—ในการเปิดเผยเรื่องราวของเธออย่างสาธารณะ โดยต้องเผชิญหน้ากับการล้อเลียน, การดูหมิ่น, และการโจมตีทางเสมือนจริงอยู่นับล้าน “ฉันเหมือนคนโง่, ฉันจ่ายเงิน… ทุกครั้งที่ฉันสงสัยเขา ทุกครั้งเขาก็สามารถปราบปรามความสงสัยของฉันได้,” เธอบอกในรายการ Youtube ภาษาฝรั่งเศส, ตามที่รายงานโดย BBC. “ฉันแค่ถูกหลอก, ฉันยอมรับ, และนั่นเป็นเหตุผลที่ฉันออกมาเปิดเผย เพราะฉันไม่ใช่คนเดียว.”
เธอไม่ได้เป็นคนเดียว หลายเดือนต่อมา ตำรวจสเปนจับกุม 5 คนที่ถูกกล่าวหาว่าได้หลอกลวงสองหญิงคนอื่น โดยแอบอ้างว่าตนเองคือ Pitt อีกด้วย เมื่อเพียงไม่กี่วันที่ผ่านมา ชายคนหนึ่งจากประเทศจีน ก็ถูกหลอกลวง ว่าแฟนสาวออนไลน์ของเขาต้องการเงินเพื่อการรักษาโรค และเพื่อทุนในการดำเนินธุรกิจของเธอ.
ผู้ถูกทำร้ายได้รับวีดีโอและภาพถ่ายที่ปรับแต่งมาส่วนตัว -ภาพที่ไม่สามารถหาได้ที่ไหนอื่นบนอินเทอร์เน็ต- ซึ่งทำให้พวกเขายิ่งเชื่อในความเท็จที่ซับซ้อนของผู้หลอกลวง.
รายงานล่าสุดจาก Entrust แนะนำว่า การพยายามใช้ Deepfake มีการเกิดขึ้นทุกๆ 5 นาที มีการรายงานกรณีใหม่ๆของผู้ถูกหลอกลวงด้วย AI ที่สร้างขึ้นมาใหม่ทุกวัน—นี่เป็นแนวโน้มที่น่าเป็นห่วงโดยเฉพาะเมื่อพิจารณาถึงหมื่น, หรือแม้กระทั่งล้าน, ของผู้คนที่ตกหนี้และอับอายและไม่กล้าแจ้งเรื่องนี้ให้เจ้าหน้าที่ทราบ ยิ่งไปกว่านั้นไม่กล้าทำให้มันเป็นที่รู้จักกับสาธารณะ
สแกม DeepFake มีแนวโน้มเพิ่มขึ้น
มีการศึกษาและรายงานหลายๆ รายการที่เตือนสัญญาณเกี่ยวกับการฉ้อโกงและการโจมตีทางไซเบอร์ที่เพิ่มขึ้นโดยการขับเคลื่อนด้วย AI ข้อมูลล่าสุดจาก TrustPair’s 2025 Fraud Trends and Insights แสดงให้เห็นว่ามีการเพิ่มขึ้น 118% ในการฉ้อโกงที่ขับเคลื่อนด้วย AI ในปีที่แล้ว ตามที่รายงานโดย CFO.
สวัสดีค่ะ บริษัท Hiya จากอเมริกาที่เชี่ยวชาญในด้านการรักษาความปลอดภัยและประสิทธิภาพของระบบเสียง ได้เผยแพร่ผลสำรวจเมื่อเร็วๆ นี้ ซึ่งเปิดเผยว่า 31% ของลูกค้าในหกประเทศได้รับการโทรจาก deepfake ในปี 2024 และ 45% ของพวกเขาถูกหลอกลวง—34% ของกลุ่มนี้สูญเสียเงิน และ 32% รู้สึกถูกขโมยข้อมูลส่วนบุคคล โดยเฉลี่ย ผู้ที่เป็นเหยื่อของการหลอกลวงทางโทรศัพท์จะสูญเสียเงินมากกว่า $500 ต่อคน
เมื่อไม่กี่วันที่ผ่านมา The Guardian ได้เปิดเผยว่ามีเครือข่ายที่จัดการอย่างเป็นระบบในเจอร์เจีย—ทางตะวันออกของยุโรป—ใช้โฆษณาปลอมบน Facebook และ Google ในการหลอกลวงผู้คนกว่า 6,000 คนทั่วยุโรป แคนาดา และสหราชอาณาจักร ซึ่งทำให้พวกเขาสามารถรวบรวมเงินได้ถึง $35 ล้านจากการดำเนินการของพวกเขา
ประมาณ 85 คนที่รับค่าตอบแทนสูงจากการหลอกลวงของประชาชนจอร์เจียได้ใช้ภาพลักษณ์ของบุคคลสาธารณะเช่นนักข่าวชาวอังกฤษคือ มาร์ติน ลูวิส, นักเขียนและนักผจญภัยเบน โฟเกิล, และอีลอน มัสก์สำหรับการหลอกลวงของพวกเขา ผู้หลอกลวงได้โปรโมตคริปโตเคอเรนซีปลอมและโครงการลงทุนอื่นๆ ทำให้เหยื่อโอนเงินผ่านธนาคารดิจิตอลเช่น Revolut—ซึ่งได้รับใบอนุญาตให้เป็นธนาคารในสหราชอาณาจักรเมื่อเร็ว ๆ นี้
AI ขั้นสูง, การหลอกลวงที่ซับซ้อนมากขึ้น
อาชญากรไซเบอร์ได้ใช้ AI สร้างขึ้นมาในช่วงหลายปีที่ผ่านมา โดยใช้เครื่องมือเช่น ChatGPT เพื่อจัดทำและแปลอีเมลที่น่าสนใจและสร้างเนื้อหาที่มีความเชื่อมั่นที่สามารถทำผ่านข้อความ ตอนนี้ เมื่อเครื่องมือ AI เริ่มพัฒนาขึ้นการใช้รูปภาพและวิดีโอที่สร้างขึ้นจาก AI ได้เพิ่มขึ้น
ไม่นานมานี้, ByteDance ได้เปิดตัวเครื่องมือวิดีโอ AI ล่าสุดของตน, OmniHuman-1, ที่สามารถสร้าง Deepfake ที่มีความเป็นจริงที่สุดในตลาด อย่างไรก็ตาม บริษัท AI อื่น ๆ กำลังพัฒนาเทคโนโลยีที่คล้ายคลึงกัน ดูเหมือนว่าเรื่องเวลาเท่านั้นที่เครื่องมือเหล่านี้จะถูกนำไปใช้สำหรับการหลอกลวง.
ในขณะที่เทคโนโลยีเหล่านี้สามารถใช้ “ด้วยความศรัทธาที่ดี” และแม้กระทั่งเพื่อต่อต้านการเพิ่มขึ้นของการหลอกลวง – เช่น ‘ยาย’ Daisy ของ O2 ที่ใช้ AI, ที่ถูกออกแบบมาเพื่อที่จะสนทนากับผู้ร้ายในสายโทรศัพท์แบบเรียลไทม์และทำให้พวกเขาหันไปจากเหยื่อที่เป็นคนจริง แต่ผลที่เกิดจากการใช้ในทางที่เป็นร้ายดูเหมือนว่าจะไม่สามารถวัดได้.
ที่ Wizcase เราได้รายงานใหม่ๆเกี่ยวกับการเพิ่มขึ้น 614% ของ “การโจมตีด้วยสแกมตัวเอง” และได้เน้นถึงวิธีที่แฮกเกอร์ใช้เทคโนโลยีดีพฟรองเพื่อทำให้เนื้อหาปลอมดู “มากขึ้น realism” โดยบริษัทโซเชียลมีเดียอย่าง Meta ได้ต้องมาแทรกแซงในสแกมการฆ่าหมู เนื่องจากผู้ทำความผิดใช้แพลตฟอร์มเหล่านี้เป็นอย่างมาก ในการวิจัย Meta ได้สังเกตว่ามีสแกมที่เริ่มต้นจากแอปเดทที่มากมาย ซึ่งยืนยันว่าความรักโรแมนติกเป็นสิ่งที่หลอกลวงที่มากที่สุดเมื่อมาถึงเหยื่อ – ทั้งในปัจจุบันและในอดีต
ความรัก: เหยื่อที่มีอิทธิพล
ผู้ก่อเหตุทางไซเบอร์ไม่เพียงแค่เชี่ยวชาญในการเข้าใจและใช้ปัญญาประดิษฐ์ขั้นสูงเท่านั้น แต่พวกเขายังรู้เรื่องการเข้าใจปัญญามนุษย์อย่างลึกซึ้ง ผู้ก่อเหตุทางความมั่นคงปลอดภัยรู้วิธีการระบุจุดอ่อน สร้างความไว้วางใจ และทำการขอร้องของพวกเขาในเวลาที่ถูกต้องที่สุด
การศึกษาDo You Love Me? Psychological Characteristics of Romance Scam Victims ซึ่งเผยแพร่ในปี 2018 โดย ดร. Monica T. Whitty ได้อธิบายถึงวิธีการที่กลุ่มอาชญากรรมระหว่างประเทศได้ดำเนินการหลอกลวงทางความรักจากการออกเดทมาเป็นเวลาหลายปีแล้ว—ยังก่อนที่จะมีอินเทอร์เน็ต—และหญิงที่มีอายุกลางคนที่ได้รับการศึกษาดีมักจะตกเป็นเหยื่อของกลยุทธ์ที่เช่นนี้—เช่นเดียวกับ Anne.
เราสามารถคาดหวังอะไรได้บ้างในปัจจุบัน หลังจากผ่านการศึกษานี้มาแล้ว 8 ปี ด้วยเทคโนโลยีที่เหมือนกับในนิยายวิทยาศาสตร์? คงจริงๆ แล้วพวกเราทุกคนอาจจะมีความอ่อนแอมากกว่าที่เราคิด.
“ผู้เสียหายจากประเภทของการฉ้อโกงนี้มักเป็นผู้ที่กำลังมองหาความหมายในชีวิต, และอารมณ์เฉื่อยชา,” ซึ่ง Annie Lecompte, ศาสตราจารย์สมทบที่สถาบันมหาวิทยาลัยแควเบคที่มอนทรีออล (UQAM), เขียนไว้ในบทความที่เผยแพร่เมื่อเร็ว ๆ นี้ใน The Conversation. “แม้ว่าการฉ้อโกงบนพื้นฐานของความรักนี้จะถูกเย้ยหยันและเข้าใจผิด, แต่มันยังคงสร้างอยู่บนกลไกจิตวิทยาที่ซับซ้อนซึ่งใช้ประโยชน์จากความไว้วางใจ, อารมณ์, และความอ่อนแอของผู้เสียหาย”
หัวใจที่แตกหัก, กระเป๋าเงินที่ว่างเปล่า
Liu—นามสกุลของชายจีนที่เพิ่งเสียเงินไปประมาณ 200,000 หยวน, หรือประมาณ $28,000, ในสแกมที่ขับเคลื่อนด้วย AI—เชื่อแน่นอนว่าแฟนสาว AI ของเขาจริง ๆ เมื่อเขาเห็นรูปถ่ายที่ปรับแต่งให้เหมือนส่วนบุคคลและแม้กระทั่งวิดีโอ. การสร้างความผูกพันทางอารมณ์ที่แข็งแกร่งยิ่งขึ้น… กับผู้ฉ้อโกงของเขา.
ในขณะที่เขาไม่ได้ให้รายละเอียดเพิ่มเติมเกี่ยวกับบริบทในรายงาน อีกหนึ่งผู้เสียหายคือนาง Nikki MacLeod ที่อายุ 77 ปี ได้ทำการเปิดเผย นางเชื่อว่านางกำลังมีความสัมพันธ์ที่แท้จริงกับแฟนหญิง AI และส่งเงินให้เธอ £17,000 หรือประมาณ $22,000 ผ่านการโอนเงินผ่านธนาคาร, PayPal, และบัตรของขวัญ
“ฉันไม่ได้เป็นคนที่โง่ แต่เธอสามารถทำให้ฉันเชื่อว่าเธอเป็นคนจริง และเรากำลังจะใช้ชีวิตที่เหลืออยู่ด้วยกัน,” นาง MacLeod บอกกับ BBC.
MacLeod รู้สึกเหงาและเศร้าเมื่อเธอพบกับ Alla Morgan ในห้องแชทกลุ่ม เมื่อผ่านไปสักพัก MacLeod ขอแชทวิดีโอสด แต่ Morgan บอกว่าไม่สามารถทำได้เนื่องจากเธอทำงานที่แท่นสกัดน้ำมัน เมื่อ MacLeod เริ่มสงสัย Morgan ก็เริ่มส่งวิดีโอที่ดูเหมือนจริงมากๆ “เธอส่งวิดีโอมาทักทาย ‘สวัสดี Nikki, ฉันไม่ใช่คนลวง, ฉันอยู่ที่แท่นสกัดน้ำมันของฉัน’ และฉันหนึ่งถึงมันมาก” MacLeod อธิบาย ข้อมูลนี้มีให้ดูบนเว็บไซต์ของ BBC และเห็นได้ง่ายว่าทำไม MacLeod ถึงเชื่อว่ามันเป็นจริง – นั่นคือ deepfake ที่มีคุณภาพสูง
ทีมข่าวของ BBC ได้ขอความเห็นจากผู้เชี่ยวชาญด้านความปลอดภัยในเชิงไซเบอร์และการมนุษย์-คอมพิวเตอร์ที่มหาวิทยาลัย Abertay คือ ดร. Lynsay Shepherd เพื่อวิเคราะห์รูปภาพและวิดีโอที่ MacLeod ได้รับ “เมื่อมองครั้งแรกมันดูถูกต้อง ถ้าคุณไม่รู้ว่าจะหาอะไร แต่ถ้าคุณมองที่ตา – การเคลื่อนไหวของตาไม่เหมือนปกติ” ดร. Shepherd กล่าว
“เอกสารดูเหมือนจริง วิดีโอดูเหมือนจริง ธนาคารดูเหมือนจริง” นั่นคือสิ่งที่ MacLeod บอก “ด้วยการเ introduce ของปัญญาประดิษฐ์ ทุกสิ่งทุกอย่างสามารถเป็นปลอมได้”
แสดงความคิดเห็น
ยกเลิก