svasdssvasds
เนชั่นทีวี

สังคม

ระวัง มิจฉาชีพวันนี้ ล้ำไปอีกขั้น ใช้ AI ปลอมเสียงคนใกล้ชิด หลอกลวงเหยื่อ

15 กันยายน 2566
เกาะติดข่าวสาร >> Nation Story
logoline

Gogolook หนึ่งผู้พัฒนาแอปพลิเคชัน Whoscall และผู้ให้บริการทางด้านเทคโนโลยี เพื่อความเชื่อมั่น ออกโรงเตือนภัยวายร้ายมิจฉาชีพในประเทศไทย รุกคืบด้วยการใช้วิธีหลอกลวงใหม่ด้วยเทคโนโลยี AI ปลอมเสียง

นับวันการหลอกลวงในทั่วโลกจะทวีความรุนแรงมากขึ้น อ้างอิงชุดข้อมูลที่น่าสนใจจาก รายงานการหลอกลวงทั่วโลกปี 2566 ของ GASA พบว่า มีการฉ้อโกง ทั่วโลกเพิ่มขึ้น 10.2% เมื่อเทียบกับปีที่แล้ว (2566) เกิดความสูญเสียทางการเงินสูงถึง 55,000 ล้านดอลลาร์สหรัฐ
 

ระวัง มิจฉาชีพวันนี้ ล้ำไปอีกขั้น ใช้ AI ปลอมเสียงคนใกล้ชิด หลอกลวงเหยื่อ ในขณะที่ Generative AI (เช่น ChatGPT และ DeepFake เป็นต้น) ถูกพัฒนาอย่างรวดเร็วและถูกนำไปใช้หลอกลวงในหลายพื้นที่ ในอนาคต การหลอกลวงจะพัฒนาต่อไปอย่างรวดเร็ว โดยมีค่าใช้จ่ายในการดำเนินการลดลง เมื่อรวมกับการรั่วไหลของข้อมูลส่วนบุคคลในหลายๆ เคส ภาครัฐและเอกชนจำจึงเป็นต้องลงทุนและร่วมกันวางกลยุทธ์เพื่อป้องกันภัยจากการฉ้อโกงที่เกิดขึ้น

ความเสียหายการหลอกลวงโดยใช้  AI ปลอมเสียงเพิ่มขึ้นทั่วโลก

เนื่องจากในปัจจุบันนี้ กลุ่มมิจฉาชีพ เริ่มพัฒนามาใช้ เทคโนโลยีปัญญาประดิษฐ์ เพื่อเลียนแบบเสียง "คนคุ้นเคย" เพื่อน หรือ สมาชิกครอบครัว เพื่อทำให้เหยื่อเชื่อใจและหลงกลได้ง่ายขึ้น มิจฉาชีพใช้เทคโนโลยีโคลนนิ่ง เพื่อวิเคราะห์เสียงที่ถูกบันทึกไว้ หรือเสียงที่ได้จากออนไลน์เพื่อสร้างเสียงสังเคราะห์ที่ใกล้เคียง กับเสียงบุคคลเป้าหมาย

ดังนั้น เมื่อทำสำเร็จก็จะโทรหาเหยื่อ เพื่อปลอมเป็นคนใกล้ชิดหรือ หลอกลวงว่าเป็นสมาชิกในครอบครัว เครือญาติ สำหรับกรณีเคสที่พบบ่อยครั้ง มิจฉาชีพผู้โทรมักจะแอบอ้างว่า กำลังอยู่ในสถานการณ์ฉุกเฉิน เช่น เกิดอุบัติเหตุ ต้องการให้โอนเงินช่วยเหลือโดยด่วน หรือมีปัญหาทางกฎหมาย เพื่อบีบคั้นและเร่ง ให้เหยื่อทำบางอย่างโดยไม่ทันตรวจสอบว่าผู้โทรเข้าเป็นคนที่คิดไว้จริงหรือไม่

ระวัง มิจฉาชีพวันนี้ ล้ำไปอีกขั้น ใช้ AI ปลอมเสียงคนใกล้ชิด หลอกลวงเหยื่อ

ขณะที่อีกความเคลื่อนไหวจาก นางสาวฐิตินันท์ สุทธินราพรรณ ผู้อำนวยการฝ่ายการตลาดประจำภูมิภาคเอเชียตะวันออกเฉียงใต้ บริษัท Gogolook ได้เน้นความสำคัญของการป้องกัน การฉ้อโกงและความมุ่งมั่นในการให้ความปลอดภัยแก่ผู้ใช้บริการ Whoscall ในประเทศไทย กล่าวเสริมว่า

"เมื่อเทคโนโลยีการฉ้อโกงพัฒนา อย่างต่อเนื่อง ทาง Gogolook มุ่งมั่นที่จะสร้างชุมชน ป้องกันการฉ้อโกงและสร้างความปลอดภัยให้แก่ผู้ใช้บริการ Whoscall พร้อมกับ การร่วมมือกับ GASA เพื่อเสริมสร้าง การแลกเปลี่ยนข้อมูลระหว่างภูมิภาคและการร่วมมือทางเทคโนโลยี และสร้างสรรค์โซลูชันส์ป้องกันการฉ้อโกงระดับโลก เพื่อปกป้องผู้ใช้จากอันตรายที่กำลังเพิ่มขึ้นจากการหลอกลวงด้วยเทคโนโลยีเสียงหรือการหลอกลวง โดยใช้ Generative AI"

Gogolook กระตุ้นให้คนไทยป้องกันตัวเองจาก  AI ปลอมเสียง  โดยระวังสายโทรเข้าที่ไม่พึงประสงค์ ดังต่อไปนี้

  • แม้ว่าจะรู้สึกคุ้นเคยกับเสียงที่โทรเข้ามาก็ตาม สิ่งสำคัญคืออย่ารีบทำตามสิ่งที่ปลายสายเร่งให้ทำ ควรเช็ก ตัวตนที่แท้จริงของผู้โทร ให้แน่ใจก่อนที่จะให้ข้อมูลส่วนตัวหรือดำเนินการใดๆ
  • การที่จะช่วยยืนยันตัวตนของผู้โทรคือ ติดต่อกลับโดยใช้หมายเลขโทรศัพท์ที่เราเคยบันทึกไว้ โทรหาคนใกล้ ตัวเขาเพื่อเช็ก
  • ไม่ควรเปิดเผยข้อมูลที่ละเอียดอ่อนหรือข้อมูลทางการเงินจนกว่าจะระบุตัวตนของผู้โทรที่แท้จริง นอกจากนี้ การดาวน์โหลดแอป Whoscall เป็นอีกหนึ่งเครื่องมือเพื่อช่วยระบุหมายเลขโทรเข้าได้
  • ควรระมัดระวังหากมีการขอให้โอนเงินหรือขอความช่วยเหลือเร่งด่วน โดยเฉพาะหากเป็นวิธีชำระเงินที่ผิดปกติ ไม่โอนเงินไปหาบุคคลที่กล่าวถึงโดยตรง หรือ ผู้โทรพยายามกดดันให้ดำเนินการทันที

ระวัง มิจฉาชีพวันนี้ ล้ำไปอีกขั้น ใช้ AI ปลอมเสียงคนใกล้ชิด หลอกลวงเหยื่อ

ในฐานะสมาชิกผู้ก่อตั้ง Gogolook หวังว่าความร่วมมือกับ GASA จะช่วยส่งเสริมให้มีการแลกเปลี่ยนข้อมูลการหลอกลวง ในระดับภูมิภาคและวงการต่างๆ อีกทั้งยกระดับการป้องกันการฉ้อโกงระดับโลกและเชื่อมเครือข่ายชุมชนการป้องกัน การฉ้อโกงในภูมิภาคเอเชียและตะวันตกเข้าไว้ด้วยกัน

ลองนึกภาพคุณได้รับโทรศัพท์จากคนรู้จักเพื่อขอให้โอนเงินจำนวน 10,000 บาท เพื่อช่วยปิดบัญชีหนี้สิน คุณจะได้เรียนรู้ว่าสายที่ได้รับไม่ใช่คนรู้จัก แต่เป็นเสียงปลอมที่สร้างขึ้นโดยใช้ปัญญาประดิษฐ์หรือ AI  โทรมาหลอกเหยื่อว่าเป็นคนรู้จัก คนในครอบครัว หรือญาติพี่น้อง ที่กำลังเดือดร้อนจนต้องขอให้โอนเงินมาให้ซึ่งการหลอกลวงด้วย AI การโทรเลียนแบบเสียงที่คุ้นเคยเป็นปัญหาที่กำลังเพิ่มมากขึ้น จึงต้องระมัดระวังเเละต้องตามให้ทัน จะได้ไม่หลงกล และตกเป็นเหยื่อมิจฉาชีพ

หากย้อนกลับไปในต่างประเทศเมื่อช่วงกลางปีที่ผ่านมา คุณแม่คนหนึ่งในรัฐแอริโซนา สหรัฐอเมริกา ออกมาเตือนผู้คนเกี่ยวกับการหลอกลวงทางโทรศัพท์ที่น่าสะพรึงกลัว ซึ่งเกี่ยวข้องกับปัญญาประดิษฐ์ที่สามารถโคลนเสียงของคนในครอบครัวได้ 

เจนนิเฟอร์ เดสเตฟาโน ได้รับสายโทรศัพท์หมายเลขที่ไม่คุ้นเคย ปลายสายเป็นเสียงผู้ชายคนหนึ่งกำลังตะคอกใส่เด็กสาวที่มีน้ำเสียงหวาดกลัว เมื่อเธอตัดสินใจรับสายเพราะเป็นห่วงลูกสาว ปรากฎว่าปลายสายพูดบอกว่าได้จับตัวลูกสาวเธอไว้พร้อมกับเรียกค่าไถ่ 1 ล้านเหรียญสหรัฐ เเละลดลงมาเหลือที่ 5 หมื่นเหรียญสหรัฐ ขณะนั้นเธออยู่ในชั้นเรียนเต้นรำที่ลูกสาวอีกคน จึงร้องให้คนช่วยเหลือ เมื่อแจ้งสายด่วนตำรวจของสหรัฐฯ อีกหลายคนก็พยายามติดต่อสามีของเดสเตฟาโน  จนในที่สุดพบว่า ลูกสาววัย 15 ของเธอยังปลอดภัย แต่เสียงปลายสายที่ขอความช่วยเหลือเหมือนกับเสียงลูกสาวของเธอมาก 

นักวิชาการด้านวิทยาการคอมพิวเตอร์ที่มหาวิทยาลัยรัฐแอริโซนาที่เชี่ยวชาญด้าน AI กล่าวว่า เทคโนโลยีการโคลนเสียงกำลังพัฒนาอย่างรวดเร็ว เเละคุณไม่สามารถเชื่อหูของคุณได้อีกต่อไป

และนี่คือตัวอย่างกลโกงโดยคำอธิบายของ ธนาคารกรุงไทย 

1. มิจฉาชีพจะใช้เบอร์แปลกโทรเข้ามา ให้สังเกตเบอร์แปลกจะใช้เทคโนโลยี VOIP ซึ่งโทรจากต่างประเทศ โดยมักจะขึ้นต้นด้วย +697 +698 นำหน้า

2. มิจฉาชีพจะพูดจาข่มขู่ให้กลัว แจ้งว่าเราทำผิดกฎหมายบางอย่าง หลอกให้หลงกล กลัว และเชื่อใจ

3. เมื่อเหลงเชื่อ มิจฉาชีพจะหลอกให้โอนเงินให้ เพื่อจะช่วยตรวจสอบข้อมูล และหลอกว่าจะดำเนินการช่วยเหลื

ล่าสุด กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (DES) ได้เตือนว่าขณะนี้ กลุ่มมิจฉาชีพเริ่มใช้ AI ปลอมเสียง สร้างแชตปลอม และบรรดาคลิปปลอมขึ้นมามากมาย ด้านสำนักงานตำรวจแห่งชาติ แถลงข่าวเตือนมิจฉาชีพใช้วิธี “ปลอมเสียง”เป็นบุคคลอื่นเพื่อยืมเงิน  ซึ่งเป็นการพัฒนาวิธีการหลอกลวงของคนร้าย

อ้างอิงที่มาจาก

  • ฐานเศรษฐกิจ
  • They thought loved ones were calling for help. It was an AI scam.
  • ‘I’ve got your daughter’: Mom warns of terrifying AI voice cloning scam that faked kidnapping
  • Krungthai Care 
logoline