นับวันการหลอกลวงในทั่วโลกจะทวีความรุนแรงมากขึ้น อ้างอิงชุดข้อมูลที่น่าสนใจจาก รายงานการหลอกลวงทั่วโลกปี 2566 ของ GASA พบว่า มีการฉ้อโกง ทั่วโลกเพิ่มขึ้น 10.2% เมื่อเทียบกับปีที่แล้ว (2566) เกิดความสูญเสียทางการเงินสูงถึง 55,000 ล้านดอลลาร์สหรัฐ
ในขณะที่ Generative AI (เช่น ChatGPT และ DeepFake เป็นต้น) ถูกพัฒนาอย่างรวดเร็วและถูกนำไปใช้หลอกลวงในหลายพื้นที่ ในอนาคต การหลอกลวงจะพัฒนาต่อไปอย่างรวดเร็ว โดยมีค่าใช้จ่ายในการดำเนินการลดลง เมื่อรวมกับการรั่วไหลของข้อมูลส่วนบุคคลในหลายๆ เคส ภาครัฐและเอกชนจำจึงเป็นต้องลงทุนและร่วมกันวางกลยุทธ์เพื่อป้องกันภัยจากการฉ้อโกงที่เกิดขึ้น
ความเสียหายการหลอกลวงโดยใช้ AI ปลอมเสียงเพิ่มขึ้นทั่วโลก
เนื่องจากในปัจจุบันนี้ กลุ่มมิจฉาชีพ เริ่มพัฒนามาใช้ เทคโนโลยีปัญญาประดิษฐ์ เพื่อเลียนแบบเสียง "คนคุ้นเคย" เพื่อน หรือ สมาชิกครอบครัว เพื่อทำให้เหยื่อเชื่อใจและหลงกลได้ง่ายขึ้น มิจฉาชีพใช้เทคโนโลยีโคลนนิ่ง เพื่อวิเคราะห์เสียงที่ถูกบันทึกไว้ หรือเสียงที่ได้จากออนไลน์เพื่อสร้างเสียงสังเคราะห์ที่ใกล้เคียง กับเสียงบุคคลเป้าหมาย
ดังนั้น เมื่อทำสำเร็จก็จะโทรหาเหยื่อ เพื่อปลอมเป็นคนใกล้ชิดหรือ หลอกลวงว่าเป็นสมาชิกในครอบครัว เครือญาติ สำหรับกรณีเคสที่พบบ่อยครั้ง มิจฉาชีพผู้โทรมักจะแอบอ้างว่า กำลังอยู่ในสถานการณ์ฉุกเฉิน เช่น เกิดอุบัติเหตุ ต้องการให้โอนเงินช่วยเหลือโดยด่วน หรือมีปัญหาทางกฎหมาย เพื่อบีบคั้นและเร่ง ให้เหยื่อทำบางอย่างโดยไม่ทันตรวจสอบว่าผู้โทรเข้าเป็นคนที่คิดไว้จริงหรือไม่
ขณะที่อีกความเคลื่อนไหวจาก นางสาวฐิตินันท์ สุทธินราพรรณ ผู้อำนวยการฝ่ายการตลาดประจำภูมิภาคเอเชียตะวันออกเฉียงใต้ บริษัท Gogolook ได้เน้นความสำคัญของการป้องกัน การฉ้อโกงและความมุ่งมั่นในการให้ความปลอดภัยแก่ผู้ใช้บริการ Whoscall ในประเทศไทย กล่าวเสริมว่า
"เมื่อเทคโนโลยีการฉ้อโกงพัฒนา อย่างต่อเนื่อง ทาง Gogolook มุ่งมั่นที่จะสร้างชุมชน ป้องกันการฉ้อโกงและสร้างความปลอดภัยให้แก่ผู้ใช้บริการ Whoscall พร้อมกับ การร่วมมือกับ GASA เพื่อเสริมสร้าง การแลกเปลี่ยนข้อมูลระหว่างภูมิภาคและการร่วมมือทางเทคโนโลยี และสร้างสรรค์โซลูชันส์ป้องกันการฉ้อโกงระดับโลก เพื่อปกป้องผู้ใช้จากอันตรายที่กำลังเพิ่มขึ้นจากการหลอกลวงด้วยเทคโนโลยีเสียงหรือการหลอกลวง โดยใช้ Generative AI"
Gogolook กระตุ้นให้คนไทยป้องกันตัวเองจาก AI ปลอมเสียง โดยระวังสายโทรเข้าที่ไม่พึงประสงค์ ดังต่อไปนี้
ในฐานะสมาชิกผู้ก่อตั้ง Gogolook หวังว่าความร่วมมือกับ GASA จะช่วยส่งเสริมให้มีการแลกเปลี่ยนข้อมูลการหลอกลวง ในระดับภูมิภาคและวงการต่างๆ อีกทั้งยกระดับการป้องกันการฉ้อโกงระดับโลกและเชื่อมเครือข่ายชุมชนการป้องกัน การฉ้อโกงในภูมิภาคเอเชียและตะวันตกเข้าไว้ด้วยกัน
ลองนึกภาพคุณได้รับโทรศัพท์จากคนรู้จักเพื่อขอให้โอนเงินจำนวน 10,000 บาท เพื่อช่วยปิดบัญชีหนี้สิน คุณจะได้เรียนรู้ว่าสายที่ได้รับไม่ใช่คนรู้จัก แต่เป็นเสียงปลอมที่สร้างขึ้นโดยใช้ปัญญาประดิษฐ์หรือ AI โทรมาหลอกเหยื่อว่าเป็นคนรู้จัก คนในครอบครัว หรือญาติพี่น้อง ที่กำลังเดือดร้อนจนต้องขอให้โอนเงินมาให้ซึ่งการหลอกลวงด้วย AI การโทรเลียนแบบเสียงที่คุ้นเคยเป็นปัญหาที่กำลังเพิ่มมากขึ้น จึงต้องระมัดระวังเเละต้องตามให้ทัน จะได้ไม่หลงกล และตกเป็นเหยื่อมิจฉาชีพ
หากย้อนกลับไปในต่างประเทศเมื่อช่วงกลางปีที่ผ่านมา คุณแม่คนหนึ่งในรัฐแอริโซนา สหรัฐอเมริกา ออกมาเตือนผู้คนเกี่ยวกับการหลอกลวงทางโทรศัพท์ที่น่าสะพรึงกลัว ซึ่งเกี่ยวข้องกับปัญญาประดิษฐ์ที่สามารถโคลนเสียงของคนในครอบครัวได้
เจนนิเฟอร์ เดสเตฟาโน ได้รับสายโทรศัพท์หมายเลขที่ไม่คุ้นเคย ปลายสายเป็นเสียงผู้ชายคนหนึ่งกำลังตะคอกใส่เด็กสาวที่มีน้ำเสียงหวาดกลัว เมื่อเธอตัดสินใจรับสายเพราะเป็นห่วงลูกสาว ปรากฎว่าปลายสายพูดบอกว่าได้จับตัวลูกสาวเธอไว้พร้อมกับเรียกค่าไถ่ 1 ล้านเหรียญสหรัฐ เเละลดลงมาเหลือที่ 5 หมื่นเหรียญสหรัฐ ขณะนั้นเธออยู่ในชั้นเรียนเต้นรำที่ลูกสาวอีกคน จึงร้องให้คนช่วยเหลือ เมื่อแจ้งสายด่วนตำรวจของสหรัฐฯ อีกหลายคนก็พยายามติดต่อสามีของเดสเตฟาโน จนในที่สุดพบว่า ลูกสาววัย 15 ของเธอยังปลอดภัย แต่เสียงปลายสายที่ขอความช่วยเหลือเหมือนกับเสียงลูกสาวของเธอมาก
นักวิชาการด้านวิทยาการคอมพิวเตอร์ที่มหาวิทยาลัยรัฐแอริโซนาที่เชี่ยวชาญด้าน AI กล่าวว่า เทคโนโลยีการโคลนเสียงกำลังพัฒนาอย่างรวดเร็ว เเละคุณไม่สามารถเชื่อหูของคุณได้อีกต่อไป
และนี่คือตัวอย่างกลโกงโดยคำอธิบายของ ธนาคารกรุงไทย
1. มิจฉาชีพจะใช้เบอร์แปลกโทรเข้ามา ให้สังเกตเบอร์แปลกจะใช้เทคโนโลยี VOIP ซึ่งโทรจากต่างประเทศ โดยมักจะขึ้นต้นด้วย +697 +698 นำหน้า
2. มิจฉาชีพจะพูดจาข่มขู่ให้กลัว แจ้งว่าเราทำผิดกฎหมายบางอย่าง หลอกให้หลงกล กลัว และเชื่อใจ
3. เมื่อเหลงเชื่อ มิจฉาชีพจะหลอกให้โอนเงินให้ เพื่อจะช่วยตรวจสอบข้อมูล และหลอกว่าจะดำเนินการช่วยเหลื
ล่าสุด กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (DES) ได้เตือนว่าขณะนี้ กลุ่มมิจฉาชีพเริ่มใช้ AI ปลอมเสียง สร้างแชตปลอม และบรรดาคลิปปลอมขึ้นมามากมาย ด้านสำนักงานตำรวจแห่งชาติ แถลงข่าวเตือนมิจฉาชีพใช้วิธี “ปลอมเสียง”เป็นบุคคลอื่นเพื่อยืมเงิน ซึ่งเป็นการพัฒนาวิธีการหลอกลวงของคนร้าย
อ้างอิงที่มาจาก