
5 มีนาคม 2568 เพจเฟซบุ๊ก ตำรวจไซเบอร์ – บช.สอท. โพสต์ภาพพร้อมข้อความเตือนภัย ระบุว่า ระวัง! AI กับมิจฉาชีพ อาจทำให้คุณหลงเชื่อ แม้จะเป็นวีดีโอคอลก็อย่าไว้ใจ!
AI ปลอมใบหน้า (Deepfake) คือ เทคโนโลยีที่ใช้ปัญญาประดิษฐ์ในการสร้างหรือแก้ไขใบหน้าผู้คนในภาพหรือวีดีโอให้เหมือนจริง ซึ่งมิจฉาชีพอาจนำเทคโนโลยีนี้มาหลอกลวงผู้คนโดยการสร้างวีดีโอปลอมของบุคคลที่มีชื่อเสียงหรือคนรู้จัก เพื่อขอข้อมูลส่วนตัวหรือเงินจากผู้ที่ถูกหลอก
ดังนั้น อย่าเชื่อทุกอย่างที่เห็นในวิดีโอ การตัดต่อและเทคโนโลยี AI สามารถสร้างภาพหรือเสียงที่ดูเหมือนจริงได้ หากมีข้อสงสัย ให้หยุดและตรวจสอบข้อมูลเพิ่มเติม
วิธีสังเกตและป้องกันภัยจากมิจฉาชีพที่ใช้ AI และเทคโนโลยีหลอกลวง:
1. ระวังการขอข้อมูลส่วนตัว
2. ตรวจสอบแหล่งที่มา
3. อย่ารีบทำธุรกรรมทางการเงิน
4. ใช้การยืนยันตัวตนแบบสองขั้นตอน
5. เรียนรู้เกี่ยวกับเทคโนโลยี AI
การระมัดระวังและไม่เชื่อถือข้อมูลจากแหล่งที่ไม่คุ้นเคยเป็นวิธีที่ดีที่สุดในการป้องกันตัวจากมิจฉาชีพ
ขอบคุณข้อมูลจาก : เพจ ตำรวจไซเบอร์ – บช.สอท.
ขอบคุณภาพจาก : freepik