General

ระวัง!! มิจฉาชีพใช้ AI DEEPFAKE สร้างคลิปปลอม หลอกให้โอนเงิน

ตำรวจไซเบอร์ เตือนภัย มิจฉาชีพใช้ AI DEEPFAKE สร้างคลิปวิดิโอปลอม หลอกให้เหยื่อหลงเชื่อ โอนเงินลงทุนออนไลน์สารพัดรูปแบบ พร้อมแนะ 4 วิธีป้องกันคลิปปลอม

กองบัญชาการตำรวจสืบสวนสอบสวนอาชญากรรมทางเทคโนโลยี (บช.สอท.) โพสต์เพจเฟซบุ๊ก ตำรวจไซเบอร์-บช.สอท. ระบุว่า ตำรวจไซเบอร์เตือนภัย มิจฉาชีพใช้ AI DEEPFAKE หลอกให้โอนเงิน

คลิปปลอม

มิจฉาชีพจะนำภาพใบหน้าของนักลงทุนหรือคนมีชื่อเสียง แล้วใช้ AI หรือปัญญาประดิษฐ์ สร้างคลิปวิดิโอปลอมขึ้นมา โดยภาพจะสามารถขยับปากพูดได้คล้ายกับผู้ที่ถูกแอบอ้าง จึงทำให้เหยื่อหลงเชื่อ หลังจากนั้นก็ชักชวนให้เหยื่อลงทุนออนไลน์ในรูปแบบต่าง ๆ

วิธีป้องกันคลิปปลอมที่สร้างจาก AI

  • สังเกตการพูด

ดูการขยับริมฝีปาก ถ้าเป็นคลิปที่สร้างจาก AI Deepfake การขยับริมฝีปากจะไม่สัมพันธ์กับเสียงพูดหรือใบหน้าส่วนอื่น และมีความเบลอของภาพ

  • สังเกตเนื้อหาของคลิป

มักมีเนื้อหาในการพูดที่แตกต่างไปจากแนวทางเดิม และนำเสนอถึงผลกำไรที่สูงเกินจริง เน้นการชักชวนให้ลงทุน ชักชวนสมัครสมาชิก ให้เราเริ่มเอ๊ะไว้ก่อนเลยว่า อาจจะเป็นมิจฉาชีพ

ai

  • สังเกตองค์ประกอบของภาพ

ในบางครั้งการสร้าง AI DEEPFAKE ก็ยังไม่แนบเนียนมาก ความสมดุลของใบหน้าอาจจะยาวผิดรูปกว่าปกติ การหันหน้าซ้าย-ขวาอาจดูไม่เป็นธรรมชาติ

  • ตั้งสติทุกครั้งก่อนหลงเชื่อ

ถ้ามีการยื่นข้อเสนอที่สูงเกินจริง ให้ตั้งสติไว้ก่อนอย่าพึ่งหลงเชื่อเด็ดขาด เพราะในปัจจุบันมิจฯมีหลายหลายรูปแบบ และอย่าโอนเงินให้ผู้อื่นโดยง่ายต้องตรวจสอบอย่างละเอียดรอบคอบ

หากพี่น้องประชาชนท่านใดตกเป็นเหยื่อโจรออนไลน์ สามารถแจ้งความผ่านระบบรับแจ้งความออนไลน์ (เฉพาะคดีอาชญากรรมทางเทคโนโลยี) ที่เว็บไซต์นี้เท่านั้น www.thaipoliceonline.go.th หรือหากมีข้อสงสัยสามารถโทรปรึกษาสายด่วน 1441 ได้ตลอด 24 ชั่วโมง

อ่านข่าวเพิ่มเติม

ติดตามเราได้ที่

Avatar photo