ภัยแก๊งคอลเซ็นเตอร์ รูปแบบใหม่ ใช้เทคโนโลยี “Deep Fake” ใช้ AI ใส่เสียงคนร้ายให้ภาพขยับปากตามเสียง ลวงโอนเงิน
พ.ต.อ.ศิริวัฒน์ ดีพอ รองโฆษกสำนักงานตำรวจแห่งชาติ กล่าวว่า ตามที่ พล.ต.อ.สุวัฒน์ แจ้งยอดสุข ผบ.ตร. มีนโยบายให้ สำนักงานตำรวจแห่งชาติ แจ้งเตือนและประชาสัมพันธ์ให้พี่น้องประชาชน รู้เท่าทันอาชญากรรมทางเทคโนโลยี และได้กำชับให้เจ้าหน้าที่ตำรวจดำเนินการจับกุมผู้กระทำผิดมาดำเนินคดีตามกฎหมายอย่างต่อเนื่องนั้น
ล่าสุด สำนักงานตำรวจแห่งชาติ ได้ตรวจสอบพบว่า แก๊งคอลเซ็นเตอร์ได้ปรับเปลี่ยนรูปแบบหลอกลวง จากเดิมที่นำคลิปวิดีโอจากการให้สัมภาษณ์ของเจ้าหน้าที่ตำรวจ ซึ่งสวมใส่หน้ากากอนามัย มาตัดต่อใส่เสียงของคนร้าย เพื่อทำการข่มขู่ผู้เสียหาย จนผู้เสียหายหลงเชื่อว่าเป็นเจ้าหน้าที่ตำรวจจริง และโอนเงินจำนวนมากให้กับคนร้ายนั้น
ปัจจุบัน คนร้ายได้ใช้เครื่องมือที่ทันสมัยมากขึ้นที่เรียกว่า Deepfake ซึ่งเป็นการใช้เทคโนโลยี Deep Learning ในการพัฒนา AI หรือ ระบบปัญญาประดิษฐ์ ให้สามารถตัดต่อคลิปวิดีโอหรือภาพถ่ายของบุคคลหนึ่ง ให้สามารถขยับปากตามเสียงของบุคคลอื่นได้
ทั้งนี้พบว่า มิจฉาชีพได้ใช้ประโยชน์เทคโนโลยีดังกล่าว มาตัดต่อคลิปหรือภาพของเจ้าหน้าที่ตำรวจ ให้พูดตามสิ่งที่คนร้ายพูด เพื่อเพิ่มความน่าเชื่อถือในการหลอกลวงทรัพย์สินจากพี่น้องประชาชน
ดังนั้น จึงขอแจ้งพี่น้องประชาชนว่า สำนักงานตำรวจแห่งชาติไม่มีนโยบาย ให้เจ้าหน้าที่ติดต่อทางคดีกับผู้เสียหาย ผู้ต้องหา หรือผู้ต้องสงสัย ผ่านทางระบบวิดีโอคอล และไม่มีนโยบายให้โอนเงินมาให้เจ้าหน้าที่เพื่อตรวจสอบเป็นอันขาด
หากประชาชนพบว่า มีบุคคลใดแอบอ้างเป็นเจ้าหน้าที่ตำรวจวิดีโอคอลไปหาท่าน หรือขอให้โอนเงินไปให้เจ้าหน้าที่ตรวจสอบ ให้สันนิษฐานได้ทันทีว่าเป็นมิจฉาชีพ ให้วางสายสนทนาทันที และกรุณาแจ้งเบาะแสไปยังสายด่วน 191 หรือ สายด่วนสำนักงานตำรวจแห่งชาติ 1599 ได้ตลอด 24 ชั่วโมง
อ่านข่าวเพิ่มเติม
- ตำรวจ บอกวิธีเช็คเบอร์โทรมิจฉาชีพ ป้องกันแก๊ง คอลเซ็นเตอร์ อ่านด่วน!!
- ‘โอ๊ต ปราโมทย์’ ลั่นเจอกันครับ! หลังทีมงานถูกตำรวจมิจฉาชีพหลอกโอนเงินซื้อโทรศัพท์
- ระวัง!!โทรศัพท์หลอกลวงช่วงโควิดพุ่งสูง 7 เดือน Whoscall ตรวจจับได้ 1.8 ล้านสาย