AI Deepfake” เทคโนโลยีสุดล้ำที่มิจฉาชีพนำมาใช้หลอกลวงจนหลายคนหมดตัว!
จากข่าวในรายการ #โหนกระแส และหลายๆ เคสที่ผ่านมา มิจฉาชีพใช้ AI สร้างภาพและเสียงปลอมได้เนียนจนเหมือนคนจริงๆ ทั้งหน้าตาและน้ำเสียง! 😱
🔥 กลโกงสุดอันตรายที่ต้องระวัง!
1. ปลอมเป็นคนรู้จัก/คนดัง: 🎭 สร้างวิดีโอคอลปลอมเป็นเพื่อน, ผู้บริหาร, หรือแม้แต่ดารา/นักลงทุนชื่อดัง เพื่อชวนลงทุนหรือขอความช่วยเหลือ
2. หลอกลงทุนสุดหวือหวา: 📈 ชักชวนให้ลงทุนในแพลตฟอร์มปลอมๆ อ้างผลตอบแทนสูงลิบลิ่วในเวลาอันสั้น (เช่น คริปโตปลอม)
3. Romance Scam (หลอกรัก): 💖 ใช้ Deepfake สร้างตัวตนปลอมเป็นคนหน้าตาดี หรือคนในฝัน เข้ามาตีสนิท หลอกให้หลงรัก ก่อนจะขอเงิน อ้างว่าเดือดร้อน (มีเคสถึงกับโดนหลอกเป็นแบรด พิตต์ สูญ 30 ล้านบาท!)💡
สังเกตให้ดี! อย่าให้ตกเป็นเหยื่อ!
นี่คือสัญญาณเตือนที่ต้องจับตามอง:
👄 ปากไม่ตรงกับเสียง: สังเกตการขยับริมฝีปากในวิดีโอคอล อาจไม่ตรงกับเสียงที่ได้ยิน
👁️ แววตา/ใบหน้าผิดปกติ: ใบหน้าดูแข็งๆ ทื่อๆ แววตาไม่เป็นธรรมชาติ หรือการกระพริบตาผิดแปลกไป
🔊 คุณภาพเสียงแปลกๆ: เสียงอาจมีคลื่นรบกวน, ขาดๆ หายๆ หรือโทนเสียงไม่สม่ำเสมอ
💰 ข้อเสนอเกินจริง: หากใครชวนลงทุนที่ได้กำไรเร็วเกินไป ง่ายเกินไป ให้สงสัยไว้ก่อนเลย!
✅ ป้องกันตัวเองง่ายๆ
:อย่าเชื่อใจแค่ภาพ/เสียง
: 🧐 หากมีการวิดีโอคอลแปลกๆ ให้พยายามติดต่อกลับด้วยช่องทางที่เคยคุยกัน หรือช่องทางทางการที่น่าเชื่อถือตรวจสอบข้อมูล
: 🔍 ค้นหาข้อมูลเกี่ยวกับบุคคลหรือแพลตฟอร์มที่ถูกกล่าวถึงให้รอบคอบปรึกษาคนใกล้ชิด
: 👨👩👧👦 เล่าให้ครอบครัวหรือเพื่อนฟังก่อนตัดสินใจ ไม่ว่าเรื่องนั้นจะดูเป็นความลับแค่ไหนติดตั้งแอปป้องกัน
: 📱 ใช้ซอฟต์แวร์ป้องกันสแปมหรือแอปตรวจสอบเบอร์โทรศัพท์ที่ไม่รู้จักจำไว้ว่า “Depiction is not Endorsement” ภาพที่เห็นอาจไม่ใช่เรื่องจริงเสมอไป!ภัยไซเบอร์มีอยู่รอบตัวเราครับ! การรู้เท่าทันและระมัดระวังคือเกราะป้องกันที่ดีที่สุด!
https://www.facebook.com/share/v/1CKAHgUagB/