บทความ

บทความของไดนามิค เปย์เม้นท์

ภัยทุจริตทางการเงินยุค AI รับมืออย่างไรไม่ให้ตกเป็นเหยื่อ

Fraud in AI era

ในช่วงไม่กี่ปีที่ผ่านมา เราอาจได้ยินข่าวความเสียหายจากภัยทุจริตทางการเงินมากขึ้น และรูปแบบในการเข้าหาเหยื่อก็เปลี่ยนแปลงไปอย่างรวดเร็ว จากเดิมอาจอาศัยเพียงคำพูดหว่านล้อมหรือเรื่องเล่าปลุกความกลัว แต่ตอนนี้เทคโนโลยีได้เข้ามาเป็นเครื่องมือที่ทำให้การหลอกลวงแนบเนียนและน่าเชื่อถือมากกว่าเดิม

เทคโนโลยีอย่างปัญญาประดิษฐ์ (Artificial Intelligence: AI) ไม่ได้เข้ามามีบทบาทแค่ในแง่การพัฒนาในด้านต่าง ๆ เท่านั้น แต่ยังถูกนำไปใช้ในทางที่ผิดและสร้างความเสียหายให้กับเหยื่อที่หลงเชื่อ ทั้งการใช้ให้AI สร้างภาพปลอม เสียงปลอม และตัวตนปลอมที่สมจริงจนยากที่จะมองออกการหลอกลวงในยุค AI แบบนี้จึงไม่ใช่เพียงเสียงโทรศัพท์จากคนแปลกหน้าอีกต่อไป แต่อาจเป็นวิดีโอคอลจากคนที่มีใบหน้าและเสียงที่คุ้นเคย เป็นตัวปลอมที่ AI สร้างขึ้นอย่างแนบเนียนจนแยกไม่ออก

เมื่อเทคโนโลยีสร้างความน่าเชื่อถือแบบปลอม ๆ ขึ้นมาได้ง่ายดาย มิจฉาชีพจะไม่ยอมทิ้งโอกาสการใช้ AI เป็นเครื่องมือแน่นอน คำถามสำคัญจึงไม่ใช่ AI จะพัฒนาไปไกลแค่ไหน แต่คือเราจะเตรียมรับมืออย่างไรเพื่อไม่ให้ตกเป็นเหยื่อในโลกที่แทบแยกคนคุ้นเคยออกจากภัยทางการเงินไม่ได้

Deepfake, Voice Cloning: เมื่อภาพที่เห็นและเสียงที่ได้ยิน อาจไม่ใช่คนจริง เสียงจริงอีกต่อไป

ในอดีต สิ่งที่เห็นกับตาและได้ยินกับหู คือหลักฐานยืนยันตัวตนที่น่าเชื่อถือที่สุด แต่ในยุคของ AI ทุกอย่างกลับไม่เป็นเช่นนั้น ทุกวันนี้เรากำลังเผชิญความท้าทายใหม่จากDeepfake คือเทคโนโลยี AI ที่สามารถสร้าง ดัดแปลง หรือเลียนแบบใบหน้าและเสียงของบุคคลออกมาได้เสมือนจริงโดยอาศัยข้อมูลจากภาพถ่ายและคลิปเสียงเพียงไม่กี่วินาทีก็สร้าง “ตัวปลอม” ขึ้นมาได้ มิจฉาชีพเริ่มใช้ Deepfake เป็นอาวุธในการปลอมแปลงตัวตน และใช้ “ความไว้วางใจ” ก่อภัยทุจริตทางการเงินและสร้างความเสียหายเป็นวงกว้างไปทั่วโลก

ข่าวโด่งดังเมื่อเดือนมกราคม ปี 2567 เมื่อพนักงานฝ่ายการเงินของบริษัทข้ามชาติแห่งหนึ่งในประเทศฮ่องกง1ถูกหลอกให้โอนเงินกว่า 25 ล้านดอลลาร์สหรัฐให้กับกลุ่มมิจฉาชีพที่ใช้ Deepfake แอบอ้างเป็นประธานเจ้าหน้าที่ฝ่ายการเงิน (CFO) ของบริษัท โดยพนักงานให้ข้อมูลว่า เมื่อได้ประชุมออนไลน์ก็เชื่อสนิทใจ เพราะหน้าตาและเสียงของทุกคนเหมือนจริงมาก แม้ไม่มีคนจริง ๆ ในการประชุมนั้นเลย โดยตำรวจฮ่องกงชี้แจงว่า การหลอกลวงนี้ใช้ Deepfake จาก AI กว่า 20 ครั้ง เลียนแบบบุคคลในรูปภาพบนบัตรประจำตัวประชาชนที่ได้ขโมยมา

ต่อมาในปี 2568 ที่ประเทศสิงคโปร์2ก็เกิดเหตุการณ์คล้าย ๆ กันขึ้น โดยมิจฉาชีพแอบอ้างเป็น CFO ของบริษัทข้ามชาติ และจัดการประชุมออนไลน์โดยใช้ Deepfake ปลอมแปลงน้ำเสียง ใบหน้า และการเคลื่อนไหวอย่างแนบเนียน ทำให้ผู้อำนวยการฝ่ายการเงินสั่งอนุมัติโอนเงินจำนวน 499,000 ดอลลาร์สหรัฐ ด้านตำรวจสิงคโปร์ให้ข้อมูลว่า เหตุการณ์นี้เป็นหนึ่งในกรณี Deepfake ที่น่าเชื่อถือที่สุดเท่าที่เคยเจอมา และได้ประกาศคำเตือนระดับชาติไปยังบริษัทและผู้เชี่ยวชาญด้านการเงินทั่วประเทศ

นอกจากนี้ ยังมีความเสียหายจากการสังเคราะห์เสียง (Voice Cloning) ที่เกิดขึ้นแล้วทั่วโลกรวมทั้งในไทยด้วย มิจฉาชีพจะใช้ AI เลียนแบบให้สมจริง ทั้งน้ำหนักเสียง วิธีพูด และจังหวะการหายใจโดยใช้เพียงตัวอย่างเสียงสั้น ๆ ของคนใกล้ชิดเหยื่อเท่านั้น การหลอกลวงรูปแบบนี้มักใช้สถานการณ์เร่งด่วน เช่น ประสบอุบัติเหตุ ถูกควบคุมตัว หรือเรื่องฉุกเฉินอื่น ๆ เพื่อกดดันให้เหยื่อตัดสินใจโอนเงินโดยไม่ทันตรวจสอบให้ดีก่อน เมื่อเสียงที่ได้ยินเป็นของลูก หลาน คู่สมรส หรือคนสนิท ความน่าสงสัยก็ยิ่งลดลงไปอีก

1https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk

The CEO Wasn't Real: Inside Singapore's $499K Deepfake Video Scam

Deepfake vs Voice cloning

วิธีสังเกตเบื้องต้น เพื่อไม่ให้ตกเป็นเหยื่อ Deepfake และ Voice Cloning

ในยุคที่ภาพและเสียงถูกสร้างขึ้นผ่าน AI ได้อย่างแนบเนียน การป้องกันตัวเองจึงไม่อาจใช้แค่ “ความรู้สึกคุ้นเคย” เพียงอย่างเดียว แต่ต้อง “เอ๊ะ” และสังเกตมากขึ้น โดยแนวทางในการสังเกตและรับมือเบื้องต้นเมื่อไม่แน่ใจว่านี่คือคนที่เรารู้จักจริง ๆ หรือเป็นมิจฉาชีพที่ใช้ Deepfake หรือ Voice Cloning มีดังนี้

1. สังเกตรายละเอียดเล็ก ๆ ในภาพวิดีโอเช่น ความสัมพันธ์ระหว่างการขยับปากกับเสียงที่พูดออกมา ความเป็นธรรมชาติของสีหน้า แววตา การกะพริบตา ใบหน้ามีแสง เงา และขอบใบหน้า หรือขอบเสื้อผ้าไม่แหว่งหรือดูลอย ในช่วงที่มีการเคลื่อนไหวมาก สัญญาณภาพมักจะกระตุก และเสียงที่ได้ยินกับบรรยากาศโดยรอบควรสอดคล้องกัน ไม่คมชัดจนเกินไปเหมือนกับเสียงที่อัดจากสตูดิโอ

2. สังเกตความรู้สึกในเสียงเช่น จังหวะการพูด การหายใจ น้ำหนักเสียงต้องดูเป็นธรรมชาติ และอารมณ์กับเนื้อหาที่กำลังพูดควรสอดคล้องกัน ไม่ดูไร้อารมณ์และความรู้สึก

3. สังเกตคำสำคัญที่มิจฉาชีพมักจะใช้เช่น โอนเงินให้ด่วน อย่าบอกใคร ห้ามวางสาย ถ้ามีคำเหล่านี้เกิดขึ้นระหว่างบทสนทนา ให้สงสัยก่อนเลยว่าเป็นมิจฉาชีพ

4. ตรวจสอบเพิ่มเติมเช่น โทรกลับไปยังเบอร์ที่บันทึกไว้ หรือช่องทางการติดต่อส่วนตัวที่เคยใช้ติดต่อกันก่อนหน้า สอบถามข้อมูลส่วนตัวที่รู้กันแค่คนใกล้ชิดเท่านั้น เช็กเลขบัญชีที่ให้โอนชื่อต้องตรงกับคนที่โทรมา และหากมิจฉาชีพอ้างตัวเป็นเจ้าหน้าที่จากหน่วยงานต่าง ๆ ให้โทรเช็กกับหน่วยงานที่แอบอ้างว่าเป็นเรื่องจริงหรือไม่

ทั้ง 4 วิธีข้างต้นนี้ จะช่วยให้เรามีสติและแยกแยะได้ดีขึ้นว่าอีกฝ่ายคือคนจริง ๆ หรือเป็นกลลวงจากมิจฉาชีพ และอย่าลืมว่าทุกครั้งก่อนโอนเงินควรตรวจสอบให้รอบคอบเสมอเพื่อป้องกันไม่ให้ความรีบร้อนกลายเป็นความเสียหายทางการเงิน

Deepfake vs Voice Cloning

Social Media Bot: เมื่อความน่าเชื่อถือทางออนไลน์ หลอกเหยื่อได้ครั้งละหลายคน

หากDeepfake เป็นเหมือน “หน้ากาก” Social Media Bot ก็เปรียบเสมือน “กองทัพ” ที่ใส่หน้ากากเหล่านั้นเข้าไปหาเหยื่อ เพราะ “บอต” (bot) เป็นโปรแกรมอัตโนมัติที่ถูกนำมาใช้ทำงานบนแพลตฟอร์มโซเชียลมีเดีย เพื่อเลียนแบบพฤติกรรมของคน เช่น โพสต์ข้อความ กดไลก์ คอมเมนต์ ส่งข้อความส่วนตัว รวมถึงสามารถโต้ตอบบทสนทนาได้ทันที (real time) โดยมิจฉาชีพมักนำบอตมาใช้หลากหลายรูปแบบ เพื่อก่อภัยทุจริตทางการเงิน ซึ่งเกิดขึ้นแล้วทั่วโลก แม้ในไทยอาจจะยังไม่ได้แพร่หลายมากนัก เช่น

1. Mass Social Engineering: เมื่อบอตเข้าใจ “อารมณ์” มนุษย์

Mass Social Engineering คือ การใช้จิตวิทยาและความเร่งด่วนในการก่อภัยทุจริตทางการเงินเป็นวงกว้างโดยบอตสมัยใหม่ไม่ใช่แค่โปรแกรมตอบข้อความอัตโนมัติอีกต่อไป แต่ได้พัฒนาไปสู่ “Emotionally Intelligent Chatbots” ที่สามารถสนทนา โต้ตอบ สร้างความสัมพันธ์ และความผูกพันทางอารมณ์กับเหยื่อได้อย่างต่อเนื่อง ส่วนใหญ่จะใช้เพื่อหลอกให้รักก่อนให้โอนเงิน (Romance Scams) และอีกวัตถุประสงค์คือ หลอกให้ลงทุน (Investment Scams) โดยจะใช้เวลาสร้างความไว้ใจ ก่อนชักชวนให้ลงทุนต่อไปสิ่งที่น่ากังวลคือ มิจฉาชีพหนึ่งคนสามารถใช้ AI สร้างบทสนทนากับเหยื่อหลายคนได้ในเวลาเดียวกัน ดังนั้น การหลอกลวงจึงเพิ่มขึ้นแบบทวีคูณโดยไม่ต้องเพิ่มจำนวนมิจฉาชีพ

2. Fake Social Proof: ความน่าเชื่อถือที่ถูกจัดฉาก

Fake Social Proof คือ การสร้างหลักฐานทางสังคมเพื่อจูงใจให้เชื่อว่ามีตัวตนจริงและมีความน่าเชื่อถือสูงโดยจะใช้บอตสร้างประวัติปลอม เช่น จำนวนเพื่อน ผู้ติดตาม คอมเมนต์ ยอดไลก์ และโพสต์ พบบ่อยในกลุ่มมิจฉาชีพที่หลอกให้ลงทุน มักจะพบหน้าม้าจำนวนมากรีวิวว่าลงทุนที่นี่ได้กำไรจริง ร่วมกันสร้างบรรยากาศและยืนยันความน่าเชื่อถือ เมื่อเหยื่อเห็น “เสียงส่วนใหญ่” สนับสนุน จึงลดระดับความระมัดระวังลงโดยไม่รู้ตัว แต่ทั้งหมดกลับเป็นเพียงเครือข่ายบอตที่ควบคุมจากศูนย์กลางเดียวกันเพื่อหลอกลวงเหยื่อ

3. Automated Reconnaissance: เมื่อข้อมูลส่วนตัว กลายเป็นวัตถุดิบ

Automated Reconnaissance คือ กระบวนการสอดแนมและรวบรวมข้อมูลกลุ่มเป้าหมายที่มิจฉาชีพต้องการจะโจมตีโดยใช้บอตทำหน้าที่ “Scraping” คือเข้าไปสอดแนมและรวบรวมข้อมูลส่วนตัวจำนวนมหาศาลแบบอัตโนมัติ เพียงไม่กี่นาทีบอตจะส่งข้อมูลกลับมาว่าแพลตฟอร์มไหนบ้างที่มีช่องโหว่ เพื่อส่งต่อให้มิจฉาชีพนำไปออกแบบแผนการหลอกลวงเฉพาะบุคคลได้

ในปี 2021 มีรายงานว่าข้อมูลผู้ใช้งาน LinkedIn กว่า 700 ล้านรายที่รวบรวมด้วยAutomated Scraping ถูกนำมาประกาศขาย3โปรแกรมอัตโนมัติดังกล่าวเข้าไปสอดส่องโปรไฟล์ที่ถูกตั้งค่าไว้เป็นสาธารณะแล้วดึงชื่อ ตำแหน่งงาน อีเมล และประวัติการทำงานออกมาเก็บไว้ แม้ทาง LinkedIn จะออกมายืนยันว่ามีเฉพาะข้อมูลของผู้ที่ตั้งค่าเป็นสาธารณะเท่านั้น ทุกคนสามารถเข้าไปอ่านได้อยู่แล้ว แม้ scraping จะพบได้ในข้อมูลทางการตลาด เช่น พฤติกรรมผู้บริโภค หรือกลุ่มลูกค้า แต่การรวบรวม “ข้อมูลส่วนตัว” ถึง 700 ล้านรายก็ทำให้ผู้ใช้งานกังวลใจไม่น้อย เพราะข้อมูลเหล่านี้อาจเป็นจุดเริ่มต้นให้มิจฉาชีพทำทุจริตในชื่อของตนต่อไป

จะเห็นได้ว่าAI ไม่ใช่แค่ช่วยทำให้ “คุณภาพ” ของการหลอกลวงแนบเนียนขึ้นเท่านั้น แต่ยังเพิ่ม “ปริมาณ” การหลอกลวงด้วยเพราะสามารถใช้สแกนหาคนที่คาดว่าจะตกเป็นเหยื่อได้ทีละหลาย(ล้าน)ราย ทำให้เกิดการขยายขอบเขตการโจมตีเหยื่อได้กว้างกว่าเดิมอีกหลายเท่า

3www.forbes.com/sites/leemathews/2021/06/29/details-on-700-million-linkedin-users-for-sale-on-notorious-hacking-forum/

Social media bot

วิธีสังเกตเบื้องต้น เพื่อไม่ให้ตกเป็นเหยื่อ Social Media Bot

ขณะที่โพรไฟล์บนโลกออนไลน์ดูดีและสมจริง เรื่องราวบนหน้าจอกลับไม่ได้สะท้อนความเป็นจริงเสมอไป เพื่อไม่ให้ตกเป็นเหยื่อ เราสามารถสังเกตเบื้องต้น ได้ดังนี้

1. ระวังโพรไฟล์ที่ดูดีเกินจริง บัญชีบอตมักจะดูดีเกินจริง โปรไฟล์ที่ดูประสบความสำเร็จอย่างรวดเร็ว มีรีวิวดีทุกโพสต์ แต่ไม่มีข้อมูลยืนยันจากแหล่งอื่น อาจเป็นภาพลวงตาที่สร้างขึ้นเพื่อความน่าเชื่อถือ เมื่อขอเจอตัวจริงมักจะบ่ายเบี่ยงและปฏิเสธ ก็เพราะนักธุรกิจคนนั้นไม่มีตัวตนอยู่จริง

2. ดูพฤติกรรมบัญชี มากกว่ายอดผู้ติดตามบัญชีบอตมักจะมีผู้ติดตามจำนวนมากในเวลาอันสั้น และโพสต์เนื้อหาซ้ำ ๆ อยู่เสมอ หากลองเข้าไปดูประวัติย้อนหลังอาจจะเห็นความผิดปกติได้ง่ายขึ้น

3. สังเกตคอมเมนต์และเนื้อหาที่ดูเหมือนกันมากเกินไปหากมีผู้ใช้งานหลาย ๆ บัญชีเข้ามาคอมเมนต์หรือโพสต์เนื้อหาเดียวกันซ้ำ ๆ โดยมีรูปแบบหรือโครงสร้างประโยคที่คล้าย ๆ กัน เช่น การโฆษณา ชวนคลิกลิงก์ หรือชวนลงทุน นั่นก็อาจเป็นสัญญาณว่าผู้ใช้งานเหล่านั้นอาจเป็นบอตที่ถูกตั้งโปรแกรมให้กระจายข้อมูลอย่างเป็นระบบ ไม่ใช่ผู้ใช้งานจริง

4. อย่ารีบตัดสินใจเพราะแรงกดดันมิจฉาชีพมักใช้กลยุทธ์ที่ทำให้เหยื่อรู้สึกว่าต้องรีบทำ รีบตัดสินใจ เช่น “คนอื่นทำกันหมดแล้ว” “ถ้าไม่โอนตอนนี้จะไม่ทันแล้ว” เพื่อกระตุ้นให้รีบโอนหรือรีบลงทุน ถ้าเจอแบบนี้ ให้หยุดคิด และตรวจสอบข้อมูลจากหลาย ๆ แหล่ง

4 วิธีเบื้องต้นนี้ จะช่วยให้เราเอะใจ ว่าที่คุยอยู่นั้นเป็น “คนจริง” หรือ “บอต” ความระมัดระวังเล็ก ๆ น้อย ๆ ของเรา อาจกลายเป็นเกราะป้องกันที่สำคัญที่สุด เพื่อไม่ให้ตกเป็นเหยื่อมิจฉาชีพ

Social media bot

AI-Generated Phishing: เมื่อ AI ปลอมอีเมลได้แนบเนียนยิ่งขึ้น

ในอดีต หากเราได้รับอีเมลจากมิจฉาชีพ ก็สามารถสังเกตได้ง่าย ๆ จากพิรุธในหลายจุด เช่น สะกดผิด ภาษาแปลกดูไม่เป็นธรรมชาติ แต่ยุคนี้ AI ได้เข้ามาทำลาย “สัญญาณเตือน” เหล่านั้นแล้ว เพราะ AI สามารถเขียนข้อความได้ลื่นไหล สุภาพ และเหมาะสมกับบริบทจนแทบแยกไม่ออกว่าเป็นอีเมลจริงหรือมิจฉาชีพ วิธีการที่มิจฉาชีพใช้ คือ

1. Hyper-Personalization คือ วิธีการที่มิจฉาชีพจะใช้เพื่อให้เข้าถึงเหยื่อได้แบบเฉพาะเจาะจงโดยใช้ AI วิเคราะห์ข้อมูลที่ดึงมาจากแพลตฟอร์มออนไลน์ เพื่อนำมาสร้างอีเมลที่ระบุชื่อโครงการจริง ชื่อเพื่อนร่วมงานจริง และเลียนแบบสำนวนการเขียนของหัวหน้างานหรือคู่ค้าของเหยื่อได้อย่างแม่นยำ การหลอกลวงทางอีเมลจึงไม่ใช่แค่ข้อความหว่านแหแบบเดิมอีกต่อไป แต่เป็น “Spear Phishing” หรือการโจมตีแบบเจาะจงเป้าหมายที่ศึกษามาแล้วเป็นอย่างดี

2. Multimodal Prompt Injection Attacks คือ การโจมตีหลายรูปแบบพร้อม ๆ กันการโจมตีไม่ได้หยุดแค่การส่งอีเมล แต่อาจส่งข้อความแชตผ่านแอปพลิเคชัน แล้วตามด้วยการโทรศัพท์ที่ใช้เสียงปลอม ในจังหวะเวลาที่สอดคล้องกัน เพื่อสร้างสถานการณ์ให้ดูมีความเร่งด่วน เช่น ขออนุมัติธุรกรรมด่วน หรือต้องแก้ไขบัญชีที่มีปัญหา ทำให้เหยื่อรีบจนไม่มีเวลาตั้งคำถามกับความผิดปกติ

นอกจากนี้ AI ยังสามารถปรับแต่งถ้อยคำ โค้ด หรือลิงก์ในอีเมลให้หลบเลี่ยงระบบกรองสแปมได้อย่างรวดเร็ว เมื่อถูกบล็อกก็สามารถสร้างเวอร์ชันใหม่ได้ทันที ทำให้การป้องกันแบบเดิมไม่สามารถป้องกันได้อย่างมีประสิทธิภาพอีกต่อไป โดยงานศึกษาจาก Harvard University ในปี 2567 พบว่าอีเมลฟิชชิ่งที่ AI สร้างขึ้นมาแบบเจาะจงเหยื่อมีอัตราการคลิกสูงถึง 54% ซึ่งสูงกว่าอีเมลฟิชชิ่งทั่วไปถึง 4.5 เท่า4

จะเห็นได้ว่า AI สามารถทำให้ทั้งภาษา บริบท และจังหวะการสื่อสารแนบเนียนและดูน่าเชื่อถือ แต่ในทางกลับกัน ข้อความที่ดูน่าเชื่อถือเหล่านี้ อาจถูกออกแบบมาอย่างพิถีพิถันเพื่อหลอกเราโดยเฉพาะ

4https://hbr.org/2024/05/ai-will-increase-the-quantity-and-quality-of-phishing-scams

AI generated phishing

วิธีสังเกตเบื้องต้น เพื่อไม่ให้ตกเป็นเหยื่อ AI-Generated Phishing

เมื่อ AI สามารถสร้างอีเมลให้ดูสมจริงจนแทบแยกไม่ออกว่าเป็นของจริงหรือของปลอม การสงสัยไว้ก่อนและตรวจสอบให้แน่ใจจึงเป็นสิ่งจำเป็น โดยสามารถสังเกตเบื้องต้นได้ ดังนี้

1. ตรวจสอบที่มาของอีเมลอย่างละเอียดแม้อีเมลจะดูมืออาชีพ แต่ก็ควรตรวจสอบชื่อผู้ส่ง ลิงก์ที่แนบมา และโดเมนเพื่อให้แน่ใจว่าตรงกับองค์กรที่เราต้องการติดต่อจริง

2. ตรวจสอบก่อนตอบกลับ ไม่ควรคลิกลิงก์หรือดาวน์โหลดไฟล์ทันทีแต่ควรตรวจสอบด้วยการสอบถามผู้เกี่ยวข้องก่อน

3. สังเกตความเร่งด่วนและแรงกดดันหากมีข้อความที่บังคับให้ต้องตัดสินใจเร็วหรือรีบโอนเงิน มักเป็นสัญญาณของอีเมลฟิชชิ่ง

4. ใช้เครื่องมือป้องกันและอัปเดตระบบเสมอควรติดตั้งและอัปเดตซอฟต์แวร์ที่ช่วยป้องกัน เพื่อช่วยคัดกรองอีเมลอันตราย

การสังเกต 4 ข้อเบื้องต้นนี้จะช่วยให้เราไม่ตกเป็นเหยื่อ และแยกแยะได้ว่าอีเมล ข้อความ หรือการติดต่อใดเป็นของจริง หรือถูกสร้างโดย AI และสามารถลดโอกาสตกเป็นเหยื่อมิจฉาชีพที่ใช้อีเมลฟิชชิ่ง

AI generated Phishing

หากตกเป็นเหยื่อแล้ว ควรทำอย่างไร?

หากเราพลาดโอนเงินให้มิจฉาชีพไปแล้ว สิ่งสำคัญที่สุดคือความเร็ว” เพื่อเพิ่มโอกาสในการระงับเงินและติดตามเงินคืนได้ ขอแนะนำให้ทำดังนี้
1. โทรสายด่วน AOC. 1441 หรือธนาคารเจ้าของบัญชีทันทีเพื่อขอ “ระงับบัญชีปลายทางชั่วคราว” ยิ่งเร็ว โอกาสระงับเงินและได้เงินคืนยิ่งมากขึ้น

2. แจ้งความที่สถานีตำรวจใกล้บ้าน

3. เก็บข้อมูลและหลักฐานประกอบไว้ให้เจ้าหน้าที่เช่น รูปโพรไฟล์โปรไฟล์หรือลิงก์ที่ระบุตัวตนบัญชีของคนร้ายได้ ภาพแชตสนทนา เลขที่บัญชีที่โอนไป และสลิปโอนเงิน

เมื่อโทรสายด่วน AOC. 1441 หรือแจ้งความเสร็จเรียบร้อยแล้วจะได้รับหมายเลข Police Case ID ที่สามารถนำมาใช้ในการติดตามความคืบหน้าของการดำเนินการทางกฎหมายได้

How to

แม้เทคโนโลยี AI จะสามารถปลอมแปลงภาพ เสียง ข้อความ และความน่าเชื่อถือได้อย่างสมจริง ไม่ว่าจะเป็น Deepfake ที่เลียนแบบหน้าตาและน้ำเสียง, Voice Cloning ที่เลียนเสียงคนใกล้ตัว, Social Media Bot ที่สร้างความน่าเชื่อถือจอมปลอม หรือ AI-Generated Phishing Email ที่ปรับแต่งข้อความให้เหมาะกับเหยื่อแต่ละคน สุดท้ายแล้วอำนาจการตัดสินใจโอนเงินยังอยู่ในมือของเรา ดังนั้น การเอ๊ะ การสังเกต การตั้งคำถามต่อสิ่งที่เห็นและได้ยิน และการตรวจสอบความถูกต้องก่อนตัดสินใจ จะกลายเป็นเกราะป้องกันที่สำคัญที่สุด เพื่อไม่ให้เราตกเป็นเหยื่อมิจฉาชีพ

เรื่อง : กองบรรณาธิการ พระสยาม BOT Magazine


ที่มา : https://www.bot.or.th/th/research-and-publications/articles-and-publications/bot-magazine-issues/phrasiam-69-1/Financial-fraud-in-the-age-of-AI.html

Powered by Froala Editor

Powered by Froala Editor

Share: