4 cạm bẫy lừa đảo bằng AI nguy hiểm nhất hiện nay

Nhận biết 4 chiêu trò lừa đảo bằng AI (trí tuệ nhân tạo) tinh vi đang âm thầm ‘móc túi’ những nạn nhân nhẹ dạ.

Sự bùng nổ của AI tạo sinh (Generative AI) không chỉ mang lại tiện ích vượt trội mà còn vô tình trao ‘vũ khí hạng nặng’ cho tội phạm mạng. Từ những email giả mạo không tì vết đến các cuộc gọi video deepfake giống như thật, dưới đây là 4 cạm bẫy lừa đảo bằng AI công nghệ cao mà bạn cần biết để tự bảo vệ mình.

Tạm biệt lỗi chính tả ngớ ngẩn khi lừa đảo bằng AI

Trước đây, người dùng dễ dàng phát hiện email lừa đảo (phishing) nhờ các lỗi ngữ pháp hay cách dùng từ ngô nghê. Nhưng nay, bằng cách huấn luyện các mô hình ngôn ngữ lớn (LLM) với dữ liệu từ các doanh nghiệp uy tín, kẻ gian có thể tạo ra những email giả mạo hoàn hảo, bắt chước giọng điệu của ngân hàng hay đối tác một cách đáng kinh ngạc. lừa đảo bằng AI thông qua email

Dấu hiệu nhận biết của những email được tạo bằng trí tuệ nhân tạo là hãy so sánh email đáng ngờ với các email cũ từ cùng một đơn vị để tìm sự khác biệt nhỏ trong văn phong. Quan trọng nhất, luôn kiểm tra kỹ địa chỉ email người gửi – đây là yếu tố then chốt mà lừa đảo bằng AI chưa thể che giấu hoàn toàn.

‘Cào’ dữ liệu cá nhân để giăng bẫy

Kẻ lừa đảo không còn rải lưới ngẫu nhiên. Chúng sử dụng AI để ‘cào’ (scrape) toàn bộ thông tin bạn công khai trên mạng xã hội, từ đó tạo ra các kịch bản lừa đảo được ‘đo ni đóng giày’ dành cho riêng bạn. Thậm chí, chúng có thể tạo ra các nhân vật ảo có cùng sở thích để tiếp cận, làm quen và dẫn dụ nạn nhân vào các bẫy đầu tư tài chính hoặc tiền ảo.

Trước chiêu trò lừa đảo bằng AI này, hãy giữ thái độ hoài nghi lành mạnh với bất kỳ người lạ nào nhắn tin tư vấn đầu tư. Thiết lập kênh liên lạc phụ với người thân để xác minh chéo khi có nghi ngờ.

Lừa đảo bằng AI

Khi giọng nói người thân bị đánh cắp

Đây là hình thức lừa đảo gây hoang mang nhất hiện nay. Chỉ cần một vài đoạn video bạn đăng trên TikTok hay Facebook, AI có thể sao chép (clone) giọng nói của bạn giống đến 99%. Kẻ gian dùng giọng nói này để gọi điện vay tiền bạn bè, hoặc tồi tệ hơn là dàn dựng các vụ bắt cóc tống tiền giả mạo nhắm vào người cao tuổi trong gia đình.

Để tự bảo vệ, hãy thiết lập một ‘mật khẩu gia đình’ (safe word) – một từ khóa bí mật mà chỉ người nhà mới biết. Nếu nhận được cuộc gọi khẩn cấp, hãy hỏi từ khóa này. Nếu đầu dây bên kia ấp úng, hãy cúp máy ngay lập tức.

Video call cũng chưa chắc là thật

Không chỉ giọng nói, lừa đảo bằng AI còn có thể tạo ra khuôn mặt giả (deepfake) trong các cuộc gọi video. Kẻ lừa đảo thường dùng hình ảnh người nổi tiếng hoặc giả danh sếp, người thân để tạo lòng tin.

lừa đảo bằng AI deepfake khuôn mặt

Mặc dù vậy, vẫn có cách lật tẩy chiêu trò này. AI hiện tại vẫn rất kém trong việc xử lý các chuyển động vật lý phức tạp. Nếu nghi ngờ, hãy yêu cầu người gọi quay đầu sang hai bên hoặc khua tay trước mặt. Khuôn mặt hoặc bàn tay của Deepfake sẽ bị biến dạng (glitch) hoặc mờ đi khi thực hiện các động tác này.

Trong kỷ nguyên AI, nguyên tắc vàng là ‘chậm lại và xác minh’. Đừng để nỗi sợ hãi hay sự cấp bách mà kẻ gian tạo ra khiến bạn mất cảnh giác mà bị đưa vào các cạm bẫy lừa đảo bằng AI.

Đăng ký
Thông báo về
guest

0 Bình luận
Cũ nhất
Mới nhất Được nhiều vote!
Phản hồi theo binh luận
Xem tất cả các bình luận

Tin cùng chuyên mục

Nhận miễn phí siêu phẩm The Callisto Protocol trị giá 800K

Epic Games Store tiếp tục khiến cộng đồng game thủ toàn cầu đứng ngồi không yên khi chính thức...
0
Rất thích suy nghĩ của bạn, hãy bình luận.x