Kinh tế nông thôn
Kinh tế nông thôn
Thứ hai, ngày 6 tháng 5 năm 2024  
Thứ ba, ngày 20 tháng 6 năm 2023 | 9:35

Cảnh giác với các chiêu trò lừa đảo tinh vi trên mạng xã hội

Hiện nay, với công nghệ AI nhân tạo, các đối tượng "chế" giọng nói, video Deepfake, hình ảnh của người thân bị hại, thậm chí còn giả danh công an để lừa đảo chiếm đoạt tài sản. Mặc dù đã được các cơ quan chức năng và báo chí cảnh báo, nhưng vẫn không ít người sập bẫy.

Nhiều nạn nhân “sập bẫy”

Trong sự phát triển mạnh mẽ của công nghệ thông tin, nhất là từ khi phần mềm ứng dụng công cụ trí tuệ nhân tạo là ChatGPT và ứng dụng tạo giọng nói được ứng dụng, các đối tượng tội phạm sử dụng hai công cụ này để kết hợp thành dữ liệu giọng nói trò chuyện qua điện thoại đánh lừa người dùng, đã có không ít người  “sập bẫy” chiêu trò lừa đảo tinh vi này.

Đầu tháng 4 vừa qua, một nạn nhân ở TP. Huế (Thừa Thiên - Huế) bị lừa mất 380 triệu đồng khi nhận được cuộc gọi bằng hình ảnh của cháu gái gọi về từ nước ngoài. Theo trình bày của người này với cơ quan công an, khi đang giờ ngủ trưa thì nhận được cuộc gọi hình ảnh của cháu gái đang sinh sống tại Mỹ gọi về trong trạng thái hốt hoảng.

Đối tượng giả giọng nói lừa đảo qua mạng bị bắt giữ.

Người cháu nói với bị hại rằng: “Cho cháu mượn gấp 20 triệu đồng vì có đứa cháu bên chồng vừa nhập viện, bác sĩ yêu cầu phải mổ tim cấp cứu. Dì gửi cho cháu mượn rồi cháu sẽ gửi về trả sau”. “Người cháu” gửi số tài khoản qua cho dì chuyển tiền vào tài khoản.

Người này đã thực hiện theo yêu cầu của cháu và đã chuyển nhiều lần trong thời gian chỉ có 3 giờ đồng hồ vào tài khoản đã được cung cấp trước đó với tổng số tiền 380 triệu đồng.

Sau mấy ngày không thấy cháu gái hoàn trả lại tiền nên đã nhắn tin hỏi, lúc này người cháu thật tỏ ra bất ngờ và nói với người bị hại, không hề có đứa cháu nào ở Việt Nam nhập viện cấp cứu cả. Lúc này, bị hại mới biết là mình đã bị kẻ xấu lừa đảo qua mạng.

Chị Nguyễn Thị H. (Hưng Yên) vẫn chưa hết bàng hoàng vì bị mất số tiền 50 triệu đồng tích cóp bấy lâu. Chị nhận được cuộc gọi video call qua mạng xã hội facebook, người gọi trong video là hình ảnh con trai chị, nhìn thấy và nghe đúng giọng nói quen thuộc của con trai nên chị H.  lập tức tin tưởng và chuyển tiền ngay. Tới khi chuyển xong, chị gọi điện thoại lại cho con trai xác nhận thì mới “ngã ngửa” bị lừa.

Hay như chị Lê Thị Ngọc B., sinh viên Trường Đại học Kinh doanh và Công nghệ Hà Nội, cũng mới bị lừa chuyển tiền cho bạn với thủ đoạn giả danh. Khi nhận được tin nhắn vay tiền, B. cẩn thận gọi video call lại cho bạn để xác nhận. Khi xác định được đúng là bạn mình, B. cũng đã chuyển khoản ngay mà không nghi ngờ gì. Tới lúc gặp lại bạn, B. hỏi thì mới biết facebook người bạn đã bị hack và B. đã bị lừa một cách rất tinh vi.

Trên đây chỉ là một vài vụ nạn nhân đã sập bẫy lừa đảo trong rất nhiều vụ các đối tượng tội phạm sử dụng công nghệ giả giọng nói và hình ảnh để lừa đảo, chiếm đoạt tài sản mà các đối tượng tội phạm đã sử dụng trong thời gian vừa qua. Để không bị sập bẫy lừa đảo người dân cần cập nhật những thông tin cảnh báo để đề phòng.

Nhận diện ứng dụng giả giọng nói, hình ảnh để lừa đảo

Công nghệ giả giọng nói, hình ảnh để gọi video được gọi là công nghệ Deepfake. Theo ông Nguyễn Văn Cường, Giám đốc Trung tâm an ninh mạng BKAV, Deepfake là kỹ thuật sử dụng trí tuệ nhân tạo để tạo ra hình ảnh hoặc video giả mạo rất giống với người thật. Khi áp dụng vào cuộc gọi video, Deepfake có thể giả mạo giọng nói, biểu cảm khuôn mặt và cử chỉ của người bị giả mạo, dẫn đến việc người nhận cuộc gọi có thể bị lừa đảo.

Công nghệ Deepfake tạo ra video và hình ảnh giả mạo với độ chân thực và độ phân giải cao.

Deepfake không phải là công nghệ hoàn toàn mới. Thực tế nó đã được sử dụng trong ngành công nghiệp điện ảnh, giải trí từ nhiều năm trước. Tuy nhiên, gần đây, với sự phát triển của công nghệ máy tính và trí tuệ nhân tạo, việc tạo ra video giả mạo trở nên dễ dàng hơn và độ chính xác của chúng ngày càng cao. Điều này đã tạo ra “cơ hội” cho các kẻ lừa đảo sử dụng công nghệ Deepfake nhằm lừa đảo và gây hại cho người dùng thông qua các trang mạng xã hội và các phương tiện truyền thông khác. Ngoài ra, việc truyền tải thông tin và chia sẻ video trên mạng xã hội ngày càng phổ biến, dẫn đến việc các video call sử dụng Deepfake có thể lan truyền nhanh chóng và rộng rãi trên internet, tạo ra nhiều tác động xấu đến mọi người.

Để tránh không bị các đối tượng tội phạm lừa đảo, người dân khi nhận được những cuộc gọi bằng hình ảnh của người thân để vay, mượn tiền, cần thận trọng nếu người gọi không nhìn trực tiếp vào camera, nói không trôi chảy, hoặc có những hành động bất thường trong video. Bên cạnh đó, nếu người dùng nhận thấy có sự khác biệt giữa giọng nói và hành động của người trong video thì có thể đó là dấu hiệu của một video giả mạo.

Vì vậy, để bảo vệ bản thân khỏi những kẻ lừa đảo sử dụng Deepfake, người dùng mạng xã hội cần phải cẩn trọng và luôn giữ cho mình sự cảnh giác. Bên cạnh đó, cũng nên tìm hiểu về công nghệ Deepfake và nhận thức được các đặc điểm để phân biệt giữa video hình ảnh thật và giả mạo.

Bảo vệ bản thân trước nguy cơ lừa đảo trên mạng

Để phòng tránh lừa đảo bằng Deepfake, ông Nguyễn Văn Cường đưa ra lời khuyên, người dùng cần cẩn trọng khi chia sẻ thông tin cá nhân và tài khoản ngân hàng. Nếu có bất kỳ sự nghi ngờ nào về tính xác thực của cuộc gọi video, người dùng nên hủy cuộc gọi và liên hệ lại với người kia để xác nhận lại thông tin.

Ngoài ra, để bảo vệ thông tin cá nhân của mình, người dùng cần sử dụng mật khẩu mạnh, thường xuyên thay đổi mật khẩu và bảo vệ thiết bị của mình khỏi các phương tiện tấn công mạng. Đồng thời, nên cẩn thận và xem xét kỹ trước khi chia sẻ thông tin cá nhân với bất kỳ ai trên mạng và đảm bảo rằng chỉ chia sẻ thông tin với các trang web đáng tin cậy và có hệ thống bảo mật tốt.

Cảnh giác cao trước các yêu cầu video Deepfake

Theo khuyến cáo của Công an TP. Hà Nội, người dân cần nâng cao cảnh giác với các cuộc gọi hỏi vay, mượn tiền, chuyển khoản, tránh việc xác nhận qua video call, video Deepfake, đặc biệt là khi nhận các tin nhắn, cuộc gọi, đường link lạ. Trong trường hợp nhận được những “yêu cầu” này, cần giữ thái độ bình tĩnh, cẩn thận xác thực lại thông tin bằng cách gọi điện thoại hoặc có thể gặp trực tiếp để trao đổi thông tin chính xác trước khi chuyển tiền

Người sử dụng cần luôn cảnh giác, tuyệt đối bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc facetime ít nhất trên 1 phút. Sau đó đặt ra những câu hỏi cá nhân mà chỉ có mình và người kia biết. Vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao. Bởi cảm xúc hay biểu cảm của AI hay Deepfake vẫn không thể bắt chước được như người thật tính tới thời điểm này.

Chuyên gia bảo mật lưu ý đến mọi người để bảo vệ bản thân hãy cảnh giác với các cuộc gọi khẩn cấp. Cúp máy và gọi lại kiểm tra với người thân trước khi thực hiện bất kỳ lệnh chuyển tiền nào. Bạn không cả tin và chỉ nhìn vào số điện thoại di động, tài khoản mạng xã hội và dám chắc đó là người nhà của mình. Các thông tin này đều có thể bị làm giả hoặc thông tin cá nhân của người thân đã bị kẻ gian đánh cắp.

Hãy chủ động xác minh với người gọi. Ví dụ, bạn nhận được cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không.

Cuối cùng, hãy lưu giữ cẩn thận thông tin cá nhân của bạn, như số căn cước công dân, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái và thú cưng của bạn. Những kẻ lừa đảo có thể sử dụng thông tin này để mạo danh bạn khi liên hệ với ngân hàng và những người khác. Những lời khuyên cơ bản này là chìa khóa để bảo vệ bạn khỏi bị thao túng tâm lý và tỉnh táo xử lý trong trường hợp bị kẻ gian nhắm tới.

 

Ngọc Thủy
Ý kiến bạn đọc
Top