14:37 08/11/2024
Chiêu lừa 10 người đọc 9 người mắc bẩy trên Facebook
16:27 07/11/2024
Hiện nay, nhiều nhóm tội phạm mạng đã gia tăng việc áp dụng công nghệ AI như DeepFake, DeepVoice... trong các chiến dịch lừa đảo. Mới đây, trung tâm VNCERT/CC cảnh báo về sự xuất hiện trên thế giới của hình thức lừa đảo mới.
1. Thủ đoạn tinh vi
Theo đó, các đối tượng lợi dụng trí tuệ nhân tạo - AI và công nghệ mạo danh để đánh cắp thông tin đăng nhập gmail của người dùng. Hình thức lừa đảo mới gồm cả việc giả mạo email và số điện thoại của Google, sử dụng công nghệ trí tuệ nhân tạo để tạo ra các thông điệp và cuộc gọi giống thật nhằm đánh lừa người dùng cung cấp thông tin nhạy cảm. Các đối tượng có thể đánh cắp thông tin đăng nhập gmail của nạn nhân và sử dụng thông tin này để truy cập vào các dữ liệu cá nhân, hoặc thực hiện các cuộc tấn công khác. Điều này gây nguy cơ lớn cho người dùng gmail trên toàn cầu, đặc biệt những người không cảnh giác. Theo phân tích của các chuyên gia, email xác nhận mà các đối tượng lừa đảo gửi đến nạn nhân rất giống với email thật từ Google. Cụ thể, đối tượng lừa đảo gửi email giả mạo từ Google, yêu cầu người dùng thực hiện quy trình khôi phục tài khoản. Email chứa đường dẫn đến một website giả có giao diện giống trang đăng nhập gmail, được thiết kế để đánh cắp thông tin đăng nhập. Khoảng 40 phút sau, người dùng tiếp tục nhận được cuộc gọi giả mạo tự nhận nhân viên hỗ trợ Google và thông báo có hoạt động bất thường trong tài khoản gmail của nạn nhân. Các đối tượng lừa đảo còn dùng giọng nói AI và phần mềm giả mạo số điện thoại để tăng tính thuyết phục.
Đối tượng dùng công nghệ DeepFake, DeepVoice để lừa đảo.
Thủ đoạn sử dụng công nghệ DeepFake để cắt ghép, tạo video hay hình ảnh nhạy cảm giả mạo với mục đích lừa đảo, tống tiền người dùng. Thực tế đã có những người dùng mạng xã hội tại Việt Nam bị các đối tượng tống tiền bằng các hình ảnh, video được tạo từ DeepFake - công nghệ ứng dụng AI để tạo hình ảnh, video giả mạo rất giống thật khiến người dùng khó phân biệt. AI là công nghệ lưỡng dụng, được sử dụng cho cả mục đích tấn công và phòng thủ. Một trong những mối đe dọa lớn là tin tặc sử dụng AI để phát động các cuộc tấn công lừa đảo có mục tiêu. Tại Việt Nam, mặc dù các cơ quan, tổ chức đã triển khai nhiều giải pháp, nhưng việc ứng dụng AI để tạo ra các kịch bản và tổ chức thực hiện lừa đảo trên mạng xã hội hiện khá phổ biến và nhiều người dân đã bị lừa. Khả năng nhận diện và phòng tránh các hình thức lừa đảo trực tuyến ngày càng khó khăn, khi các đối tượng sử dụng ứng dụng AI để tạo ra kịch bản, bằng chứng, minh chứng để lừa người dùng. Những kỹ thuật tấn công lừa đảo cũng ngày càng phát triển, từ việc đơn giản là lừa đảo, lấy cắp mật khẩu qua email cho đến việc kết hợp công nghệ AI để tạo ra những âm thanh, hình ảnh, video giả mạo mà mắt thường của con người không thể phát hiện, đó là DeepVoice, DeepFake...
Hiện nay, nhiều nhóm tội phạm gia tăng áp dụng công nghệ AI, như sử dụng AI tạo kịch bản lừa đảo hay dùng các công nghệ DeepFake, DeepVoice... trong các chiến dịch lừa đảo. Sự tiến bộ chưa từng có của AI trong 2 năm qua đang tiếp tục gây bối rối cho nhiều đơn vị, tổ chức trong việc bảo đảm an toàn thông tin. Việc sử dụng rộng rãi công nghệ AI khiến nguy cơ rò rỉ dữ liệu nhạy cảm tăng lên đáng kể.
Người dân nên hạn chế chia sẻ thông tin cá nhân, hình ảnh, video cá nhân lên mạng xã hội.
2. Nâng cao cảnh giác
Việc toàn bộ thông tin cá nhân được đưa lên môi trường số thông qua mạng xã hội, các cơ sở y tế, giáo dục... rất khó tránh khỏi việc bị lộ lọt đang là yếu tố giúp cho AI hoặc các công nghệ tiên tiến khác được khai thác tốt, giúp ích rất nhiều cho những kẻ lừa đảo.
Để có một kịch bản lừa đảo hoàn hảo nhắm vào một đối tượng cá biệt, các đối tượng thường phải thu thập hoặc tìm kiếm được những thông tin của đối tượng đó trên không gian mạng. Ví dụ như một buổi livestream bán hàng hoặc trên trang thông tin không bảo đảm an toàn, dẫn đến thông tin của người dùng bị lộ lọt. Từ đó, tội phạm mạng có thể khai thác, nắm được điểm yếu và tạo một kịch bản tiếp cận dễ dàng nhất với đối tượng bị nhắm đến tấn công.
Từ những phân tích trên, người dùng cẩn trọng khi chia sẻ thông tin cá nhân, hình ảnh, video riêng tư trên các nền tảng mạng xã hội. Đồng thời, khi nhận được những cuộc gọi lạ tự xưng từ những tổ chức hoặc cơ quan chức năng, người dân nên xác thực toàn bộ thông tin từ người gọi và đến trực tiếp nơi cơ quan liên quan để giải quyết các vấn đề gặp phải, tránh tình huống bị các đối tượng lợi dụng để lừa đảo.
Khi phát hiện sự việc nghi vấn có liên quan đến tội phạm lừa đảo chiếm đoạt tài sản, đề nghị người dân cung cấp ngay cho cơ quan Công an nơi gần nhất hoặc Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao - Công an tỉnh Long An; số điện thoại 02723.989848 để được hướng dẫn.
Huỳnh Luân
14:37 08/11/2024
Chiêu lừa 10 người đọc 9 người mắc bẩy trên Facebook
09:46 08/11/2024
Cảnh giác: Mạo danh Cục Đăng kiểm Việt Nam để lừa đảo, đánh cắp thông tin
16:27 07/11/2024
Cảnh giác với hình thức lừa đảo mới: Dùng AI đánh cắp thông tin người dùng
14:09 01/11/2024
Cảnh giác với chiêu trò lừa đảo học sinh, sinh viên
08:19 01/11/2024
Cảnh giác với chiêu trò lừa đảo qua Zalo, Facebook; dễ mất sạch tiền trong tài khoản ngân hàng