会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 【bong dalu fun】Dịp Tết, nhiều người dùng Việt trở thành nạn nhân của lừa đảo sử dụng AI!

【bong dalu fun】Dịp Tết, nhiều người dùng Việt trở thành nạn nhân của lừa đảo sử dụng AI

时间:2024-12-23 17:05:10 来源:Nhà cái uy tín 作者:Thể thao 阅读:269次

Hoàng Oanh (tên nhân vật đã được thay đổi) là nhân viên văn phòng tại Hà Nội. Trong một lần trò chuyện với bạn qua Facebook Messenger,ịpTếtnhiềungườidùngViệttrởthànhnạnnhâncủalừađảosửdụbong dalu fun người bạn của Oanh đã chào và kết thúc câu chuyện nhưng đột nhiên quay lại nhắn tin, hỏi vay tiền và đề nghị chuyển tiền vào một tài khoản ngân hàng.

Dù tên tài khoản trùng khớp với tên bạn mình, Hoàng Oanh vẫn thoáng nghi ngờ nên yêu cầu gọi video để xác thực. Người bạn đồng ý ngay nhưng cuộc gọi chỉ kéo dài vài giây do “mạng chập chờn”, theo giải thích của người bạn. Đã thấy mặt bạn mình trong cuộc gọi video, giọng nói cũng đúng của người này, Hoàng Oanh không còn nghi ngờ và chuyển tiền. Tuy nhiên, chỉ sau khi chuyển tiền thành công, người dùng này mới biết mình đã mắc bẫy của hacker.

luadao sudung ai 1.jpg
Các đối tượng thực hiện cuộc gọi video với hình ảnh và giọng nói giả mạo được tạo ra từ AI để lừa chiếm đoạt tài sản người dùng. (Ảnh Bkav cung cấp)

Trường hợp của người dùng Hoàng Oanh chỉ là một trong rất nhiều nạn nhân đã ‘sập bẫy’ của các nhóm lừa đảo sử dụng công nghệ trí tuệ nhân tạo để tạo hình ảnh và giọng nói bạn bè, người thân của nạn nhân để lừa chiếm đoạt tài sản.

Các chuyên gia Bkav cho biết, nửa cuối năm 2023 và đặc biệt là khoảng thời gian giáp Tết Nguyên đán 2024, doanh nghiệp an toàn thông tin này liên tục nhận được các báo cáo cũng như yêu cầu trợ giúp của nạn nhân về các vụ việc lừa đảo tương tự như trên.

Phân tích của các chuyên gia công ty này cho hay, trong trường hợp của người dùng Hoàng Oanh, kẻ xấu đã kiểm soát được tài khoản Facebook nhưng không lập tức chiếm đoạt hoàn toàn mà âm thầm theo dõi, chờ cơ hội giả làm nạn nhân để hỏi vay tiền bạn bè, người thân của họ.

Đối tượng lừa đảo sử dụng AI để tạo sẵn một đoạn video giả mạo gương mặt và giọng nói của chủ tài khoản Facebook (Deepfake). Khi được yêu cầu gọi điện video call để chứng thực, chúng đồng ý nhận cuộc gọi nhưng sau đó nhanh chóng ngắt kết nối để tránh bị phát hiện.

Ông Nguyễn Tiến Đạt, Tổng Giám đốc Trung tâm nghiên cứu mã độc của Bkav nhấn mạnh, ngay cả khi người dùng thực hiện một cuộc gọi video và thấy mặt người thân hay bạn bè, nghe đúng giọng nói của họ thì cũng không hẳn bạn đang nói chuyện với chính người đó. Gần đây, nhiều người đã trở thành nạn nhân của các cuộc lừa đảo tài chính sử dụng Deepfake và có sự tham gia của công nghệ trí tuệ nhân tạo.

“Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi. Điều này cũng có nghĩa là mức độ phức tạp của các kịch bản lừa đảo khi kết hợp giữa Deepfake và GPT sẽ ngày càng cao, khiến việc nhận diện lừa đảo sẽ khó khăn hơn rất nhiều”, ông Nguyễn Tiến Đạt nhận định.

Chuyên gia Bkav khuyến nghị người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân (căn cước công dân, tài khoản ngân hàng, mã OTP… Không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo. Khi có yêu cầu vay/chuyển tiền vào tài khoản qua mạng xã hội, người dùng nên thực hiện các phương thức xác thực khác như gọi điện thoại hay sử dụng các kênh liên lạc khác để xác nhận lại.

Dự báo về xu hướng tấn công mạng năm 2024, các chuyên gia đều thống nhất rằng, sự phát triển nhanh chóng của AI không chỉ mang lại những lợi ích rõ ràng mà còn tạo ra những nguy cơ đáng kể cho an ninh mạng.

Thách thức lớn nhất của các doanh nghiệp, tổ chức khi đối diện với công nghệ AI ngày nay là lừa đảo và tấn công có chủ đích (APT), với mức độ ngày càng phức tạp của các kịch bản lừa đảo, đặc biệt khi kết hợp giữa Deepfake và GPT. Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi, khiến việc nhận diện lừa đảo sẽ khó khăn hơn đối với người dùng.

Việc tăng cường an ninh cho AI trở thành một xu hướng không thể phủ nhận thời gian tới. Cộng đồng quốc tế sẽ cần hợp tác chặt chẽ để phát triển các biện pháp bảo mật mới, cùng việc nâng cao kiến thức và nhận thức của người dùng về những rủi ro tiềm ẩn của AI.

Cảnh giác chiêu lừa đảo phát tán tin nhắn giả mạo thương hiệu

Cảnh giác chiêu lừa đảo phát tán tin nhắn giả mạo thương hiệu

Theo Cục An toàn thông tin (Bộ TT&TT), phát tán tin nhắn giả mạo thương hiệu là 1 trong 24 hình thức lừa đảo đang diễn ra trên không gian mạng Việt Nam.

(责任编辑:La liga)

相关内容
  • Long An thông báo tìm nhà đầu tư dự án nhà ở xã hội gần 4.000 tỉ đồng
  • 10 ý tưởng trang trí Giáng sinh cho nhà nhỏ
  • Tuyên bố “Nước Mỹ đã trở lại”, Tổng thống Biden tái khẳng định cam kết với đồng minh
  • Chính phủ Anh cân nhắc về việc triển khai tiền kỹ thuật số “Britcoin”
  • Giá vàng hôm nay 10/5/2024: Neo ở mức cao nhất trong lịch sử
  • Bí quyết 5 bước giúp môi giới quan hệ tốt với khách
  • Dự báo cơn sốt BĐS khu Tây TP.HCM
  • Trang trí căn hộ với điểm nhấn từ gạch trần
推荐内容
  • Ấn tượng Trung Nguyên E
  • Hà Nội: Quy định mới nhất về bồi thường, hỗ trợ và tái định cư
  • Giải pháp cho cuộc khủng hoảng Covid
  • Lỗi phong thủy thiết kế cầu thang khiến gia chủ hao tài
  • Cuộc thi tìm hiểu về bảo hiểm tiền gửi Việt Nam
  • Phí bảo trì chung cư: Dân chung cư Hà Nội 'trầy da tróc vảy' đi đòi