当前位置:首页 > Nhà cái uy tín

【lịch dsas bóng hôm nay】Cảnh báo lừa đảo mở tài khoản ngân hàng bằng công nghệ trí tuệ nhân tạo

Một số ngân hàng thời gian qua đã phát đi thông báo đến khách hàng để cảnh báo về hình thức lừa đảo mới của các đối tượng lừa đảo trên không gian mạng. Trong đó,ảnhbáolừađảomởtàikhoảnngânhàngbằngcôngnghệtrítuệnhântạlịch dsas bóng hôm nay hình thức lừa đảo mới nhất là sử dụng công nghệ Deepfake - giả hình ảnh và giọng nói để giả mạo cán bộ cơ quan nhà nước (công an, cơ quan thuế, tòa án…) hoặc người quen của nạn nhân để gọi video call (cuộc gọi trực tiếp bằng hình) với nạn nhân.

Khi gọi video call, kẻ gian bằng các thủ đoạn khác nhau sẽ yêu cầu nạn nhân nhìn thẳng, nhìn sang trái, nhìn sang phải, nhìn lên, nhìn xuống. Đối tượng sẽ ghi lại video và sử dụng để mở tài khoản online (eKYC) tại các tổ chức tài chính - ngân hàng. Trong một số trường hợp, kẻ gian yêu cầu nạn nhân cung cấp thêm các thông tin cá nhân như số CMT/CCCD, số điện thoại, địa chỉ…

Khách hàng vô tình thực hiện theo yêu cầu này đã gián tiếp giúp đối tượng có dữ liệu để đăng ký mở tài khoản thành công. Cuối cùng, kẻ gian sẽ sử dụng các tài khoản này với mục đích xấu.

Trước đó, vào đầu tháng 6, nhiều ngân hàng khác cũng phát đi thông báo khuyến cáo người dùng nâng cao cảnh giác với các đối tượng lừa đảo sử dụng tài khoản mạng xã hội (Zalo, Facebook...) hoặc tạo tài khoản mạng xã hội giả danh người thân của nạn nhân, sau đó các đối tượng này thu thập thông tin cá nhân, hình ảnh, video có giọng nói có sẵn và sử dụng công nghệ Deepfake để tạo ra các video giả mạo.

Từ đó, các đối sử dụng tài khoản mạng xã hội giả mạo hoặc chiếm đoạt được để nhắn tin mượn tiền hay nhờ chuyển tiền hoặc thông báo người thân của nạn nhân gặp nguy hiểm nhằm yêu cầu chuyển tiền gấp…; đồng thời thực hiện cuộc gọi video mạo danh, phát video giả nhằm xác thực thông tin, tăng độ tin cậy để lừa nạn nhân chuyển tiền.

Ông Ngô Minh Hiếu (HieuPC), chuyên gia an ninh mạng Trung tâm Giám sát an toàn không gian mạng Quốc gia, đồng sáng lập tổ chức Chongluadao.vn cho biết, hiện nay, các đối tượng lừa đảo ngày càng tinh vi và khó kiểm soát do sử dụng kết hợp công nghệ AI. Trong đó, công nghệ sử dụng Deepfake thời gian gần đây nở rộ, khiến nhiều người bị sập bẫy lừa đảo vì không biết được đâu là người thật, người giả.

Cụ thể, cách đây 2 tháng, chị Nguyễn Thị Th. (ngụ ở phường Linh Tây, TP.Thủ Đức, TP.Hồ Chí Minh) đã bị lừa mất 20 triệu đồng với hình thức gọi video qua Facebook. Theo đó, đối tượng đã sử dụng công nghệ AI giả khuôn mặt và giọng nói để gọi điện cho chị Th. mượn tiền. Mặc dù đã gọi lại qua Facebook nhằm kiểm chứng, nhưng khi thấy mặt người bạn (dù lúc mờ và chập chờn và giọng nói giống), chị Th. đã tin và chuyển tiền.

分享到: