Thứ Bảy, 27/04/2024 16:52 GMT+7
  • ANTV
  • Hotline: 0692324026
  • Email: news@antv.gov.vn

Nhân Văn - Tin Cậy - Kịp Thời - Hấp dẫn

Sự kiện
#deepfake
Giả khuôn mặt giọng nói để lừa đảo

Giả khuôn mặt giọng nói để lừa đảo

Pháp luật 14/03/2024

(ANTV) - Những năm gần đây, công nghệ sinh trắc học, đặc biệt là dấu vân tay và khuôn mặt đã trở thành xu hướng phát triển mạnh mẽ trong nhiều lĩnh vực, trong đó có ngành ngân hàng. Tuy nhiên, sự phổ biến của các công nghệ này cũng mang đến những rắc rối nhất định. Nên nhiều đối tượng lừa đảo đã lợi dụng để lừa đảo chiếm đoạt tài sản.

Cảnh giác trước cuộc gọi lừa đảo "Deepfake"

Cảnh giác trước cuộc gọi lừa đảo "Deepfake"

Kinh tế 26/07/2023

(ANTV) - Việc trao đổi trực tuyến qua hình thức cuộc gọi hình ảnh hay video call đã hết sức phổ biến. Đây được xem là một hình thức đáng tin cậy khi người dùng thấy được hình ảnh, âm thanh của người giao tiếp. Song, cùng với sự phát triển của công nghệ Deepfake, các đối tượng đã sử dụng công nghệ trí tuệ nhân tạo tạo ra những video hoặc hình ảnh giả, sao chép chân dung từ đó tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến. Trước sự gia tăng của hình thức lừa đảo này, mới đây, Bộ Công an cũng đã đưa ra khuyến cáo người dân để nhận diện và phòng ngừa.

Cảnh giác: Giả danh công an gọi video lừa người dân kích hoạt định danh tài khoản ngân hàng

Cảnh giác: Giả danh công an gọi video lừa người dân kích hoạt định danh tài khoản ngân hàng

Pháp luật 23/07/2023

(ANTV) - Hiện nay, việc các đối tượng giả danh công an gọi video Zalo, facetime để lừa đảo làm định danh tài khoản ngân hàng của người dân là một hình thức lừa đảo mới. Các đối tượng sử dụng công nghệ deepfake, tạo ra một cán bộ công an rồi yêu cầu nạn nhân làm theo hướng dẫn.Vì nhẹ dạ cả tin, nhiều người đã sập bẫy.