07/11/2023 07:37 GMT+7

Deepfake ngày càng tinh vi, giống thật đến 80%

Trước đây có thể nhận biết các video deepfake qua ngữ điệu, cử động môi và sự trùng khớp giữa nhân vật, bối cảnh, âm thanh. Hiện đã có những công cụ giúp tạo video giống thật đến 70-80%, dễ nhầm lẫn khi nhìn bằng mắt thường.

Việc sử dụng các công cụ deepfake dễ dàng, trong khi chưa có giải pháp nào để chặn lọc - Ảnh: HOÀNG NAM

Việc sử dụng các công cụ deepfake dễ dàng, trong khi chưa có giải pháp nào để chặn lọc - Ảnh: HOÀNG NAM

Cách sử dụng deepfake của các nhóm lừa đảo ngày càng tinh vi hơn, theo cảnh báo của Cục An toàn thông tin, Bộ Thông tin và Truyền thông tại họp báo thường kỳ ngày 6-11.

"Trước đây, có thể nhận biết các video deepfake qua ngữ điệu, cử động môi và sự trùng khớp giữa nhân vật, bối cảnh, âm thanh. Đến bây giờ đã có những công cụ giúp tạo video giống thật đến 70-80%, dễ nhầm lẫn khi nhìn bằng mắt thường", theo ông Nguyễn Phú Lương - phó giám đốc Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC), Cục An toàn thông tin.

Nhiều công cụ deepfake bao gồm cắt ghép khuôn mặt, dựng video từ ảnh, khớp nối âm thanh với chuyển động môi, là các phần mềm nguồn mở. Bất kỳ ai cũng có thể tiếp cận được các phần mềm này, và các video hướng dẫn sử dụng cũng sẵn có trên YouTube, Facebook.

Việc tạo ra video deepfake dễ dàng, trong khi đó gần như chưa có giải pháp nào để chặn lọc. 

"Bối cảnh chung trên thế giới là gặp khó khăn trong việc chặn lọc những video deepfake khỏi không gian mạng. Giải pháp hiện tại là cố gắng tuyên truyền, khuyến cáo người dân thận trọng với mọi thông tin tiếp cận được, luôn tuân thủ các nguyên tắc về an toàn thông tin", ông Lương cho biết.

Đầu tiên, người dùng mạng cần tìm cách kiểm chứng mọi thông tin nhận được bằng cách kiểm tra chéo giữa các nguồn khác nhau. Trong trường hợp nhận được video từ người thân với tình huống hoặc yêu cầu bất ngờ, hãy cố gắng kéo dài cuộc gọi video call để biết chắc đang nói chuyện với người thật chứ không phải đoạn video dựng sẵn. 

Sau đó, người dùng cần xác minh lại qua các kênh khác, ưu tiên các kênh trực tiếp hoặc gọi điện thoại qua mạng viễn thông.

Trong hầu hết các trường hợp, hình thức lừa đảo trực tuyến này nhằm lừa đảo tài chính. Do đó, khi người dân nhận được các cuộc gọi video liên quan đến yêu cầu chuyển tiền, vay mượn thì cần xác nhận kỹ và trong mọi trường hợp không chuyển tiền cho các số tài khoản lạ, kể cả tài khoản có tên giống với tên người thân, bạn bè.

"Có một số công cụ kiểm chứng video có phải deepfake hay không, ví dụ như Intel Fake Catcher hay Microsoft Video Authenticator", ông Lương cho biết.

Ngoài ra, khi nhìn bằng mắt thường có thể thấy khuôn mặt nhân vật trong video deepfake ít biểu cảm, ánh sáng kỳ lạ và bóng đổ không đúng vị trí, nhân vật không có các hành động đưa tay lên gãi mặt hoặc dụi mắt, vì các hành động này sẽ gây lỗi cho AI.

Cuộc gọi video Deepfake để lừa đảo ra sao?

Người nhận cuộc gọi Deepfake rất khó phân biệt thật giả và sập bẫy lừa đảo. Việc dùng cuộc gọi video Deepfake để lừa đảo ra sao?

Bình luận hay

Chia sẻ

Tuổi Trẻ Online Newsletters

Đăng ký ngay để nhận gói tin tức mới

Tuổi Trẻ Online sẽ gởi đến bạn những tin tức nổi bật nhất

Bình luận (0)
Tối đa: 1500 ký tự

Tin cùng chuyên mục

Đột phá phát triển từ công nghệ số

Việc thông qua Luật Công nghiệp công nghệ số, Luật Khoa học, công nghệ và đổi mới sáng tạo có thể là nền tảng pháp lý để phát triển công nghiệp công nghệ số quốc gia.

Đột phá phát triển từ công nghệ số

Năm trường đại học 'bắt tay' phát triển nhân lực

Liên minh Nhân lực chiến lược thực thi nghị quyết 57 nhằm góp phần nâng cao năng lực nghiên cứu, đổi mới sáng tạo và ứng dụng trí tuệ nhân tạo trong công tác đào tạo, quản trị và hoạch định chính sách.

Năm trường đại học 'bắt tay' phát triển nhân lực

Vì sao nhiều người vẫn chưa 'thân' với bếp từ?

Nhiều người kỳ vọng chuyển sang bếp từ sẽ tiện hơn, nhanh hơn. Nhưng đến lúc nấu, không ít người “lóng ngóng” với bảng cảm ứng, không biết phải sử dụng thế nào.

Vì sao nhiều người vẫn chưa 'thân' với bếp từ?

Robot AI đột ngột tấn công 2 người, lo sợ về 'cuộc nổi dậy của robot'

Robot hình người Unitree H1 tại một cơ sở thử nghiệm ở Trung Quốc mất kiểm soát, bất ngờ tấn công hai kỹ thuật viên.

Robot AI đột ngột tấn công 2 người, lo sợ về 'cuộc nổi dậy của robot'

Nhật Bản tạo ra pin có thể hoạt động 100 năm ngoài không gian

Nhật Bản đang nghiên cứu tạo ra hệ thống pin có thể liên tục tạo ra điện trong 100 năm trong điều kiện khắc nghiệt của không gian bên ngoài.

Nhật Bản tạo ra pin có thể hoạt động 100 năm ngoài không gian

VNG ghi nhận lợi nhuận thuần 185 tỉ đồng quý 1-2025

Lợi nhuận thuần từ hoạt động kinh doanh sau điều chỉnh của VNG đạt 185 tỉ đồng, tăng mạnh từ mốc chỉ 1 tỉ đồng của quý 1-2024.

VNG ghi nhận lợi nhuận thuần 185 tỉ đồng quý 1-2025
Tất cả bình luận (0)
Ý kiến của bạn sẽ được biên tập trước khi đăng, xin vui lòng viết bằng tiếng Việt có dấu.
Được quan tâm nhất
Mới nhất
Hiện chưa có bình luận nào, hãy là người đâu tiên bình luận về bài viết.
Tối đa: 1500 ký tự
Avatar
Đăng ký bằng email
Khi bấm "Đăng ký" đồng thời bạn đã đồng ý với điều khoản của toà soạn Đăng ký
Đăng nhập
Thông tin bạn đọc Thông tin của bạn đọc sẽ được bảo mật an toàn và chỉ sử dụng trong trường hợp toà soạn cần thiết để liên lạc với bạn.
Gửi bình luận
Đóng
Hoàn thành
Đóng

Bình luận (0)
Tối đa: 1500 ký tự
Tất cả bình luận (0)
Ý kiến của bạn sẽ được biên tập trước khi đăng, xin vui lòng viết bằng tiếng Việt có dấu.
Được quan tâm nhất
Mới nhất
Hiện chưa có bình luận nào, hãy là người đâu tiên bình luận về bài viết.
Tối đa: 1500 ký tự
Avatar