09/07/2025 13:03 GMT+7

Lừa đảo bằng deepfake voice ngày càng tinh vi, phải làm sao?

Công nghệ deepfake voice cho phép giả giọng giống hệt người thật, khiến nhiều người sập bẫy vì tin vào giọng nói quen thuộc.

Deepfake Voice - Ảnh 1.

Chiêu trò lửa đảo bằng cách giả giọng nói với deepfake voice

Trong thời đại trí tuệ nhân tạo phát triển nhanh chóng, giọng nói - một trong những yếu tố từng được xem là bằng chứng xác thực - nay đã trở thành công cụ nguy hiểm trong tay kẻ xấu. Công nghệ deepfake voice cho phép giả mạo giọng nói giống hệt người thật, tạo ra những cuộc gọi mạo danh tinh vi nhằm lừa đảo chiếm đoạt tài sản. 

Vì sao deepfake voice đáng sợ?

Deepfake voice là công nghệ ứng dụng trí tuệ nhân tạo (AI) và machine learning để tạo ra giọng nói giả nhưng giống hệt giọng của một người thật. 

Với sự hỗ trợ của các mô hình hiện đại như Tacotron, WaveNet, ElevenLabs hoặc các nền tảng clone giọng như Respeecher, kẻ gian chỉ cần từ 3 - 10 giây mẫu giọng là có thể tạo ra một bản deepfake đáng tin đến 95%.

Deepfake voice trở nên đặc biệt nguy hiểm vì khả năng bắt chước giọng nói gần như hoàn hảo, từ cách phát âm, ngữ điệu cho đến cả những tật nói riêng của từng người. 

Điều này khiến nạn nhân rất khó phân biệt thật - giả, đặc biệt khi giọng nói đó là của người thân, bạn bè hay cấp trên họ.

Việc khai thác giọng nói cũng rất dễ dàng, khi ngày nay hầu hết mọi người đều để lộ âm thanh qua các nền tảng như TikTok, livestream trên mạng xã hội, podcast, hay các cuộc họp trực tuyến. Đáng lo ngại hơn, deepfake voice không để lại dấu vết trực quan như hình ảnh hay video, khiến việc điều tra trở nên khó khăn và nạn nhân dễ bị mất tiền oan uổng.

Lừa đảo bằng deepfake voice ngày càng tinh vi, phải làm sao? - Ảnh 2.

Chỉ cần vài giây mẫu giọng nói là đã có thể tạo ra một bản deepfake

Các vụ lừa đảo bằng công nghệ deepfake voice đang ngày càng tinh vi, thường sử dụng một kịch bản quen thuộc: giả giọng người quen trong tình huống khẩn cấp để tạo tâm lý hoang mang và thúc ép nạn nhân chuyển tiền ngay lập tức. 

Tại Việt Nam, đã có trường hợp một người mẹ nhận được cuộc gọi từ "con trai" thông báo bị tai nạn và cần tiền gấp. Ở Anh, một giám đốc công ty bị lừa hơn 240.000 USD sau khi nghe "sếp" yêu cầu chuyển tiền qua điện thoại. Một nhân viên hành chính cũng bị đánh lừa khi nhận cuộc gọi từ "sếp lớn" yêu cầu thanh toán cho một "đối tác chiến lược"...

Điểm chung trong các tình huống này là giọng nói giả được tái hiện giống hệt người thân, cấp trên, khiến nạn nhân tin tưởng tuyệt đối và không có thời gian để xác minh.

Luôn xác minh, đừng tin ngay

Trước sự gia tăng số vụ lừa đảo bằng deepfake voice, người dân được khuyến cáo không nên chuyển tiền chỉ dựa vào giọng nói qua điện thoại, dù giọng đó nghe giống hệt người thân. Thay vào đó, hãy gọi lại số cũ hoặc kiểm tra thông tin qua nhiều kênh khác nhau trước khi thực hiện bất kỳ giao dịch nào. 

Nhiều chuyên gia cũng khuyến nghị nên thiết lập "mật khẩu nội bộ" trong gia đình hoặc doanh nghiệp để xác minh trong những tình huống bất thường. 

Ngoài ra, cần hạn chế đăng tải các video có giọng nói rõ ràng lên mạng xã hội, đặc biệt là nội dung dài. Đặc biệt, nên chủ động cảnh báo và hướng dẫn nhóm đối tượng dễ bị tổn thương như người lớn tuổi hoặc ít tiếp xúc với công nghệ, vì đây là mục tiêu ưu tiên của các vụ lừa đảo bằng công nghệ cao.

Deepfake Voice - Ảnh 3.

Từ giọng nói của người thân, bạn bè, đồng nghiệp đều có thể bị làm giả

Tại nhiều quốc gia, cơ quan chức năng đã bắt đầu siết chặt quản lý công nghệ deepfake bằng khung pháp lý riêng. 

Tại Mỹ, một số bang đã ban hành lệnh cấm sử dụng deepfake trong các chiến dịch bầu cử hoặc truyền tải thông tin sai lệch. Liên minh châu Âu (EU) thông qua Đạo luật AI (AI Act), yêu cầu các tổ chức phải minh bạch và cảnh báo rõ ràng nếu một nội dung được tạo ra bởi trí tuệ nhân tạo.

Trong khi đó, tại Việt Nam, dù chưa có quy định cụ thể dành cho deepfake voice, các hành vi liên quan có thể bị xử lý theo luật hiện hành, với các tội danh như lừa đảo chiếm đoạt tài sản, xâm phạm quyền riêng tư, hoặc giả mạo danh tính. 

Tuy nhiên, thực tế cho thấy công nghệ đang phát triển với tốc độ vượt xa năng lực giám sát của luật pháp, để lại nhiều lỗ hổng mà các đối tượng xấu có thể lợi dụng.

Khi giọng nói không còn là bằng chứng

Giọng nói từng là thứ gắn bó mật thiết, đáng tin nhưng với deepfake voice, nó đã không còn là bằng chứng xác thực. Trong thời đại AI, mỗi cá nhân cần có kiến thức phòng vệ số, chủ động xác minh và luôn cảnh giác vì một cuộc gọi có thể là bẫy.

Lừa đảo và deepfake nguy hiểm khôn lường nhờ AI

Cứ 5 phút sẽ có một cuộc tấn công deepfake xảy ra trong năm 2025. Chỉ với vài giây, AI có thể tạo ra các bản audio y hệt giọng nói của bạn bè hoặc người thân, hay các video giả mạo chỉ từ một bức ảnh duy nhất.

Bình luận hay

Chia sẻ

Tuổi Trẻ Online Newsletters

Đăng ký ngay để nhận gói tin tức mới

Tuổi Trẻ Online sẽ gởi đến bạn những tin tức nổi bật nhất

Bình luận (0)
Tối đa: 1500 ký tự

Tin cùng chuyên mục

Chế độ ẩn danh không riêng tư như bạn vẫn nghĩ

Nhiều người tin rằng mở chế độ ẩn danh là đủ để che giấu mọi dấu vết khi truy cập Internet. Nhưng thực tế, bạn đang ẩn danh với ai, và liệu có thực sự 'ẩn' như tên gọi?

Chế độ ẩn danh không riêng tư như bạn vẫn nghĩ

Đề xuất đầu tư siêu trung tâm dữ liệu trị giá 2 tỉ đô la tại TP.HCM

TP.HCM nhận đề xuất về dự án siêu trung tâm dữ liệu trị giá khoảng 2 tỉ USD từ các nhà đầu tư với những cổ đông tên tuổi.

Đề xuất đầu tư siêu trung tâm dữ liệu trị giá 2 tỉ đô la tại TP.HCM

71.000 tài khoản được Đà Nẵng cấp cho bộ máy chính quyền 2 cấp, tốc độ Internet ở xã tăng 2-3 lần

Thống kê đến chiều 9-7, bộ máy chính quyền 2 cấp ở Đà Nẵng đã cấp 71.000 tài khoản cho cán bộ viên chức xử lý công việc.

71.000 tài khoản được Đà Nẵng cấp cho bộ máy chính quyền 2 cấp, tốc độ Internet ở xã tăng 2-3 lần

Công an TP.HCM: Cẩn trọng với ‘mặt trái’ của công nghệ tạo video AI Veo 3

Dù chưa ghi nhận trường hợp bị lừa đảo bởi công nghệ tạo video AI Veo 3, Công an TP.HCM đề nghị người dân nâng cao cảnh giác vì công nghệ này có thể bị kẻ xấu lợi dụng để thực hiện các hành vi vi phạm pháp luật.

Công an TP.HCM: Cẩn trọng với ‘mặt trái’ của công nghệ tạo video AI Veo 3

Xem danh mục dịch vụ công trực tuyến tại TP.HCM

UBND TP.HCM vừa có quyết định công bố danh mục dịch vụ công trực tuyến tại TP.HCM được cung ứng trên Cổng dịch vụ công quốc gia (tạm thời).

Xem danh mục dịch vụ công trực tuyến tại TP.HCM

4.000 CEO, nhà sáng lập, 100 start-up, 300 đơn vị sẽ tham dự InnoEx 2025

4.000 CEO, nhà sáng lập, 300 đơn vị triển lãm, hơn 100 start-up cùng hơn 70 quỹ đầu tư và tổ chức tài chính sẽ tham dự InnoEx 2025.

4.000 CEO, nhà sáng lập, 100 start-up, 300 đơn vị sẽ tham dự InnoEx 2025
Tất cả bình luận (0)
Ý kiến của bạn sẽ được biên tập trước khi đăng, xin vui lòng viết bằng tiếng Việt có dấu.
Được quan tâm nhất
Mới nhất
Hiện chưa có bình luận nào, hãy là người đâu tiên bình luận về bài viết.
Tối đa: 1500 ký tự
Avatar
Đăng ký bằng email
Khi bấm "Đăng ký" đồng thời bạn đã đồng ý với điều khoản của toà soạn Đăng ký
Đăng nhập
Thông tin bạn đọc Thông tin của bạn đọc sẽ được bảo mật an toàn và chỉ sử dụng trong trường hợp toà soạn cần thiết để liên lạc với bạn.
Gửi bình luận
Đóng
Hoàn thành
Đóng

Bình luận (0)
Tối đa: 1500 ký tự
Tất cả bình luận (0)
Ý kiến của bạn sẽ được biên tập trước khi đăng, xin vui lòng viết bằng tiếng Việt có dấu.
Được quan tâm nhất
Mới nhất
Hiện chưa có bình luận nào, hãy là người đâu tiên bình luận về bài viết.
Tối đa: 1500 ký tự
Avatar