Cập nhật:  GMT+7

Công nghệ phát hiện “trị” deepfake

Một “ngành công nghiệp nhỏ” gồm các startup chuyên phát hiện deepfake đang hình thành, chuyên phát triển công cụ AI này nhằm chống lại các nội dung giả, tạo bởi AI.

Vào một ngày giữa tháng 4, Gaby Del Valle, phóng viên mảng chính sách của The Verge, đã tạo một video với giọng nói và hình ảnh của cô, sau đó gửi cho bố của mình. “Bố tôi gần như ngay lập tức nhận ra điều bất thường vì giọng nói nghe như robot”, Valle chia sẻ.

Valle cho biết cô đã sử dụng Reality Defender, một công cụ cho phép người dùng tạo cũng như phát hiện các deepfake khác. Dù kết quả chưa hoàn hảo do đường truyền kém, hệ thống chỉ cần 9 giây âm thanh thu thập từ các bài đăng cũ của cô để tạo ra một tác nhân AI duy trì cuộc hội thoại.

Sự ra đời của các ứng dụng dạng này đã khiến việc tạo ra âm thanh, video và hình ảnh giả mạo trở nên dễ dàng hơn bao giờ hết. Tuy nhiên, cũng có những sản phẩm ra đời để chống lại, như Pindrop Security, GetReal và cả Reality Defender. Theo số liệu do hãng kiểm toán Deloite công bố cuối năm 2024, quy mô thị trường ở lĩnh vực này đạt 5,5 tỷ USD và đang có xu hướng tăng mạnh.

Công nghệ phát hiện trị deepfakeMinh họa về “cuộc chiến deepfake AI chống AI”. Ảnh: Gemini

Những phần mềm dạng này sử dụng máy học để xác định các nội dung giả mạo hoặc bị thao túng bằng AI. Chẳng hạn, Reality Defender đang sử dụng AI suy luận để phát hiện deepfake được gọi là “mô hình thầy - trò”.

“Chúng tôi lấy một loạt thứ thật và nói: “Đây là thật”, rồi lấy một loạt thứ giả và nói “Đây là giả”, rồi tiến hành huấn luyện”, Alex Lisle, Giám đốc Công nghệ của Reality Defender cho biết. “Cách duy nhất để tiêu diệt deepfake là phải tạo ra được những phiên bản còn tinh vi hơn để dạy hệ thống cách bắt bài chúng”.

Deepfake là công nghệ sử dụng thuật toán học sâu để tạo ra nội dung giả mạo khuôn mặt và âm thanh như người thật. Trong thử nghiệm của Valle, tuy chưa thể đánh lừa người thân, các chuyên gia cho rằng chừng đó đã đủ để đánh lừa đồng nghiệp hoặc hệ thống xác minh của ngân hàng, tổ chức tài chính.

Nicholas Holland, Giám đốc sản phẩm tại công ty bảo mật thông tin Pindrop Security, cho biết nếu như cách đây 1-2 năm, người dùng có thể sử dụng các mẹo kiểm tra thủ công như yêu cầu đối phương giơ ba ngón tay trước camera để kiểm tra. Nhưng giờ đây, cách làm này vô dụng bởi AI đã có thể mô phỏng cả cử chỉ này một cách hoàn hảo.

“Giờ đây, gần như không thể phân biệt deepfake bằng mắt thường được nữa”, Holland cho biết. “Chỉ có những công cụ phát hiện bằng AI mới có thể làm điều đó tốt hơn”.

Nhưng công cụ phát hiện chưa thể đảm bảo an toàn tuyệt đối. Theo Holland, nếu như người thân có thể phát hiện ra giọng của một thành viên trong gia đình dễ dàng, chẳng hạn trường hợp của Valle, môi trường xã hội phức tạp hơn nhiều. “Tôi nghĩ, thách thức “làm thế nào để bảo vệ danh tính cá nhân” giờ đây không quan trọng bằng 'làm thế nào để tổ chức nơi tôi làm việc biết đó là tôi”, ông nói.

Lisle cho biết, AI ngày càng được cải tiến, các cuộc tấn công càng tốn ít công sức hơn. Trước đây, những kẻ lừa đảo thường giả mạo một CEO duy nhất, nhưng hiện nhắm mục tiêu vào nhân viên ở mọi cấp bậc trong công ty. Ông kể lại, Reality Defender từng xử lý một sự cố mà trong đó, kẻ gian vào LinkedIn lấy tên của tất cả nhân viên, sau đó thu thập các dữ liệu khác từ TikTok và Facebook để tạo ra “kho thông tin” giọng nói của từng người. Tất cả được đưa vào một hệ thống LLM dùng để gọi điện cho nhân viên ở mọi cấp bậc với mục đích lừa đảo.

Thực tế, tội phạm mạng hiện nay không còn nhắm vào cá nhân đơn lẻ. Thay vào đó, chúng chuyển sang các chiến dịch lừa đảo quy mô lớn. Theo Báo cáo Xu hướng Deepfake 2024 của Regula Forensics, trung bình mỗi vụ lừa đảo deepfake khiến doanh nghiệp thất thoát khoảng 450.000 USD, thậm chí gây thiệt hại một triệu USD trong một giao dịch duy nhất.

Nguy hiểm nhất là kịch bản đánh vào tâm lý khẩn cấp như giả giọng người thân gọi điện cầu cứu hoặc dàn dựng bắt cóc đòi tiền chuộc. Dù giọng nói có thể chưa hoàn hảo, các yếu tố cảm xúc như tiếng khóc hay sự hoảng loạn giả tạo từ AI vẫn đủ sức khiến nạn nhân mất cảnh giác trong tích tắc.

“Nhiều người không nhận thức được mối đe dọa, vì thế họ không biết cách tìm giải pháp”, Holland đánh giá. "Điểm khởi đầu nằm ở các doanh nghiệp phục vụ người tiêu dùng. Họ cần tạo hệ thống phát hiện đủ nhanh, chính xác và đáng tin cậy để mọi người có thể dựa vào trong cuộc sống hàng ngày".

Theo TechCrunch, về lâu dài, việc chạy đua bắt lỗi deepfake không còn là giải pháp khả thi mà đặt trọng tâm vào truy vết và định danh nguồn gốc dữ liệu. Khi công nghệ mô phỏng đạt đến mức gần như hoàn hảo, các phương pháp dò quét truyền thống bị vô hiệu hóa, buộc giới công nghệ phải đẩy mạnh tiêu chuẩn C2PA giúp phân biệt hình ảnh và video thật với nội dung giả mạo do AI tạo ra để xác thực nội dung nguồn.

Dù vậy, C2PA vẫn chưa phải là giải pháp tối ưu, khi lớp nhãn xác thực (Content Credentials) có thể dễ dàng bị xóa bỏ hoặc làm giả trong quá trình truyền tải. Sự thiếu đồng bộ giữa các hãng sản xuất thiết bị và nền tảng mạng xã hội dẫn tới hệ quả là một vòng lặp gây nhiễu: Tệp tin không nhãn chưa chắc là deepfake, nhưng có nhãn cũng không đồng nghĩa với an toàn tuyệt đối cho người dùng.

Scott Steinhardt, Trưởng bộ phận truyền thông của Reality Defender, kỳ vọng các nhà cung cấp Internet và trình duyệt sẽ sớm vận hành bộ lọc deepfake tự động như trình diệt virus, ngăn chặn nội dung giả mạo trước khi chúng tiếp cận người dùng.

“AI đang phá bỏ ranh giới lòng tin vốn tồn tại suốt hàng nghìn năm dựa trên mắt thấy tai nghe, buộc chúng ta phải xây dựng lại nó trên nền tảng công nghệ”, Lisle kết luận.

Theo Vnexpress


Theo Vnexpress

 Từ khóa:
 {name} - {time}
{body}
 {name} - {time}
{body}

0 bình luận

Ý kiến của bạn sẽ được biên tập trước khi đăng. Vui lòng gõ tiếng Việt có dấu

Xem thêm

Tin liên quan

Gợi ý

POWERED BY
Việt Long