Deepfake là công nghệ được biết đến nhiều nhất với tác dụng tái tạo lại khuôn mặt của người trong video nhờ sử dụng trí tuệ nhân tạo (AI). Ban đầu, công nghệ này được sinh ra cho mục đích giải trí, giúp người dùng lồng khuôn mặt, giọng nói của mình vào các nhân vật yêu thích trên video mà vẫn đảm bảo hoạt động giống như được quay thực tế. Tuy nhiên, giới tội phạm nhanh chóng lợi dụng ưu điểm đó để tạo ra công cụ giả mạo người khác, giúp chúng thực hiện các vụ lừa đảo, hoặc lan truyền tin thất thiệt trên mạng.
Trường hợp chị V.T.M, (26 tuổi, đang sinh sống tại Long Biên - Hà Nội) nhận được tin nhắn mượn tiền từ tài khoản Facebook của một người thân bên nước ngoài nhắn đến Facebook với nội dung nhờ chuyển tiền vào một số tài khoản 75 triệu đồng. Lúc này, chị M nghĩ đây là người thân trong nhà nên không chần chừ chuyển tiền. Chị M cho biết, Khi nhận được tin nhắn hỏi vay tiền của người thân, bản thân cũng đã cẩn thận gọi video lại để kiểm tra xác thì thấy hình ảnh đúng là bạn mình. Chị M đã tin tưởng chuyển khoản luôn cho bạn vay. Nhưng đến tối, thấy trên trang cá nhân của người thân đăng bài thông báo việc bị kẻ gian hack nick facebook để hỏi vay tiền một số bạn bè và người thân. Chị M gọi điện lại cho bạn thì bạn mình xác nhận đấy chính là kẻ xấu lừa đảo. Khi chị M gọi xác nhận, phía đầu dây bên kia vẫn hiện lên khuôn mặt và giọng nói của người thân. Tuy nhiên, âm thanh rất khó nghe, hình ảnh cũng nhòe giống như sóng chập chờn, thế nhưng cách xưng hô hoàn toàn chính xác, đúng âm điệu và cách xưng hô.
Ngoài ra, còn xuất hiện đối tượng sử dụng công nghệ “deepfake” cố tình chèn khuôn mặt của một ai đó trong lực lượng Công an nhân dân đang thi hành công vụ có mặc trang phục ngành và bật camera để làm việc với nạn nhân để tạo sự tin tưởng và yêu cầu nạn nhân làm theo những hướng dẫn của đối tượng lừa đảo để cung cấp thông tin và đưa ra yêu cầu nhằm chiếm đoạt tài sản của nạn nhân.
Ảnh: Công nghệ deepfake được các đối tượng xấu sử dụng vào mục đích lừa đảo
Dưới đây là một số dấu hiệu nhận biết một cuộc gọi là deepfake:
+ Thời gian cuộc gọi thường rất ngắn, chỉ vài giây rồi tắt máy, lấy lý do “sóng yếu, mạng chập chờn” để từ chối tiếp tục nói chuyện.
+ Khuôn mặt người gọi thiếu cảm xúc và khá “trơ” khi nói; tư thế lúng túng, thiếu tự nhiên; hướng đầu và cơ thể không nhất quán với nhau; chuyển động mắt không tự nhiên.
+ Các chi tiết như màu da, tóc, răng của nhân vật trong video không giống thật, ánh sáng kỳ lạ, bóng đổ không đúng vị trí.
+ Âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào video hoặc video không có âm thanh.
"Vì vậy, nếu để ý kỹ có thể phát hiện ra được. Bạn không nên tin vào các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, giọng nói không trơn tru hoặc quá đều đều, không ngắt nghỉ", liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác xem có đúng là họ cần tiền không. Trong những clip đó, khuôn mặt nhân vật thường khá "cứng" và ít cảm xúc hơn tự nhiên, hình thể cũng hạn chế di chuyển so với clip thông thường theo khuyến cáo của các chuyên gia. Ngoài ra, chuyên gia cũng khuyến cáo không nên sử dụng các ứng dụng trò chơi mà họ yêu cầu cung cấp gương mặt một cách chi tiết với những chuyển động qua lại hay chớp mắt của chúng ta để tạo nên những bức ảnh với gương mặt trở nên già đi hay trẻ hơn mang tính giải trí, vì đối tượng xấu có thể hack được những ứng dụng để lấy thông tin khuôn mặt chuyển động của chúng ta để lồng ghép vào các video với mục đích lừa đảo.
Tóm lại, bên cạnh điểm ưu mà công nghệ Deepfake mang lại cho các lĩnh vực như truyền thông, giải trí, trò chơi… thì công nghệ này cũng có thể được sử dụng để lừa đảo trên Internet và lan tỏa những thông tin giả. Vì vậy, các cơ quản lý Việt Nam cần có các biện pháp thích hợp để ngăn chặn việc lạm dụng công nghệ Deepfake, trước mắt cần phải sửa đổi các quy định pháp luật.
Lê Vũ Kỳ
Phòng 1, VKSND TP Cần Thơ