Những bức ảnh các cô gái đăng lên tài khoản mạng xã hội đang bị một bot deepfake giả mạo thành ảnh khỏa thân trên ứng dụng nhắn tin Telegram.
Theo báo cáo của công ty nghiên cứu Sensity (Hà Lan), các hình ảnh này được tạo bằng AI có thể loại bỏ hầu hết quần áo.
Hơn 100.000 hình ảnh tình dục không đồng thuận của 10.000 phụ nữ tạo bằng bot đã được chia sẻ trực tuyến từ tháng 7.2019 đến năm 2020.
Sensity cho biết phần lớn nạn nhân đều bị lấy ảnh cá nhân trên tài khoản mạng xã hội, trong đó có một số cô gái tuổi vị thành niên.
Hình thức deepfake khiêu dâm này không phải là mới. Công nghệ đằng sau bot đó được cho là dựa trên công cụ xuất hiện vào năm ngoái có tên là DeepNude. Dịch vụ trí tuệ nhân tạo trực tuyến này tương đối phức tạp để sử dụng, nhưng cho phép mọi người tải lên ảnh của một phụ nữ và AI sẽ xác định ảnh đó sẽ trông như thế nào nếu quần áo bị cởi bỏ.
Dịch vụ DeepNude đã bị xóa khỏi internet trong vòng 24 giờ sau khi trình làng, nhưng Sensity nghi ngờ rằng bot mới này dựa trên phiên bản bẻ khóa của công nghệ đó.
Sensity nói điều khiến bot này trở nên đáng sợ là dễ sử dụng vì chỉ yêu cầu người dùng tải lên hình ảnh của một phụ nữ, nhấp vào vài nút. Sau đó, nó sử dụng 'mạng lưới thần kinh' để xác định thứ gì sẽ nằm dưới lớp quần áo và cho ra ảnh khỏa thân.
Giorgio Patrini, Giám đốc điều hành Sensity và đồng tác giả của báo cáo nói với CNET: “Sự đổi mới ở đây không nhất thiết phải là AI dưới mọi hình thức. Thực tế là nó có thể tiếp cận rất nhiều người và rất dễ dàng".
Thuật ngữ Deepfake là sự kết hợp giữa deep learning và fake. Công nghệ này được xây dựng trên nền tảng machine learning mã nguồn mở của Google. Deepfake sẽ quét video và ảnh chân dung của một người, sau đó hợp nhất với video riêng biệt nhờ trí tuệ nhân tạo (AI) và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để học. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc, từng được sử dụng để thao túng các cuộc bầu cử, tạo nội dung khiêu dâm và quảng bá thông tin sai lệch.
Giorgio Patrini nói rằng hành vi lấy ảnh cá nhân và biến thành khỏa thân là tương đối mới, khiến bất kỳ ai có tài khoản mạng xã hội đều gặp rủi ro.
Bot deepfake chạy trên Telegram, nền tảng này thúc đẩy mạnh mẽ ý tưởng tự do ngôn luận. Quản trị viên bot (được gọi là P) nói với BBC rằng dịch vụ này hoàn toàn để giải trí và nó “không mang tính xâm hại”.
“Không ai sẽ tống tiền bất cứ ai bằng điều này vì chất lượng không thực tế. Mọi hình ảnh cô gái tuổi vị thành niên sẽ bị xóa và người tạo sẽ bị chặn”, P chia sẻ.
Mạng lưới bot, nơi các hình ảnh khỏa thân giả được tạo và chia sẻ, có hơn 100.000 thành viên, chủ yếu ở Nga hoặc Đông Âu.
Khoảng 70% hình ảnh được sử dụng trong Telegram đến từ mạng xã hội hoặc các nguồn cá nhân, chẳng hạn ảnh của bạn bè hoặc những ai mà người dùng biết.
“Ngay sau khi bạn chia sẻ hình ảnh hoặc video của mình và có thể bạn không ý thức về tính riêng tư của nội dung này, ai có thể xem, ai có thể đánh cắp, ai có thể tải xuống mà bạn không biết. Điều đó thực sự mở ra khả năng bạn đang bị tấn công”, Giorgio Patrini nói với trang Buzzfeed News.
Bot deepfake này chủ yếu được quảng cáo trên mạng xã hội VK (Nga). VK cho biết không dung dưỡng nội dung đó và sẽ xóa khi tìm thấy.
Giorgio Patrini nói với BBC: “Nhiều trang web hoặc ứng dụng này không ẩn hoặc hoạt động ngầm vì chúng bị pháp luật kiểm soát nghiêm ngặt. Cho đến khi điều đó xảy ra, tôi e rằng nó sẽ chỉ trở nên tồi tệ hơn”.
Các tác giả cũng lo ngại rằng khi công nghệ deepfake được cải thiện, kẻ xấu có thể sử dụng những bot này để tống tiền phụ nữ.
Dù hầu hết các vụ deepfake trước đây đến nay đều tập trung vào những người nổi tiếng hoặc chính trị gia, người dùng bot này dường như quan tâm hơn đến ảnh những người họ biết.
Theo Sensity, một cuộc khảo sát cho thấy 63% số người sử dụng bot
deepfake trên Telegram để tìm hiểu về những phụ nữ mà họ biết sẽ trông như thế nào khi không mặc quần áo.
Các tác giả báo cáo này đã chia sẻ phát hiện của mình với các cơ quan thực thi pháp luật, VK và Telegram nhưng chưa nhận được bất kỳ phản hồi nào.
Bà Nina Shick, tác giả cuốn sách Deep Fakes và Infocalypse, cho biết: “Hệ thống pháp luật của Anh không quan tâm động cơ về vấn đề này. Thật là kinh khủng với những nạn nhân của phim khiêu dâm giả. Nó hoàn toàn có thể khiến họ mất mạng vì cảm thấy bị xâm hại và sỉ nhục”.