Hàn Quốc: Lo sợ deepfake, hàng loạt bức ảnh selfie "bốc hơi" khỏi mạng xã hội

Nhiều phụ nữ tại Hàn Quốc cho biết họ đã xóa mọi dấu vết của mình trên mạng xã hội vì lo ngại mình sẽ trở thành nạn nhân của deepfake.

Nội dung khiêu dâm giả mạo người khác tràn lan trong giới trẻ Hàn Quốc

Tiến bộ gần đây trong công nghệ video có tác động tiêu cực đến Hàn Quốc. Ngày càng nhiều thanh thiếu niên am hiểu công nghệ tạo ra nội dung khiêu dâm giả mạo (deepfake) của nhiều người - thường là bạn bè của họ - dù chưa được sự đồng ý từ người đó.

Chiêu lừa khiến nhiều người điêu đứng, Công an TP HCM cảnh báo

Kẻ gian âm thầm thu thập hình ảnh, clip có khuôn mặt của nạn nhân rồi dùng công nghệ cắt ghép thành clip "nhạy cảm" để tống tiền

Một số công cụ có thể giúp ngăn chặn nội dung deepfake khiêu dâm

Nội dung deepfake khiêu dâm là vấn đề lớn do trí tuệ nhân tạo (AI) tạo ra.

CEO OpenAI khoe Sora có khả năng tạo video từ văn bản tuyệt đỉnh

Sam Altman đang nhận đề nghị về Sora, mô hình trí tuệ nhân tạo (AI) hỗ trợ tạo video dựa trên gợi ý bằng văn bản. Trong các video do Giám đốc điều hành OpenAI chia sẻ trên mạng xã hội X, Sora có khả năng tạo ra các video rất chân thực, giống như thật.

Taylor Swift phẫn nộ vì bị phát tán ảnh khỏa thân do AI tạo ra

Ngày 25.1 (giờ địa phương), Page Six đưa tin nữ ca sĩ Mỹ Taylor Swiff phẫn nộ trước những hình ảnh giả mạo được tạo ra bởi trí tuệ nhân tạo (AI) đang phát tán trên mạng xã hội. Cô đang xem xét khởi kiện người đứng sau loạt ảnh giả này.

Lừa đảo deepfake và nguồn cung hình ảnh từ trò chơi ảnh chân dung AI

Ảnh chân dung trí tuệ nhân tạo từ trò chơi cho vui, cập nhật xu hướng hay sự vô tư “tiếp tay” tạo nguồn dữ liệu cho tội phạm mạng khai thác sử dụng trong deepfake trở thành công cụ lừa đảo.

Xử lý kẻ lạm dụng deepfake khiêu dâm như thế nào

Nghiên cứu của người đứng đầu chính sách và quan hệ đối tác của công ty AI Metaphysic chỉ ra rằng hàng triệu phụ nữ bị nhắm mục tiêu trên toàn thế giới.

Deepfake - 'Clip nóng giả mạo đã suýt hủy hoại cuộc đời tôi như thế nào?'

Cách đây hai năm, cô Noelle nhận được email trong đó có những clip "nóng" mà nhân vật chính trong clip... chính là cô. Noelle biết rằng thực sự cô không phải là người ở trong những clip ấy.

Clip deepfake - Lo ngại trước những clip "tưởng không thật mà... thật không tưởng"

Những clip này "không thật" bởi kỳ thực ngôi sao không hề xuất hiện trong đó, nhưng chúng lại được thực hiện chân thực đến mức gần như hoàn hảo và đánh lừa được rất nhiều người.

Từ vụ lộ clip đen: Deepfake ẩn chứa nhiều nguy hiểm vì sao giới trẻ vẫn mê?

Deepfake trong vài năm trở lại đây thực sự đã khiến vấn đề về hình ảnh, video trên Internet trở nên phức tạp hơn bao giờ hết.

Công cụ trí tuệ nhân tạo biến ảnh chân dung tĩnh thành video sống động

Một trang web tích hợp trí tuệ nhân tạo sử dụng công nghệ deepfake, cho phép biến những bức ảnh chân dung cũ thành những video sống động, với các cử chỉ trên gương mặt giống như thật.

Công cụ deepfake lột quần áo tạo ảnh khỏa thân trên Telegram gây hoang mang

Công cụ deepfake gây xôn xao trên ứng dụng Telegram với tính năng giả mạo ảnh khỏa thân từ ảnh phụ nữ có mặc quần áo.
HẠT GIỐNG TÂM HỒN
2019 Bản quyền thuộc về hatgiongtamhon.com.vn. Phát triển bởi ONECMS
Thứ 5, 21/11/2024