ChatGPT đã từ chối 250.000 yêu cầu deepfake bầu cử

Rất nhiều người đã cố gắng sử dụng trình tạo hình ảnh DALL-E của OpenAI trong mùa bầu cử, nhưng công ty cho biết họ có thể ngăn họ sử dụng nó như một công cụ để tạo ra các tác phẩm deepfake. ChatGPT đã từ chối hơn 250.000 yêu cầu tạo hình ảnh với Tổng thống Biden, Tổng thống đắc cử Trump, Phó Tổng thống Harris, Phó Tổng thống đắc cử Vance và Thống đốc Walz, OpenAI cho biết trong một báo cáo mới. Công ty giải thích rằng đó là kết quả trực tiếp của một biện pháp an toàn mà họ đã triển khai trước đó để ChatGPT từ chối tạo hình ảnh với người thật, bao gồm cả các chính trị gia.

OpenAI đã chuẩn bị cho cuộc bầu cử tổng thống Mỹ từ đầu năm. Nó đưa ra một chiến lược nhằm ngăn chặn việc sử dụng các công cụ của mình để giúp truyền bá thông tin sai lệch và đảm bảo rằng những người hỏi ChatGPT về việc bỏ phiếu ở Hoa Kỳ sẽ được chuyển hướng đến CanIVote.org. OpenAI cho biết 1 triệu phản hồi ChatGPT đã hướng mọi người đến trang web trong tháng trước ngày bầu cử. Chatbot này cũng tạo ra 2 triệu phản hồi vào ngày bầu cử và ngày hôm sau, yêu cầu những người yêu cầu kết quả kiểm tra Associated Press, Reuters và các nguồn tin tức khác. OpenAI cũng đảm bảo rằng các câu trả lời của ChatGPT “không bày tỏ sở thích chính trị hoặc đề xuất ứng viên ngay cả khi được hỏi một cách rõ ràng”.

Tất nhiên, DALL-E không phải là công cụ tạo hình ảnh AI duy nhất hiện có và có rất nhiều nội dung giả mạo sâu liên quan đến bầu cử đang lan truyền trên mạng xã hội. Một trong những deepfake như vậy đã giới thiệu Kamala Harris trong một video chiến dịch đã được thay đổi để cô ấy nói những điều mà cô ấy thực sự không nói, chẳng hạn như “Tôi được chọn vì tôi là người được tuyển dụng đa dạng nhất.”

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *