Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Thế giới cần 'cảnh giác' khi công nghệ AI được cải thiện và deepfakes lan rộng: cố vấn của Liên Hợp Quốc

Một cố vấn của Liên Hợp Quốc cho biết thế giới cần phải "cảnh giác" khi công nghệ trí tuệ nhân tạo được cải thiện, cho phép tạo ra các tác phẩm deepfakes trông giống thật hơn.

Deepfakes đề cập đến phương tiện truyền thông, điển hình là video hoặc âm thanh, được điều khiển bằng AI để mô tả sai một người nói hoặc làm điều gì đó chưa từng xảy ra trong đời thực.

"Bản sao kỹ thuật số về cơ bản là bản sao của một thứ gì đó từ thế giới thực... Deepfakes là hình ảnh phản chiếu của bản sao kỹ thuật số, nghĩa là ai đó đã tạo một bản sao kỹ thuật số mà không có sự cho phép của người đó và thường nhằm mục đích xấu, thường là để lừa ai đó, " Chuyên gia AI có trụ sở tại California, Neil Sahota, người từng là cố vấn AI cho Liên Hợp Quốc, nói với CTVNews.ca qua điện thoại vào thứ Sáu.

Deepfakes đã được sử dụng để sản xuất nhiều loại nội dung tin tức giả mạo, chẳng hạn như một nội dung được cho là cho thấy Tổng thống Ukraine Volodymyr Zelenskyy yêu cầu đất nước của ông đầu hàng Nga. Những kẻ lừa đảo cũng đã sử dụng deepfakes để tạo ra sự chứng thực giả của người nổi tiếng. Trong một trường hợp, một phụ nữ ở Ontario đã mất 750.000 đô la sau khi xem một video deepfake về Elon Musk xuất hiện để quảng bá một vụ lừa đảo đầu tư.

Ngoài các trò gian lận và tin tức giả mạo, Sahota lưu ý rằng deepfakes cũng đã được sử dụng rộng rãi để tạo nội dung khiêu dâm không có sự đồng thuận. Tháng trước ở Quebec, một người đàn ông đã bị kết án tù vì tạo ra hình ảnh lạm dụng tình dục trẻ em nhân tạo, sử dụng hình ảnh trẻ em thật trên mạng xã hội.

"Chúng tôi nghe những câu chuyện về những người nổi tiếng, nó thực sự có thể được thực hiện với bất kỳ ai. Và deepfake thực sự bắt đầu trong phim khiêu dâm trả thù," anh nói. "Bạn thật sự phải đề phòng."

Sahota nói rằng mọi người cần phải chú ý đến các video và âm thanh bị tắt, vì đó có thể là dấu hiệu của phương tiện truyền thông  bị thao túng.

"Bạn phải có một con mắt cảnh giác. Nếu đó là một video, bạn phải tìm những thứ kỳ lạ, như ngôn ngữ cơ thể, bóng kỳ lạ, đại loại như vậy. Đối với âm thanh, bạn phải hỏi… 'Họ có nói những điều họ thường nói không? Họ có vẻ khác thường không? Có điều gì đó không ổn à?'", anh giải thích.

Đồng thời, Sahota nói rằng các nhà hoạch định chính sách cần phải làm nhiều hơn nữa khi nói đến việc giáo dục công chúng về sự nguy hiểm của deepfakes và cách phát hiện ra chúng. Anh cũng gợi ý rằng nên có một hệ thống xác minh nội dung sử dụng mã thông báo kỹ thuật số để xác thực phương tiện và loại bỏ deepfakes.

"Ngay cả những người nổi tiếng cũng đang cố gắng tìm ra cách tạo ra một con dấu đáng tin cậy, một số loại mã thông báo hoặc hệ thống xác thực để nếu bạn có bất kỳ hình thức tương tác không trực tiếp nào, bạn sẽ có cách để xác minh," anh nói. "Đó là những gì đang bắt đầu xảy ra ở cấp Liên Hợp Quốc. Giống như, làm cách nào để chúng tôi xác thực các cuộc trò chuyện, xác thực video?"

© 2023 CTVNews.ca

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept