Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Lời cảnh báo từ các chuyên gia: 'Những tác phẩm deepfake mà bạn thấy bây giờ sẽ là thứ tồi tệ nhất bạn từng thấy'

Bạn đang thắc mắc tại sao bạn lại xem các video của một người đưa tin quốc gia quảng cáo một công ty cần sa trên YouTube? Hoặc tại sao tỷ phú công nghệ Elon Musk lại xuất hiện trong một quảng cáo quảng bá cơ hội đầu tư nghe có vẻ quá tốt để có thể là sự thật?

Cho dù nó trông có vẻ thuyết phục đến đâu thì video vẫn có thể là một bản deepfake, một thuật ngữ chỉ phương tiện truyền thông bị thao túng hoặc bịa đặt bằng trí tuệ nhân tạo.

Jeff Horncastle, nhân viên bộ phận khách hàng và truyền thông của Trung tâm Chống Lừa đảo Canada (CAFC), đang cảnh báo người dân Canada về các vụ lừa đảo video và âm thanh ngày càng gia tăng, sử dụng hình ảnh giống các nhân vật truyền thông để quảng cáo các nền tảng tiền điện tử lừa đảo và các trò lừa đảo khác.

“Tất cả những gì (kẻ lừa đảo) cần là một chút âm thanh từ người mà chúng muốn giả mạo sâu, có thể là một bức ảnh hoặc đoạn âm thanh ngắn và chúng sử dụng nó như một công cụ bổ sung để cố gắng thuyết phục các nạn nhân tiềm năng rằng đó là sự thật,” Horncastle nói với CTV National News.

Những kẻ lừa đảo này thường dựa vào những cái tên quen thuộc để tạo dựng lòng tin, chẳng hạn như các nhân vật truyền hình Mỹ  Gayle King, Tucker Carlson và Bill Maher.

Các trò lừa đảo quảng cáo video deepfake trên YouTube cũng có sự góp mặt của Trưởng ban Tin tức và Biên tập viên cấp cao Omar Sachedina của CTV National News. Một trong những quảng cáo này dường như hiển thị cảnh Sachedina trình bày một tin tức nhưng thay vào đó lại ca ngợi một công ty cần sa. Âm thanh tuy rất khớp với video nhưng lại là giả.

Một video khác cho thấy người sáng lập Tesla, Elon Musk, đang bán cổ phiếu của các công ty tiền điện tử lừa đảo.

Mặc dù công nghệ AI đằng sau điều này không phải là mới, nhưng việc truy cập các ứng dụng và trang web có thể được sử dụng để tạo ra hình ảnh, video và clip âm thanh giả mạo thuyết phục có những gương mặt quen thuộc đang trở nên dễ dàng hơn.

Tương tự như các cuộc gọi tự động và email spam, những người tạo ra những video deepfake này đã lừa đảo mọi người hàng nghìn đô la. Mặc dù không có bất kỳ dữ liệu cụ thể nào về số lượng người Canada đã bị lừa đảo cụ thể bằng nội dung giả mạo sâu, CAFC đã báo cáo vào năm 2022 rằng người Canada đã mất tổng cộng 531 triệu đô la vì lừa đảo. Tính đến tháng 6, người dân Canada đã thiệt hại 283,5 triệu đô la trong năm nay.

AI CHỈ TRỞ NÊN 'TỐT HƠN', KHIẾN CHO LỪA ĐẢO TỒI TỆ HƠN

Chuyên gia công nghệ Mark Daley cho biết, bên cạnh vẻ ngoài chân thực đến kỳ lạ, khía cạnh đáng sợ nhất của những tác phẩm deepfake này là công nghệ ngày càng trở nên tốt hơn, khiến người ta khó xác định được hàng giả hơn.

"Điều quan trọng cần nhớ là những hình ảnh giả mạo mà bạn nhìn thấy bây giờ sẽ là điều tồi tệ nhất mà bạn từng thấy trong suốt quãng đời còn lại của mình. Nó sẽ chỉ trở nên tốt hơn mà thôi," Daley, giám đốc thông tin kỹ thuật số tại Đại học Western, nói với CTV National News.

Daley giải thích rằng công nghệ tiến bộ này đã phát triển mạnh mẽ trong 5 năm qua, khi việc tạo ra một bản deepfake được sử dụng để yêu cầu một cá nhân có tay nghề cao có quyền truy cập vào phần mềm kỹ thuật độc quyền. Giờ đây, bất kỳ ai có kiến thức trung bình về AI và có quyền truy cập vào máy tính chơi game đều có thể truyền bá thông tin sai lệch thông qua hình ảnh giống một nhân vật nổi tiếng, chẳng hạn như một chính trị gia đang tranh cử.

Thông tin sai lệch này đặc biệt đáng báo động đối với nhà trị liệu tâm lý và công nghệ Georgia Dow, người nói rằng các video bịa đặt có thể khiến mọi người căm ghét một số nhóm và cá nhân nhất định hoặc khiến họ tin vào điều mà người nổi tiếng yêu thích của họ dường như đã nói trong một cuộc phỏng vấn mà điều đó chưa bao giờ thực sự xảy ra.

"Nó gần giống như những trả thù tưởng tượng. Những người chúng ta không thích, chúng ta muốn gặp trong những tình huống nhất định, những người chúng ta thích, chúng ta muốn gặp trong những tình huống nhất định. Những điều này tạo ra rất nhiều cú nhấp chuột và mọi người hiện đang cố gắng đạt được tiền tệ xã hội đó,” Dow nói với CTV National News.

Một trong những cách công nghệ này có thể gây hại là khi được sử dụng trong các sự kiện chính trị quan trọng.

Ví dụ: trước cuộc bầu cử tổng thống Mỹ năm 2024, các ứng cử viên tiềm năng đã xem các video về chính họ đang chống lại các chiến dịch của họ. Thống đốc Florida Ron DeSantis, người hiện đang tìm kiếm đề cử cho Đảng Cộng hòa, đã được nhìn thấy trong một video deepfake vào tuần trước dường như thông báo rằng ông sẽ từ bỏ cuộc đua.

Dow nói: “Nó thực sự đã gieo vào đầu chúng ta những hạt giống nhỏ bé rằng có lẽ người này bất chính, hoặc có lẽ họ có những cảm xúc khác. Tôi nghĩ rằng về mặt chính trị, đây thực sự là một vấn đề lớn.”

Gần đây, Google thông báo sẽ sử dụng công nghệ để thêm cảnh báo hình mờ vào các hình ảnh do AI tạo ra nhằm nỗ lực ngăn chặn các tuyên bố sai sự thật và tố cáo các bức ảnh giả mạo; tuy nhiên, mối lo ngại về khả năng lan truyền thông tin sai lệch vẫn tồn tại ngay cả với những nỗ lực như thế này.

Trong một tuyên bố với CTV News, người phát ngôn của công ty cho biết: “Chúng tôi cam kết giữ an toàn cho mọi người trên nền tảng của mình và khi phát hiện nội dung vi phạm các chính sách này, chúng tôi sẽ hành động.

"Chúng tôi tiếp tục nâng cao các biện pháp thực thi của mình để chống lạm dụng và gian lận. Chúng tôi đã đưa ra các chính sách chứng nhận mới, tăng cường xác minh nhà quảng cáo và tăng cường khả năng phát hiện cũng như ngăn chặn các hành vi lừa đảo phối hợp trong những năm gần đây."

CÁCH PHÁT HIỆN DEEPFAKE

Khi công nghệ tiến bộ, các chuyên gia cho rằng điều quan trọng là mọi người phải đặt câu hỏi về phương tiện truyền thông mà họ sử dụng trực tuyến. Dấu hiệu cảnh báo cho thấy một video có thể là giả mạo bao gồm âm thanh không khớp với chuyển động miệng của một người, video có chuyển động mắt không tự nhiên và sự khác biệt về ánh sáng trên người đang nói và nền.

Dow cũng khuyên nên tập trung vào "đường viền" của một người so với phông nền, bao gồm cả tóc và các vùng xung quanh khuôn mặt của họ, đặc biệt là khi người nói đang di chuyển.

Horncastle khuyên người xem nên đặt câu hỏi về lý do tại sao một số nhân vật truyền thông nhất định lại quảng cáo sản phẩm ngoài sở thích và tại sao họ lại quảng cáo bất cứ thứ gì nếu đó không phải là điều họ thường làm.

"Cảnh báo đầu tiên nên là," Tôi nghĩ người nổi tiếng này không quảng cáo thứ này," ông nói.

"Và nếu bạn vẫn không chắc chắn, hãy nghiên cứu nhiều nhất có thể, nhưng rất có thể những trang web mà họ đang quảng cáo này là lừa đảo."

Horncastle cho biết việc nghiên cứu các công ty đằng sau những sản phẩm này trước khi mua hàng từ chúng sẽ cung cấp cái nhìn sâu sắc về mức độ hợp pháp của chúng và chính xác số tiền của bạn có thể đi về đâu.

© 2023 CTVNews.ca

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept