Các trang web truyền thông xã hội và nền tảng kỹ thuật số lớn đã báo cáo rằng nội dung bị nghi ngờ là lạm dụng tình dục trẻ em đã tăng 9% trong năm 2022, với 85,5% trong tổng số 31,8 triệu báo cáo đến từ các nền tảng Meta là Facebook, Instagram và WhatsApp.
“Những con số này đang tăng lên do người dùng gia tăng phân phối tài liệu này hoặc do các công ty hiện mới bắt đầu tìm kiếm nền tảng của họ hoặc cả hai,” Lianna McDonald, giám đốc điều hành của Trung tâm Bảo vệ Trẻ em Canada cho biết trong một thông cáo báo chí.
Dữ liệu này đến từ Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC) của Hoa Kỳ. Cả Canada và Hoa Kỳ đều yêu cầu các nhà cung cấp dịch vụ điện tử ở quốc gia của họ báo cáo và xóa các trường hợp nội dung khiêu dâm trẻ em rõ ràng khi họ biết về nội dung đó trong hệ thống của mình. Tuy nhiên, không có yêu cầu pháp lý nào buộc các công ty phải chủ động tìm kiếm nội dung lạm dụng hoặc sử dụng các công cụ ngăn chặn để ngăn nội dung đó được tải lên.
"Hàng triệu báo cáo của CyberTipline mỗi năm, chủ yếu do một số công ty đệ trình, là bằng chứng cho thấy những gì chúng ta biết về mức độ bóc lột tình dục trẻ em trực tuyến chỉ là phần nổi của tảng băng trôi," một phát ngôn viên của NCMEC nói với CTVNews.ca, đề cập đến chương trình báo cáo của Hoa Kỳ mà nhóm điều hành. "Hầu hết các công ty công nghệ trên thế giới chọn không chủ động phát hiện và báo cáo hành vi bóc lột tình dục trẻ em trên mạng của họ."
Meta đã gửi 27,2 triệu báo cáo cho CyberTipline vào năm 2022, bao gồm 21,2 triệu từ Facebook, 5 triệu từ Instagram và 1 triệu từ WhatsApp; tăng 1,1% so với năm 2021. Chỉ riêng Facebook đã chiếm 66,6% tổng số báo cáo vào năm 2022.
Facebook là nền tảng truyền thông xã hội phổ biến nhất ở cả Canada và Hoa Kỳ, với khoảng 3/4 người lớn sử dụng nó. Trong một tuyên bố với CTVNews.ca, người phát ngôn của Meta cho biết công ty tích cực đầu tư vào các nhóm và công nghệ để phát hiện, ngăn chặn và xóa nội dung độc hại bằng các công cụ như AI và phần mềm quét hình ảnh.
"Chúng tôi xóa 98% nội dung này trước khi bất kỳ ai báo cáo cho chúng tôi và chúng tôi tìm thấy và báo cáo (tài liệu lạm dụng tình dục trẻ em) cho NCMEC nhiều hơn bất kỳ dịch vụ nào khác," Antigone Davis, người đứng đầu bộ phận an toàn của Meta, cho biết trong một tuyên bố với CTVNews.ca. "Chúng tôi cam kết không chỉ xóa (tài liệu lạm dụng tình dục trẻ em) khi chúng tôi phát hiện ra nó mà còn xây dựng công nghệ để giúp ngăn chặn tình trạng bóc lột trẻ em xảy ra ngay từ đầu."
Signy Arnason là phó giám đốc điều hành tại Trung tâm Bảo vệ Trẻ em Canada.
Arnason nói với CTVNews.ca: “Các công ty báo cáo số lượng lớn có thể vừa là dấu hiệu của vấn đề với người dùng phân phối tài liệu, nhưng cũng có thể là dấu hiệu cho thấy nền tảng đang thực hiện một số nỗ lực kiểm duyệt nội dung hoặc đang sử dụng các công cụ phát hiện. Ngược lại, đối với các công ty lớn có số lượng được báo cáo rất thấp, điều này có thể cho thấy họ không sẵn sàng sử dụng các công cụ kiểm duyệt chủ động để chặn tài liệu này; do đó, số lượng được báo cáo rất thấp không nhất thiết là một dấu hiệu tích cực."
Nhiều nhà cung cấp dịch vụ điện tử phổ biến đã ghi lại nhiều báo cáo đáng lo ngại hơn vào năm 2022, bao gồm 2,2 triệu báo cáo từ Google, tăng 151% so với năm 2021 cũng như Snapchat (551.086, tăng 7,5%), TikTok (288.125, tăng 86,3%), Discord (169.800, tăng 473,5%) và Twitter (98.050, tăng 13,1%).
Một trong những mức tăng lớn hơn đến từ Omegle, một trang web cho phép người dùng trò chuyện với một người lạ được chọn ngẫu nhiên và gần đây đã bị chỉ trích vì là nơi chứa chấp những người dùng lạm dụng. Omegle đã gửi 608.601 báo cáo vào năm 2022, tăng 1.197% so với năm 2021. Trong khi đó, nền tảng chia sẻ hình ảnh Pinterest đã gửi 34.310 báo cáo: tăng 1.402,8%.
CTVNews.ca đã liên hệ với tất cả các công ty có tên để yêu cầu bình luận.
Người phát ngôn của Omegle cho biết nền tảng của họ sử dụng ảnh chụp nhanh các luồng video định kỳ để giúp kiểm duyệt nội dung.
"Mặc dù người dùng tự chịu trách nhiệm về hành vi của họ khi sử dụng trang web, Omegle đã tự nguyện triển khai các dịch vụ kiểm duyệt nội dung sử dụng cả công cụ AI và người kiểm duyệt theo hợp đồng," công ty nói với CTVNews.ca. "Nội dung bị gắn cờ là bất hợp pháp, không phù hợp hoặc vi phạm chính sách của Omegle có thể dẫn đến một số hành động, bao gồm báo cáo cho các cơ quan thực thi pháp luật thích hợp."
Người phát ngôn của Discord, một nền tảng trò chuyện thoại và nhắn tin tức thì phổ biến với các game thủ, cho biết công ty đã báo cáo các thủ phạm cho NCMEC và tích cực sử dụng công nghệ để phát hiện tài liệu có hại.
"Discord có chính sách không khoan nhượng đối với lạm dụng tình dục trẻ em, điều này không có chỗ trên nền tảng của chúng tôi hoặc bất kỳ nơi nào trong xã hội," Discord nói với CTVNews.ca. "Chúng tôi có một nhóm tận tâm không bao giờ ngừng làm việc để tìm và xóa nội dung ghê tởm này, đồng thời thực hiện hành động bao gồm cấm những người dùng chịu trách nhiệm và tham gia với các cơ quan có thẩm quyền."
Người phát ngôn của ứng dụng nhắn tin Snapchat cho biết nền tảng này sử dụng công nghệ quét hình ảnh và video để tìm những nội dung như vậy và báo cáo đó được gửi tới NCMEC ở Hoa Kỳ.
"Bất kỳ hành vi bóc lột hoặc lạm dụng tình dục nào đối với một Snapchatter và/hoặc trẻ vị thành niên trên nền tảng của chúng tôi đều là bất hợp pháp và đi ngược lại chính sách của chúng tôi," họ nói. "Nếu chúng tôi biết về hành vi lạm dụng hoặc bóc lột tình dục trẻ em, cho dù hành vi đó được xác định thông qua công nghệ phát hiện chủ động của chúng tôi hay được báo cáo cho chúng tôi thông qua các công cụ báo cáo bí mật trong ứng dụng, chúng tôi sẽ xóa hành vi đó và báo cáo với chính quyền.
Pinterest cũng có chính sách không khoan nhượng đối với nội dung có thể lợi dụng hoặc gây nguy hiểm cho trẻ vị thành niên.
"Khi chúng tôi phát hiện bất kỳ nội dung hoặc hành vi vi phạm chính sách nào trên nền tảng, chúng tôi sẽ nhanh chóng hành động, xóa nội dung, cấm các tài khoản liên quan và làm việc với các cơ quan có liên quan," một phát ngôn viên nói với CTVNews.ca. "Chúng tôi cam kết đảm bảo sự tin tưởng và an toàn cho trẻ em trên mạng, đồng thời tiếp tục hợp tác với các tổ chức như NCMEC để giúp xóa bỏ loại nội dung này khỏi internet."
Google, TikTok và Twitter đã không phản hồi các yêu cầu của CTVNews.ca.
Arnason từ Trung tâm Bảo vệ Trẻ em Canada cho biết: “Áp lực của công chúng đối với các nền tảng truyền thông xã hội ngày càng tăng để thực hiện tốt hơn việc kiểm duyệt nội dung do người dùng tạo và do đó tìm hoặc chặn nhiều tài liệu này hơn. Nếu chúng ta muốn cải thiện cơ bản an toàn trực tuyến cho các gia đình, chúng ta cần các quan chức được bầu của mình hành động để đảm bảo các công ty công nghệ phải ưu tiên an toàn trực tuyến cho người dùng cuối, giống như chúng ta làm trong các ngành khác."
Người dân Canada có thể báo cáo các trường hợp nghi ngờ bóc lột trẻ em trực tuyến cho CyberTip.ca, được điều hành bởi Trung tâm Bảo vệ Trẻ em Canada. Ngoài CyberTipline.org ở Hoa Kỳ, NCMEC cũng vận hành Take It Down, một dịch vụ giúp lấy các hình ảnh và video khiêu dâm của trẻ vị thành niên khỏi internet.
© 2023 CTVNews.ca
Bản tiếng Việt của The Canada Life