Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

"Đây là miền Tây hoang dã": AI đang tạo ra những biên giới mới cho tội phạm ở Canada

Có nội dung khiêu dâm deepfake. Giả mạo giọng nói. Lừa đảo tình cảm biến thành gian lận tài chính.

Cảnh sát Canada tuần tra các ngóc ngách của dark web nhận thức rõ những cách thức tội phạm thường sử dụng trí tuệ nhân tạo một cách bất chính.

Nhưng gần đây đã có một bước ngoặt mới - tội phạm cung cấp “jailbreak” chính các thuật toán tạo nên kiến trúc của các mô hình ngôn ngữ lớn (LLM) của AI, phá vỡ các biện pháp bảo vệ của chúng để có thể tái sử dụng cho mục đích tội phạm.

Hãy gọi đó là hỗ trợ kỹ thuật cho tội phạm mạng.

Chris Lynam, tổng giám đốc Trung tâm Điều phối Tội phạm Mạng Quốc gia của RCMP, cho biết: "Cũng có những LLM mà chính tội phạm mạng xây dựng."

Ông nói: "Có một cộng đồng tội phạm mạng ngầm hoạt động trên các diễn đàn, nhưng họ cũng hoạt động trên các nền tảng như Telegram", nơi họ "quảng cáo" một kênh hoặc dịch vụ và giải thích cách có được nó.

"Tội phạm mạng sẽ không đầu tư tiền vào việc cố gắng  jailbreak (AI) chỉ vì thiện chí. Họ đang cố gắng thương mại hóa điều này."

Các tội phạm liên quan đến AI bao gồm gian lận và mạo danh ngày càng phổ biến và đã trở thành chủ đề của các chiến dịch nâng cao nhận thức cộng đồng. Nhưng các chuyên gia và cảnh sát cảnh báo rằng có thể cần thêm các biện pháp bảo vệ để bảo vệ người dân khỏi những biên giới tội phạm mới của công nghệ này.

Nhà nghiên cứu AI Alex Robey cho biết, những điều này bao gồm việc jailbreak AI và các rào chắn của nó, điều này có thể dẫn đến việc AI đưa ra hướng dẫn cách gian lận các tổ chức từ thiện - hoặc cách chế tạo bom.

Robey, một nhà nghiên cứu sau tiến sĩ tại Đại học Carnegie Mellon, đã tập trung vào việc jailbreak các mô hình ngôn ngữ lớn này, như ChatGPT.

Ông cảnh báo rằng AI có khả năng phạm tội mà không cần nhắc nhở, "khi bản thân AI có mục tiêu hoặc ý định riêng phù hợp với một chương trình nghị sự không có lợi cho con người."

Ví dụ, ở Florida, một người mẹ đang kiện một công ty cho phép người dùng tạo bạn đồng hành AI, cáo buộc rằng một trong những chatbot của công ty đã tham gia vào các cuộc trò chuyện mang tính tình dục với con trai 14 tuổi của cô trước khi xúi giục cậu bé tự sát vào năm ngoái.

Robey cho biết có "rất nhiều nghiên cứu" về cách trí tuệ nhân tạo có thể phát triển ý định riêng và có thể lừa dối hoặc gây hại cho mọi người, đặc biệt là trong lĩnh vực robot học, nơi bot có thể tương tác vật lý với mọi người trong thế giới thực.

Ông nói: "Đó là nơi tiềm ẩn rủi ro to lớn, trong việc vũ khí hóa tất cả những thứ này", chỉ ra tiềm năng sử dụng AI và robot trong hành động quân sự.

Robey cho rằng cần có luật pháp để đảm bảo các biện pháp bảo vệ tốt hơn cho việc sử dụng trí tuệ nhân tạo.

Ông nói trong một cuộc phỏng vấn: "Gần như các phòng thí nghiệm riêng lẻ đang phát triển các mô hình này phải tự điều chỉnh, điều này không lý tưởng".

"Đây là miền Tây hoang dã trong tất cả những thứ này ngay bây giờ. Thực sự không có nguyên tắc chỉ đạo nào được thiết lập."

Không có giải pháp nhanh chóng

Sự ra mắt của chatbot ChatGPT vào cuối năm 2022 là một khoảnh khắc mang tính đột phá cho AI, đưa nó vào nhận thức của công chúng với khả năng kỳ lạ của nó trong việc sao chép cuộc trò chuyện và văn bản giống như con người.

Chỉ hơn hai năm sau, chính quyền Mỹ cho biết nó đã được sử dụng để giúp dàn dựng một vụ đánh bom xe nổi tiếng. Matthew Livelsberger, 37 tuổi, đã chết trong một chiếc Tesla cybertruck phát nổ bên ngoài một khách sạn Trump vào tháng 1.

Cảnh sát cho biết một cuộc điều tra về các tìm kiếm của Livelsberger thông qua ChatGPT cho thấy anh ta đang tìm kiếm thông tin về các mục tiêu chất nổ và đạn dược.

Kevin McMahill, cảnh sát trưởng Sở Cảnh sát Đô thị Las Vegas, cho biết: "Đây là sự cố đầu tiên mà tôi biết trên đất Mỹ, nơi ChatGPT được sử dụng để giúp một cá nhân chế tạo một thiết bị cụ thể". Ông gọi việc sử dụng AI tạo sinh là một "bước ngoặt".

Robey chỉ ra vụ nổ khách sạn Trump là một ví dụ gần đây về việc vượt ngục AI cho các mục đích bất hợp pháp.

Trước ChatGPT đã có các công cụ dựa trên hình ảnh AI, chẳng hạn như DALL-E, một mô hình AI được phát hành vào năm 2021 có khả năng tạo ra hình ảnh thực tế hoặc cách điệu dựa trên các lời nhắc hoặc hướng dẫn bằng văn bản.

Tiềm năng tội phạm của công nghệ đó cũng nhanh chóng hiện thực hóa.

Vào năm 2023, một người đàn ông 61 tuổi ở Quebec đã bị bỏ tù vì sử dụng trí tuệ nhân tạo để tạo ra các video deepfake về nội dung khiêu dâm trẻ em. Không có trẻ em thực tế nào được mô tả, nhưng Steven Larouche đã vi phạm luật cấm mọi hình ảnh trực quan về người được miêu tả dưới 18 tuổi tham gia vào các hoạt động tình dục rõ ràng.

Thẩm phán tòa án tỉnh Benoit Gagnon đã viết trong phán quyết của mình rằng ông tin đây là trường hợp đầu tiên trong nước liên quan đến deepfake về khai thác tình dục trẻ em.

Lynam cho biết "tội phạm mạng có lẽ là loại tội phạm phát triển nhanh nhất".

Ông nói trong một cuộc phỏng vấn: "Đó là một sự tiến hóa liên tục và chúng ta phải hiểu các xu hướng, hoặc cố gắng hiểu những công nghệ mà tội phạm sẽ áp dụng để chúng ta có thể chống lại điều đó".

Các nhà chức trách Canada bao gồm Lynam đang cảnh báo rằng có thể khó phân biệt các nguồn nội dung do AI tạo ra với các nguồn hợp pháp, phản ánh các cảnh báo của ngành công nghiệp quốc tế.

Trung tâm dịch vụ tài chính của Deloitte năm ngoái dự báo rằng AI có thể khiến tổn thất do gian lận tăng hơn gấp ba lần lên 40 tỷ đô la Mỹ chỉ riêng ở Mỹ vào năm 2027.

Họ trích dẫn trường hợp một nhân viên của một công ty Hồng Kông gửi 25 triệu đô la Mỹ cho những kẻ lừa đảo vào tháng 1 năm ngoái, sau khi nhận được hướng dẫn từ giám đốc tài chính của cô trong một cuộc họp video với cô và các nhân viên khác. Nhưng đó hoàn toàn không phải là giám đốc điều hành - đó là một video deepfake mạo danh.

Ghi chú nghiên cứu cho biết: "Sự sẵn có của các công cụ AI tạo sinh mới có thể khiến các video deepfake, giọng nói hư cấu và tài liệu hư cấu dễ dàng và rẻ tiền có sẵn cho những kẻ xấu", cảnh báo về sự "dân chủ hóa" của phần mềm AI hỗ trợ gian lận.

"Đã có một ngành công nghiệp nhỏ trên dark web bán phần mềm lừa đảo với giá từ 20 đô la Mỹ đến hàng nghìn đô la."

Lynam cho biết các dịch vụ jailbreak AI đang được bán trên dark web "cho thấy những người này thích ứng và sáng tạo như thế nào, và lý do tại sao chúng ta phải thích ứng tương tự, hoặc cố gắng theo kịp họ."

RCMP đã thành lập Trung tâm Điều phối Tội phạm Mạng Quốc gia vào năm 2020 trong nỗ lực chống lại sự bùng nổ của tội phạm trên internet. Lynam cho biết kể từ đó, họ đã thấy sự gia tăng tội phạm do AI hỗ trợ, từ email lừa đảo đến các vụ lừa đảo đầu tư deepfake.

Ông cho biết RCMP cũng đã triển khai nhiều chiến dịch khác nhau để nhắm mục tiêu vào các cá nhân có nguy cơ trước khi họ trở thành tội phạm mạng.

"Điều này sẽ không biến mất. Chúng ta phải tìm ra những cách tốt nhất để giảm tác động đến người dân Canada."

"Không đủ nhanh nhạy"

Một giải pháp lập pháp tức thời khó có khả năng xảy ra.

Vì Quốc hội Canada đã bị đình chỉ vào ngày 6 tháng 1, tất cả các dự luật đang tiến hành đều bị hủy bỏ, bao gồm Đạo luật Trí tuệ Nhân tạo và Dữ liệu, đây sẽ là nỗ lực đầu tiên của Canada trong việc quy định rộng rãi các hệ thống trí tuệ nhân tạo.

Chính phủ đã nói rằng đạo luật này sẽ "đảm bảo rằng các hệ thống AI được triển khai ở Canada an toàn và không phân biệt đối xử, đồng thời sẽ buộc các doanh nghiệp phải chịu trách nhiệm về cách họ phát triển và sử dụng các công nghệ này."

Robey cho biết các chính phủ dường như có ý định tốt, trong khi "khá bối rối vào thời điểm này và không đủ nhanh nhạy để theo kịp."

Ông nói: "Đây là một loạt các cuộc trò chuyện khá bực bội khi tham gia, bởi vì tôi không nghĩ có nhiều sự hiểu biết về công nghệ này là gì, nó có thể làm gì và những rủi ro trong tương lai là gì."

Thay vì luật pháp hoặc quy định, các nhà chức trách đã triển khai các chiến dịch nâng cao nhận thức để giáo dục và khuyến khích mọi người tự bảo vệ mình.

Vào tháng 1, Ủy ban Chứng khoán BC đã triển khai một chiến dịch nâng cao nhận thức, nêu bật cách các công cụ trí tuệ nhân tạo đang được sử dụng để lừa đảo người dân Canada.

Quảng cáo trung tâm cho chiến dịch trị giá 1,8 triệu đô la có hình ảnh các kế toán viên deepfake sáu ngón tay, cũng như đề cập đến việc nhân bản giọng nói AI và các vụ lừa đảo tình cảm.

Chiến dịch khuyên các nhà đầu tư tiềm năng giảm thiểu rủi ro liên quan đến AI bằng cách tìm kiếm các đánh giá tiêu cực về các đề nghị đầu tư, sử dụng Tìm kiếm Đăng ký Quốc gia để đảm bảo các công ty là hợp pháp và cân nhắc gặp gỡ trực tiếp để xác nhận danh tính của họ.

Pamela McDonald, phát ngôn viên của ủy ban, cho biết vì gian lận AI thường không có biên giới nên khó sử dụng các công cụ thực thi thông thường.

"Vấn đề là đối với chúng tôi với tư cách là một cơ quan quản lý, những người sử dụng công nghệ này phần lớn ở nước ngoài, là tội phạm có tổ chức."

Bà cho biết tội phạm ở nước ngoài thường "ngoài tầm với" của các cơ quan quản lý và thực thi pháp luật của Canada.

Bà nói: "Vì vậy, điều tốt nhất chúng tôi có thể làm ngay bây giờ cho mọi người là giáo dục họ. Điều tốt nhất chúng tôi có thể làm là sử dụng một chiến dịch rất táo bạo, nổi bật để phá vỡ tất cả những ồn ào khác... để giúp mọi người hiểu vấn đề là gì và họ có thể làm gì để tự bảo vệ mình."

© 2025 The Associated Press

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept