Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Mặt tối của AI: Đây là cách công nghệ có thể được sử dụng để lừa đảo, gian lận

Khi OpenAI ra mắt công cụ đột phá ChatGPT vào tháng 11 năm 2022, nó đã thay đổi thế giới mãi mãi, cho thấy cuộc cách mạng trí tuệ nhân tạo đang thực sự đến với chúng ta. Ứng dụng của AI này đã đóng góp vào một số tiến bộ công nghệ, chẳng hạn như sự phát triển của chip máy tính hiện đại, phương tiện truyền thông tổng hợp, v.v.

Tuy nhiên, không phải ai cũng hào hứng với AI. Một số người có thể coi nó như một đồng xu hai mặt có nhiều khả năng gây hại cũng như đối với sự tiến bộ.

Ngày nay, hầu hết mọi người tôi biết đều sử dụng AI vì lý do này hay lý do khác. Nếu công nghệ này được tích hợp hoàn toàn vào các công cụ tìm kiếm trực tuyến, các truy vấn như "Tôi nên mua loại máy hút bụi nào?" hoặc “Lên kế hoạch cho chuyến đi đến Mexico với ngân sách 3.000 đô la,” có thể được đáp ứng bằng câu trả lời do AI tạo ra. Công cụ tìm kiếm Bing của Microsoft đã thử nghiệm tính năng này với người dùng từ tháng 2.

Các hệ thống AI tích hợp này cũng có thể có tuyên bố từ chối trách nhiệm tương tự – AI đang thử nghiệm và có thể tạo ra thông tin không chính xác.

Mặc dù vậy, AI đã trở thành một công cụ hữu ích cho nhiều người. Từ những nhà thiết kế đồ họa muốn nhanh chóng chỉnh sửa thiết kế, cho đến những nhà văn đang tìm kiếm các tiêu đề sáng tạo và chương trình lập kế hoạch AI, thật khó để phủ nhận rằng AI có rất nhiều công dụng sáng tạo và thiết thực.

Nhưng khi sử dụng không đúng cách hoặc vì những lý do sai lầm, nó có thể gây ra những hậu quả tai hại.

Chỉ lấy ví dụ về hai luật sư đã sử dụng ChatGPT để nghiên cứu pháp lý trong khi chuẩn bị nộp đơn ra tòa. Cuối cùng cả hai đều trích dẫn các vụ án trước đây hoàn toàn bịa đặt.

Ngay cả người sáng lập OpenAI, Sam Altman và các “bố già của AI” khác cũng có những lo ngại nghiêm trọng về tương lai của AI.

Tuy nhiên, các trường hợp pháp lý giả mạo và thông tin không chính xác chỉ là phần nổi của tảng băng chìm. Dưới đây, tôi sẽ phác thảo một số tác hại liên quan đến AI và cách nó có thể được sử dụng để lừa đảo, gian lận và các hoạt động độc hại khác.

1. NHÂN BẢN GIỌNG NÓI

Ngày nay, các chương trình do AI điều khiển có thể lấy các mẫu giọng nói của hầu hết mọi người và tái tạo chúng gần như hoàn hảo, sử dụng các cụm từ phổ biến đồng thời khớp với âm điệu và thậm chí cả trọng âm của các mẫu ban đầu.

Nhân bản giọng nói AI đã được sử dụng trong một số tội phạm tài chính.

Ví dụ: sao chép giọng nói có thể vượt qua hệ thống xác thực mật khẩu bằng giọng nói của các tổ chức tài chính, cho phép những kẻ lừa đảo truy cập vào tài khoản ngân hàng tư nhân.

Tại bang Arizona của Hoa Kỳ, một kẻ lừa đảo đã sử dụng trí tuệ nhân tạo để gọi cho một phụ huynh trong khi mạo danh là con của họ. Kẻ lừa đảo đã thuyết phục phụ huynh rằng con của họ đã bị bắt cóc và đang gặp nguy hiểm nghiêm trọng trước khi đòi khoản tiền chuộc 1 triệu đô la Mỹ.

2. DEEPFAKES VÀ MẠO DANH

“Deepfakes” là các video do máy tính tạo ra có thể được sử dụng để mạo danh ai đó và truyền bá thông tin sai lệch. Mặc dù các video deepfake đã lưu hành trên internet trong nhiều năm, nhưng chúng thường không phải là video thực tế nhất và một người quan sát kỹ có thể phân biệt video thật với video deepfake.

Nhưng với tính năng sao chép âm thanh và video do AI tạo ra, deepfakes đã trở nên chân thực hơn bao giờ hết.

Một số người dùng YouTube tháo vát và nhà sáng tạo khóa học trực tuyến đang sử dụng công nghệ này để giúp họ sản xuất nội dung. Tuy nhiên, cũng có thể có nhiều người sử dụng công nghệ này một cách ác ý, tạo ra những  deepfakes  về những người nổi tiếng và những nhân vật đáng chú ý khác có thể làm tổn hại đến danh tiếng của họ.

3. HACK TỰ ĐỘNG

Một trong những ứng dụng thiết thực nhất của AI là viết mã. AI có thể tạo toàn bộ chương trình trong một khoảng thời gian ngắn mà lập trình viên phải thực hiện thủ công. AI cũng có thể chạy  hàng nghìn dòng mã trong vài giây để xác định lỗi.

Nhưng AI cũng có thể được sử dụng để hack tự động. Tin tặc có thể sử dụng các công cụ như ChatGPT chẳng hạn để viết mã độc hoặc phần mềm độc hại.

Những gì trước đây yêu cầu một nhóm tin tặc làm việc cả ngày lẫn đêm giờ đây có thể được thực hiện bằng một mô hình AI duy nhất. Điều đó khá đáng sợ.

4. CHATBOTS VÀ QUYỀN RIÊNG TƯ

Gần đây, có một số lo ngại về việc sử dụng chatbot khi truy cập dữ liệu riêng tư. Vì các chatbot như ChatGPT vẫn đang trong giai đoạn “thử nghiệm” nên các cuộc hội thoại được ghi lại và sử dụng để cải thiện độ chính xác và cú pháp của chúng.

Bất cứ khi nào người dùng tạo tài khoản với OpenAI hoặc sử dụng Bing Chat, họ đồng ý rằng dữ liệu của họ có thể được sử dụng cho mục đích phát triển. Vì vậy, người dùng không nên chia sẻ bất cứ điều gì họ không muốn được ghi lại.

Vào đầu tháng 4 năm nay, ủy viên quyền riêng tư liên bang của Canada đã mở một cuộc điều tra về ChatGPT. Cuộc điều tra dựa trên cáo buộc rằng công ty đang thu thập và sử dụng dữ liệu cá nhân mà không có sự đồng ý của người dùng.

AI NGUY HIỂM NHƯ THẾ NÀO?

Giống như những ngày đầu của Internet, AI đi kèm với rất nhiều nguy cơ tiềm ẩn. Từ deepfakes đến hack tự động, rủi ro gần như có thể lớn bằng lợi ích.

Khi được sử dụng một cách có trách nhiệm, AI có thể là một công cụ vô giá. Nhưng nó cũng có thể được sử dụng một cách ác ý bởi những người có ý định xấu nhất.

Trong khi một số quan chức trên khắp thế giới đang theo đuổi các quy định chặt chẽ hơn, chẳng hạn như Liên minh Châu Âu sắp đưa ra Đạo luật Trí tuệ Nhân tạo, thì thực tế là AI có khả năng sẽ vẫn tồn tại.

Cuối cùng, sẽ phụ thuộc vào chính bạn để bảo vệ mình khỏi những nguy cơ tiềm tàng của AI.

© 2023 CTVNews.ca

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept