Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Các cơ quan an ninh quốc gia nên nêu chi tiết cách họ sử dụng AI: cơ quan cố vấn liên bang

Một cơ quan cố vấn liên bang đang kêu gọi các cơ quan an ninh của Canada công bố mô tả chi tiết về cách sử dụng hiện tại và dự định của họ đối với các hệ thống trí tuệ nhân tạo và ứng dụng phần mềm.

Trong một báo cáo mới, Nhóm Cố vấn Minh bạch An ninh Quốc gia cũng thúc giục chính phủ xem xét sửa đổi luật đang được Quốc hội xem xét để đảm bảo giám sát cách các cơ quan liên bang sử dụng AI.

Các khuyến nghị nằm trong số các biện pháp mới nhất do nhóm đề xuất, được thành lập vào năm 2019 để tăng cường trách nhiệm giải trình và nhận thức của công chúng về các chính sách, chương trình và hoạt động an ninh quốc gia.

Chính phủ coi nhóm này là một phương tiện quan trọng để thực hiện cam kết sáu điểm của liên bang nhằm minh bạch hơn về an ninh quốc gia.

Các cơ quan tình báo và an ninh liên bang đã phản hồi báo cáo mới nhất của nhóm bằng cách nhấn mạnh tầm quan trọng của sự cởi mở, mặc dù một số chỉ ra rằng bản chất công việc của họ hạn chế những gì họ có thể tiết lộ công khai.

Các cơ quan an ninh đã sử dụng AI cho các nhiệm vụ từ biên dịch tài liệu đến phát hiện các mối đe dọa phần mềm độc hại. Báo cáo dự đoán sự phụ thuộc ngày càng tăng vào công nghệ này để phân tích khối lượng lớn văn bản và hình ảnh, nhận dạng các mẫu và diễn giải các xu hướng và hành vi.

Khi việc sử dụng AI mở rộng trong cộng đồng an ninh quốc gia, "điều cần thiết là công chúng phải biết nhiều hơn về các mục tiêu và cam kết" của các dịch vụ biên giới, cảnh sát và gián điệp quốc gia, báo cáo cho biết.

"Cần thiết phải thiết kế và triển khai các cơ chế phù hợp để tăng cường tính cởi mở có hệ thống và chủ động trong chính phủ, đồng thời cho phép giám sát và đánh giá bên ngoài tốt hơn."

Khi chính phủ hợp tác với khu vực tư nhân về các mục tiêu an ninh quốc gia, "sự cởi mở và cam kết" là những yếu tố quan trọng thúc đẩy sự đổi mới và lòng tin của công chúng, trong khi "sự bí mật gây ra sự nghi ngờ", báo cáo cho biết.

Một thách thức chính trong việc giải thích hoạt động bên trong của AI cho công chúng là "sự mơ hồ của các thuật toán và mô hình học máy" — cái gọi là "hộp đen" có thể khiến ngay cả các cơ quan an ninh quốc gia cũng không hiểu được các ứng dụng AI của chính họ, báo cáo lưu ý.

Ottawa đã ban hành hướng dẫn về việc sử dụng trí tuệ nhân tạo của liên bang, bao gồm yêu cầu thực hiện đánh giá tác động của thuật toán trước khi tạo ra một hệ thống hỗ trợ hoặc thay thế phán đoán của những người ra quyết định.

Ottawa cũng đã giới thiệu Đạo luật về Trí tuệ Nhân tạo và Dữ liệu, hiện đang được Quốc hội thông qua, để đảm bảo thiết kế, phát triển và triển khai các hệ thống AI có trách nhiệm.

Tuy nhiên, đạo luật này và một ủy viên AI mới sẽ không có thẩm quyền đối với các tổ chức chính phủ như các cơ quan an ninh, thúc đẩy nhóm cố vấn khuyến nghị Ottawa xem xét mở rộng luật được đề xuất để bao gồm các tổ chức này.

Communications Security Establishment, cơ quan gián điệp mạng của Canada, từ lâu đã đi đầu trong việc sử dụng khoa học dữ liệu để sàng lọc và phân tích lượng thông tin khổng lồ.

Khai thác sức mạnh của AI không có nghĩa là loại bỏ con người khỏi quy trình, mà là cho phép họ đưa ra quyết định tốt hơn, cơ quan này cho biết.

Trong báo cáo thường niên mới nhất của mình, CSE mô tả việc sử dụng các siêu máy tính hiệu suất cao của mình để đào tạo các mô hình trí tuệ nhân tạo và máy học mới, bao gồm một công cụ dịch thuật tùy chỉnh.

Công cụ này có thể dịch nội dung từ hơn 100 ngôn ngữ, được giới thiệu vào cuối năm 2022 và được cung cấp cho các đối tác tình báo nước ngoài chính của Canada vào năm sau.

Trung tâm An ninh mạng của CSE đã sử dụng các công cụ máy học để phát hiện các chiến dịch lừa đảo nhắm vào chính phủ và phát hiện hoạt động đáng ngờ trên các mạng và hệ thống liên bang.

Để phản hồi báo cáo của nhóm cố vấn, CSE đã lưu ý những nỗ lực khác nhau của mình nhằm đóng góp vào sự hiểu biết của công chúng về trí tuệ nhân tạo.

Tuy nhiên, báo cáo chỉ ra rằng CSE "phải đối mặt với những hạn chế riêng trong nhiệm vụ bảo vệ an ninh quốc gia" có thể gây khó khăn cho việc công bố thông tin chi tiết về việc sử dụng AI hiện tại và đã lên kế hoạch của mình.

"Để đảm bảo việc sử dụng AI của chúng tôi vẫn có đạo đức, chúng tôi đang phát triển các phương pháp tiếp cận toàn diện để quản lý, điều hành và giám sát AI và chúng tôi sẽ tiếp tục dựa trên các thông lệ tốt nhất và đối thoại để đảm bảo hướng dẫn của chúng tôi phản ánh tư duy hiện tại".

Cơ quan Tình báo An ninh Canada, đơn vị điều tra các mối đe dọa bao gồm hoạt động cực đoan, gián điệp và can thiệp của nước ngoài, hoan nghênh báo cáo của nhóm minh bạch.

Cơ quan tình báo cho biết công việc đang được tiến hành để chính thức hóa các kế hoạch và quản lý liên quan đến việc sử dụng trí tuệ nhân tạo, với tính minh bạch là nền tảng cho mọi cân nhắc. Nhưng cơ quan này cũng nói thêm: "Với nhiệm vụ của CSIS, có những hạn chế quan trọng đối với những gì có thể được thảo luận công khai để bảo vệ tính toàn vẹn của các hoạt động, bao gồm các vấn đề liên quan đến việc sử dụng AI".

Năm 2021, Daniel Therrien, khi đó là ủy viên bảo vệ quyền riêng tư liên bang, đã phát hiện RCMP đã vi phạm luật khi sử dụng phần mềm nhận dạng khuôn mặt tiên tiến để thu thập thông tin cá nhân.

Therrien cho biết RCMP đã có những sai sót nghiêm trọng và có hệ thống trong việc đảm bảo tuân thủ Đạo luật về Quyền Riêng tư trước khi thu thập thông tin từ công ty Clearview AI của Mỹ.

Công nghệ của Clearview AI cho phép thu thập số lượng lớn hình ảnh từ nhiều nguồn khác nhau, có thể giúp lực lượng cảnh sát, tổ chức tài chính và các khách hàng khác xác định danh tính của mọi người.

Giữa lúc lo ngại về Clearview AI, RCMP đã tạo ra Chương trình Đào tạo Công nghệ để đánh giá mức độ tuân thủ của các kỹ thuật thu thập với luật về quyền riêng tư.

Báo cáo của nhóm cố vấn về minh bạch thúc giục Cảnh sát Hoàng gia Canada công bố nhiều hơn về sáng kiến này. "Nếu tất cả các hoạt động được thực hiện theo Chương trình Onboarding đều được giữ bí mật, tính minh bạch sẽ tiếp tục bị ảnh hưởng".

RCMP cho biết họ có kế hoạch sớm công bố bản thiết kế minh bạch, trong đó cung cấp tổng quan về các nguyên tắc chính của Chương trình Onboarding về việc sử dụng công nghệ có trách nhiệm, cũng như thông tin chi tiết về các công cụ mà chương trình đã đánh giá.

Cảnh sát Hoàng gia Canada cho biết họ cũng đang xây dựng chính sách quốc gia về việc sử dụng AI, trong đó bao gồm phương tiện đảm bảo tính minh bạch về các công cụ và biện pháp bảo vệ.

Nhóm cố vấn về minh bạch cũng chỉ trích chính phủ vì không báo cáo công khai về tiến độ hoặc thành tựu của cam kết minh bạch. Nhóm khuyến nghị xem xét chính thức cam kết này bằng cách "báo cáo công khai về các sáng kiến đã thực hiện, tác động cho đến nay và các hoạt động sắp tới."

Cơ quan An toàn Công cộng Canada cho biết các khuyến nghị khác nhau của báo cáo đã được chia sẻ với thứ trưởng của bộ và cộng đồng an ninh quốc gia nói chung, bao gồm các ủy ban có liên quan.

Tuy nhiên, bộ này không nói rõ liệu họ có đồng ý với các khuyến nghị hay không hoặc không đưa ra mốc thời gian để thực hiện các khuyến nghị đó.

©2024 The Canadian Press

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept