Đại diện của các công ty Big Tech cho biết dự luật của chính phủ Tự do sẽ bắt đầu điều chỉnh một số hệ thống trí tuệ nhân tạo là quá mơ hồ.
Các giám đốc điều hành của Amazon và Microsoft đã nói với các nghị sĩ tại cuộc họp của ủy ban công nghiệp Hạ viện hôm 07/02 rằng Dự luật C-27 không phân biệt đủ giữa các hệ thống AI có rủi ro cao và rủi ro thấp.
Các công ty cho biết việc tuân thủ luật như đã viết sẽ rất tốn kém.
Nicole Foster, giám đốc trí tuệ nhân tạo toàn cầu và chính sách công Canada của Amazon, cho biết việc sử dụng cùng một cách tiếp cận cho tất cả các ứng dụng là “rất không thực tế và vô tình có thể cản trở sự đổi mới.”
Cô cho biết, việc sử dụng AI của nhân viên thực thi pháp luật được coi là có tác động cao trong mọi trường hợp - ngay cả khi một sĩ quan đang sử dụng tính năng tự động sửa lỗi để điền vào phiếu phạt vi phạm giao thông.
Foster nói: “Luật pháp và quy định phải phân biệt rõ ràng giữa các ứng dụng có rủi ro cao và những ứng dụng gây ra ít hoặc không có rủi ro. Đây là nguyên tắc cốt lõi mà chúng ta phải thực hiện đúng.”
“Chúng ta nên hết sức cẩn thận trong việc áp đặt gánh nặng pháp lý đối với các ứng dụng AI có rủi ro thấp vốn có khả năng mang lại sự tăng năng suất rất cần thiết cho các công ty Canada cả lớn và nhỏ.”
Microsoft đã đưa ra ví dụ riêng của mình về việc luật dường như không phân biệt dựa trên mức độ rủi ro mà các hệ thống AI cụ thể đưa ra.
Một hệ thống AI được sử dụng để phê duyệt khoản thế chấp của một người và xử lý các chi tiết nhạy cảm về tài chính của họ sẽ được coi là giống như hệ thống được sử dụng để tối ưu hóa các tuyến giao hàng bằng cách sử dụng dữ liệu công khai.
Bộ trưởng Công nghiệp François-Philippe Champagne đã cung cấp văn bản sửa đổi mà chính phủ dự kiến sẽ đưa ra cho dự luật để đảm bảo nó được cập nhật.
Nhưng bất chấp những chi tiết bổ sung đó, các công ty cho biết các định nghĩa trong dự luật vẫn còn quá mơ hồ.
Amanda Craig, giám đốc cấp cao về chính sách công tại văn phòng AI của Microsoft, cho biết việc không phân biệt giữa hai lĩnh vực này sẽ “làm lãng phí thời gian, tiền bạc, tài năng và nguồn lực của các doanh nghiệp Canada — và có thể có nghĩa là các nguồn lực hữu hạn không được tập trung đầy đủ vào rủi ro cao nhất.”
Dự luật C-27 đã được lập vào năm 2022 để nhắm mục tiêu vào những gì được mô tả là hệ thống AI "có tác động cao."
Nhưng các hệ thống trí tuệ nhân tạo như ChatGPT, có thể tạo văn bản, hình ảnh và video, chỉ được phổ biến rộng rãi cho công chúng sau khi dự luật lần đầu tiên được đưa ra.
Đảng Tự do hiện cho biết sẽ sửa đổi luật để đưa ra các quy tắc mới, bao gồm yêu cầu các công ty đứng sau các hệ thống như vậy thực hiện các bước để đảm bảo nội dung họ tạo ra có thể được nhận dạng là do AI tạo ra.
Craig cho biết có những phần của dự luật đi xa hơn luật tương tự ở Liên minh châu Âu.
Rachel Curran, người đứng đầu chính sách công của Meta tại Canada, cho biết “AIDA đã tạo ra một tiêu chuẩn không tồn tại ở bất kỳ nơi nào khác trên thế giới,” đề cập đến phần AI của Dự luật C-27, Đạo luật Dữ liệu và Trí tuệ Nhân tạo.
Cô nói rằng Meta có đủ nguồn lực để đáp ứng điều đó nhưng cảnh báo “chi phí tuân thủ là cực kỳ cao.”
“Điều đó có nghĩa là một số sản phẩm nhất định có thể không được tung ra thị trường Canada phải không? Có thể.”
Cô nói “EU đang thiết lập một chuẩn mực hàng đầu thế giới.”
“Ít nhất chúng ta không nên vượt quá mức đó.”
Meta cũng gặp vấn đề với một trong những sửa đổi được đề xuất của chính phủ, mà Curran cho biết sẽ phân loại các hệ thống kiểm duyệt hoặc ưu tiên nội dung là có tác động cao. Meta sở hữu nền tảng Facebook, Instagram và Threads, sử dụng thuật toán để xác định nội dung nào sẽ hiển thị cho người dùng.
Curran nói: “Chúng tôi thực sự không đồng ý rằng những hệ thống này có rủi ro cao như được định nghĩa trong luật.”
Một trong những lời chỉ trích đối với Đạo luật Dữ liệu và Trí tuệ Nhân tạo là việc chính phủ thiếu sự tham vấn trước khi nó được ban hành.
Trả lời câu hỏi của Nghị sĩ đảng Bảo thủ Rick Perkins, đại diện của bốn công ty, một trong số những công ty lớn nhất trong lĩnh vực AI trên toàn thế giới, cho biết chính phủ đã không tham khảo ý kiến của họ trước khi đưa ra dự luật.
Perkins nói: “Thành thật mà nói, tôi thấy thật sốc khi các bạn không được hỏi ý kiến.”
Trước đó, Yoshua Bengio, người được mệnh danh là “cha đẻ” của AI, đã nói với ủy ban tương tự rằng Ottawa nên ban hành luật ngay lập tức, ngay cả khi luật đó không hoàn hảo.
Bengio, giám đốc khoa học tại Mila, Viện AI Quebec, cho biết trí thông minh "siêu nhân" thông minh như con người có thể xuất hiện trong vài năm tới.
Ông nói rằng các hệ thống tiên tiến cuối cùng có thể được sử dụng cho các cuộc tấn công mạng và luật pháp cần phải ngăn chặn rủi ro đó.
AI đã đặt ra rủi ro. Bengio cho biết các video deepfake, được tạo ra để khiến nó trông giống như một người thực đang làm hoặc nói điều gì đó mà họ chưa bao giờ làm, có thể được sử dụng để truyền bá thông tin sai lệch.
© 2024 The Canadian Press
Bản tiếng Việt của The Canada Life