Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Lợi nhuận doanh nghiệp không được lấn át lợi ích công cộng về AI: Đặc phái viên công nghệ của Liên Hợp Quốc

Quan chức công nghệ hàng đầu của Liên Hợp Quốc lo ngại rằng lợi ích doanh nghiệp có thể làm suy yếu nỗ lực kiềm chế trí tuệ nhân tạo, làm trầm trọng thêm sự chia rẽ xã hội và xâm phạm nhân quyền.

Amandeep Gill cho biết trong một cuộc phỏng vấn trước hội nghị AI toàn cầu ở Montreal rằng các quốc gia có thể cảm thấy áp lực phải đáp ứng nhu cầu kinh doanh để có nhiều thời gian hơn thay vì hạn chế sự dư thừa của ngành.

“Thành thật mà nói, tôi khá lo lắng,” anh nói.

Theo đặc phái viên công nghệ của tổng thư ký LHQ, nhân quyền và các giá trị dân chủ đang bị đe dọa.

Các nhà nghiên cứu và các nhà lãnh đạo chính trị đã nêu bật những mối lo ngại, từ các bộ dữ liệu sai lệch và sự bất bình đẳng toàn cầu ngày càng gia tăng cho đến các mối đe dọa hiện hữu xung quanh các cuộc tấn công mạng và vũ khí sinh học do AI phát triển. Nhà tiên phong về trí tuệ nhân tạo Yoshua Bengio, người sáng lập viện Mila AI của Quebec, đã gióng lên hồi chuông cảnh báo về những mối nguy hiểm trước mắt như “làm giả con người” bằng cách sử dụng robot điều khiển bằng AI cũng như đưa ra các quyết định chết người cho máy móc trong chiến tranh.

Các học giả, những người ủng hộ, lãnh đạo doanh nghiệp và các nhà hoạch định chính sách đã gặp nhau tại Montreal để tham dự một hội nghị kéo dài ba ngày với chủ đề “Bảo vệ Nhân quyền trong Thời đại AI” do Mila chủ trì.

Củng cố quyền lực, thành kiến và quyền riêng tư là ba trong số những chủ đề cốt lõi của hội nghị.

Gill cho biết: “Vì có khả năng có sự tập trung nhiều hơn của cải và quyền lực công nghệ vào một số công ty, điều đó có ý nghĩa đối với công bằng xã hội, đối với khế ước xã hội của chúng ta.”

Ông cho biết, mong muốn giành được lợi thế trong cuộc đua công nghệ toàn cầu có thể xung đột với nhu cầu hạn chế rủi ro xung quanh những tiến bộ nhanh chóng của AI thông qua luật pháp và quy định. Gill cũng nhấn mạnh rằng việc độc quyền hoặc tập trung AI vào một số quốc gia sẽ gây bất lợi cho các công ty nhỏ hơn và các quốc gia đang phát triển.

Quy mô khổng lồ của các tập đoàn như Microsoft, Google và Amazon có nghĩa là AI có thể bị thống trị bởi một nhóm ưu tú gần như ngay từ đầu.

Theo một báo cáo gần đây, “Một số công ty Big Tech - bằng cách khai thác sức mạnh độc quyền hiện có và tích cực hợp tác với các tác nhân khác - đã định vị mình để kiểm soát tương lai của trí tuệ nhân tạo và phóng đại nhiều vấn đề tồi tệ nhất của thời đại kỹ thuật số,” theo một báo cáo gần đây của Viện Thị trường Mở và Trung tâm Báo chí và Tự do.

Sự phân cực hơn nữa trong nội bộ và giữa các quốc gia là một kết quả có thể xảy ra khác của việc chạy đua AI điên cuồng.

Gill nói: “Nếu AI được tận dụng để làm giả sâu sắc, để tạo ra thông tin sai lệch, thông tin sai lệch trên quy mô lớn, điều đó có thể làm suy yếu tính hợp pháp của các quy trình chính trị trong xã hội của chúng ta”.

Các nỗ lực can thiệp vào cuộc bầu cử do AI tạo ra đã bắt đầu, chẳng hạn như khi các cuộc gọi tự động bằng AI bắt chước giọng nói của Tổng thống Mỹ Joe Biden đã cố gắng ngăn cản mọi người bỏ phiếu trong cuộc bầu cử sơ bộ ở New Hampshire vào tháng trước.

Sự thiên vị tích hợp cũng là một vấn đề đang diễn ra trong lĩnh vực này vì các thuật toán dựa trên hàng loạt dữ liệu đôi khi mở rộng những định kiến hiện có thay vì sàng lọc chúng. Gill nói: “Những điều đó có thể kéo dài thậm chí còn tồi tệ hơn, cho dù đó là các quyết định được đưa ra về nhà ở, lệnh tạm tha, trong hệ thống tư pháp hay phân bổ phúc lợi xã hội.”

AI ngày càng tham gia nhiều hơn vào các quyết định gây hậu quả nghiêm trọng cho cá nhân.

Kể từ năm 2015, các sở cảnh sát ở Vancouver, Edmonton, Calgary, Saskatoon và London, Ontario, đã triển khai hoặc thí điểm chính sách dự đoán — đưa ra quyết định tự động dựa trên dữ liệu dự đoán nơi tội phạm sẽ xảy ra hoặc ai sẽ phạm tội.

Hệ thống nhập cư và tị nạn liên bang dựa vào các quyết định dựa trên thuật toán để giúp xác định các yếu tố như liệu một cuộc hôn nhân có thật hay ai đó nên bị coi là “rủi ro” hay không, theo một nghiên cứu của Citizen Lab, trong đó nhận thấy hành vi này có nguy cơ vi phạm luật nhân quyền.

Vào năm 2014, Apple Inc. đã tiết lộ ứng dụng Apple Health cho đồng hồ thông minh của mình, một giám đốc điều hành cho biết ứng dụng này sẽ “giám sát tất cả các số liệu mà bạn quan tâm nhất.”

Benjamin Prud'homme, người đứng đầu chính sách của Mila cho biết: “Nó nhìn vào nhịp tim của bạn, nó nhìn vào lượng muối của bạn. Tuy nhiên, nó chỉ được phát triển bởi nam giới nên họ hoàn toàn quên mất việc xem xét chu kỳ kinh nguyệt."

Gill nói thêm rằng kết quả mang tính phân biệt đối xử không chỉ giới hạn ở cấp quốc gia, đồng thời lưu ý rằng thông tin được đưa vào các mô hình học máy phần lớn bắt nguồn từ Bắc Mỹ hoặc Tây Âu.

“Điều đó có nghĩa là phần lớn các nền văn hóa, ngôn ngữ và bối cảnh thế giới không được phản ánh chính xác trong các bộ dữ liệu này.”

Trong khi đó, quyền theo dõi hoạt động trực tuyến của công dân và người dùng mạng xã hội có nguy cơ dẫn đến vi phạm quyền riêng tư.

Bất chấp sự cấp thiết phải kiểm soát AI tiên tiến, Gill cho biết Liên Hợp Quốc phải thực hiện cách tiếp cận “khiêm tốn” trong việc thiết lập các quy tắc nhằm khuyến khích càng nhiều quốc gia tham gia càng tốt.

Tháng trước, một cơ quan cố vấn của Liên Hợp Quốc đã công bố một báo cáo sơ bộ đưa ra các nguyên tắc hướng dẫn cho khuôn khổ quản trị AI, nhấn mạnh rằng không quốc gia nào bị “bỏ lại phía sau” khi tốc độ đổi mới gần đạt tốc độ ánh sáng.

Tại Canada, chính phủ liên bang đã đưa ra luật đặt các rào cản xung quanh việc sử dụng AI vào tháng 6 năm 2022, nhưng nó chỉ đang tồn tại ở giai đoạn ủy ban trong gần 10 tháng.

Các giám đốc điều hành của Big Tech cho biết tuần trước rằng Đạo luật Dữ liệu và Trí tuệ Nhân tạo hiện tại quá mơ hồ, cho rằng nó không phân biệt đầy đủ giữa các hệ thống AI có rủi ro cao và thấp.

Đảng Tự do cho biết họ sẽ sửa đổi đạo luật để đưa ra các quy định mới. Chúng bao gồm việc yêu cầu các công ty chịu trách nhiệm về hệ thống AI tổng hợp – công cụ thuật toán đằng sau các chatbot như ChatGPT của OpenAI, có thể đưa ra bất cứ điều gì từ các vấn đề toán học đến lời khuyên về hôn nhân – thực hiện các bước để đảm bảo nội dung của họ có thể được nhận dạng là do AI tạo ra.

Luật này vẫn hướng đến một cách tiếp cận tổng quát hơn, dựa trên nguyên tắc để quản trị AI, cho phép linh hoạt trong bối cảnh công nghệ không ngừng phát triển, để lại hầu hết các chi tiết cho đến sau này.

Ottawa cho biết đạo luật được gọi là Bill C-27 sẽ có hiệu lực không sớm hơn năm 2025.

© 2024 The Canadian Press

BẢN TIẾNG VIỆT CỦA THE CANADA LIFE

ĐỌC THÊM

  • We accept We accept