Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Các nhà khoa học cảnh báo hiểm họa AI nhưng chưa thống nhất giải pháp

Các nhà khoa học máy tính đã giúp xây dựng nền tảng của công nghệ trí tuệ nhân tạo ngày nay đang cảnh báo về những mối nguy hiểm của nó, nhưng điều đó không có nghĩa là họ nhất trí về những mối nguy hiểm đó là gì hoặc cách ngăn chặn chúng.

Sau khi nghỉ việc tại Google để có thể phát biểu tự do hơn, người được gọi là Cha đẻ của AI Geoffrey Hinton dự định trình bày những lo lắng của mình tại một hội nghị ở Viện Công nghệ Massachusetts. Ông đã bày tỏ sự hối tiếc về công việc của mình và nghi ngờ về sự tồn tại của nhân loại nếu máy móc trở nên thông minh hơn con người.

Người tiên phong về AI, Yoshua Bengio, người đồng đoạt giải thưởng khoa học máy tính hàng đầu với Hinton, nói với Associated Press hôm thứ Tư rằng anh “khá đồng tình” với những mối quan tâm của Hinton do các chatbot như ChatGPT và công nghệ liên quan mang lại, nhưng lo lắng khi cho rằng việc đơn giản chỉ là nói “Chúng ta thất bại” sẽ không giúp được gì.

Bengio, giáo sư tại Đại học Montreal, cho biết: “Tôi có thể nói rằng điểm khác biệt chính là ông ấy là một người bi quan, còn tôi thì lạc quan hơn. Tôi thực sự nghĩ rằng những mối nguy hiểm — mối nguy hiểm ngắn hạn, lâu dài — đều rất nghiêm trọng và không chỉ một số nhà nghiên cứu mà cả chính phủ và người dân cần phải xem xét nghiêm túc.”

Có rất nhiều dấu hiệu cho thấy các chính phủ đang lắng nghe. Nhà Trắng đã triệu tập các Giám đốc điều hành của Google, Microsoft và OpenAI, nhà sản xuất ChatGPT, gặp Phó Tổng thống Kamala Harris vào thứ Năm trong những gì được các quan chức mô tả là một cuộc thảo luận thẳng thắn về cách giảm thiểu cả rủi ro ngắn hạn và dài hạn của công nghệ của họ. Các nhà lập pháp châu Âu cũng đang đẩy nhanh các cuộc đàm phán để thông qua các quy định mới về AI.

Nhưng tất cả những cuộc nói chuyện về những mối nguy hiểm khủng khiếp nhất trong tương lai khiến một số người lo lắng rằng sự cường điệu xung quanh những cỗ máy siêu phàm - vốn chưa tồn tại - đang làm xao nhãng những nỗ lực thiết lập các biện pháp bảo vệ thực tế đối với các sản phẩm AI hiện tại phần lớn không được kiểm soát.

Margaret Mitchell, cựu lãnh đạo nhóm đạo đức AI của Google, cho biết bà rất buồn vì Hinton đã không lên tiếng trong suốt thập kỷ của mình ở vị trí quyền lực tại Google, đặc biệt là sau vụ lật đổ nhà khoa học da đen nổi tiếng Timnit Gebru hồi năm 2020, người đã nghiên cứu các tác hại của các mô hình ngôn ngữ lớn trước khi chúng được thương mại hóa rộng rãi thành các sản phẩm như ChatGPT và Bard của Google.

“Thật là một đặc ân khi ông ấy thoát khỏi thực tế của việc tuyên truyền phân biệt đối xử hiện nay, truyền bá ngôn ngữ thù địch, nội dung khiêu dâm độc hại và không có sự đồng thuận của phụ nữ, tất cả những vấn đề này đang gây hại tích cực cho những người bị gạt ra ngoài lề trong lĩnh vực công nghệ,” bà Mitchell nói, bà cũng là lãnh đạo bị buộc rời khỏi Google sau sự ra đi của Gebru. “Ông ấy đang bỏ qua tất cả những điều đó để lo lắng về điều gì đó xa hơn.”

Bengio, Hinton và nhà nghiên cứu thứ ba, Yann LeCun, làm việc tại Meta, công ty mẹ của Facebook, đều được trao Giải thưởng Turing năm 2019 vì những đột phá của họ trong lĩnh vực mạng thần kinh nhân tạo, công cụ phát triển các ứng dụng AI ngày nay như ChatGPT.

Bengio, người duy nhất trong số ba người không nhận việc cho một gã khổng lồ công nghệ, đã bày tỏ lo ngại trong nhiều năm về những rủi ro AI trong ngắn hạn, bao gồm sự mất ổn định của thị trường việc làm, vũ khí tự động và sự nguy hiểm của các bộ dữ liệu sai lệch.

Nhưng những lo ngại đó đã tăng lên gần đây, khiến Bengio cùng với các nhà khoa học máy tính và lãnh đạo doanh nghiệp công nghệ khác như Elon Musk và đồng sáng lập Apple Steve Wozniak kêu gọi tạm dừng sáu tháng để phát triển các hệ thống AI mạnh hơn mô hình mới nhất của OpenAI, GPT-4 .

Bengio cho biết hôm thứ Tư rằng ông tin rằng các mô hình ngôn ngữ AI mới nhất đã vượt qua “bài kiểm tra Turing” được đặt tên theo phương pháp của nhà viết mã người Anh và nhà tiên phong về AI Alan Turing được giới thiệu vào năm 1950 để đo lường thời điểm AI trở nên không thể phân biệt được với con người — ít nhất là trên bề mặt.

 “Đó là một cột mốc quan trọng có thể gây ra những hậu quả nghiêm trọng nếu chúng ta không cẩn thận,” Bengio nói. “Mối quan tâm chính của tôi là làm thế nào chúng có thể bị khai thác cho các mục đích bất chính nhằm gây bất ổn cho các nền dân chủ, cho các cuộc tấn công mạng, thông tin sai lệch. Bạn có thể trò chuyện với các hệ thống này và nghĩ rằng bạn đang tương tác với con người. Chúng rất khó phát hiện.”

Trong khi các nhà nghiên cứu ít có khả năng đồng ý là làm thế nào các hệ thống ngôn ngữ AI hiện tại - vốn có nhiều hạn chế, bao gồm cả xu hướng ngụy tạo thông tin - sẽ thực sự trở nên thông minh hơn con người.

Aidan Gomez là một trong những đồng tác giả của tài liệu tiên phong năm 2017 đã giới thiệu cái gọi là kỹ thuật biến áp — chữ “T” ở cuối ChatGPT — để cải thiện hiệu suất của các hệ thống máy học, đặc biệt là cách chúng học từ các đoạn văn của văn bản. Khi đó chỉ là một thực tập sinh 20 tuổi tại Google, Gomez nhớ mình đang nằm trên một chiếc ghế dài tại trụ sở chính của công ty ở California khi nhóm của anh gửi tài liệu vào khoảng 3 giờ sáng khi đến hạn.

“Aidan, điều này sẽ rất lớn,” anh nhớ một đồng nghiệp đã nói với anh về công việc mà kể từ đó đã giúp dẫn đến các hệ thống mới có thể tạo ra văn xuôi và hình ảnh giống con người.

Sáu năm sau và hiện là Giám đốc điều hành của công ty AI của riêng mình, Cohere, Gomez say mê về các ứng dụng tiềm năng của những hệ thống này nhưng lại lo lắng về sự sợ hãi mà anh nói là “tách rời khỏi thực tế” về khả năng thực sự của chúng và “dựa vào những bước nhảy vọt phi thường của trí tưởng tượng và suy luận."

Gomez nói: “Khái niệm rằng những mô hình này bằng cách nào đó sẽ tiếp cận với vũ khí hạt nhân của chúng ta và khởi động một số loại sự kiện cấp độ tuyệt chủng không phải là một bài diễn văn hữu ích. Điều đó có hại cho những nỗ lực chính sách thực dụng đang cố gắng làm điều gì đó tốt đẹp."

© 2023 The Associated Press

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept