Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Các chuyên gia bất đồng về mối đe dọa đặt ra nhưng trí tuệ nhân tạo không thể bị phớt lờ

Đối với một số chuyên gia AI, thời điểm bước ngoặt trong phát triển trí tuệ nhân tạo không còn xa nữa. Và hội nghị thượng đỉnh về an toàn AI toàn cầu, sẽ được tổ chức tại Công viên Bletchley ở Buckinghamshire vào tháng 11.

Ian Hogarth, chủ tịch lực lượng đặc nhiệm Vương quốc Anh chịu trách nhiệm xem xét kỹ lưỡng sự an toàn của AI tiên tiến, đã nêu lên mối lo ngại trước khi ông nhận công việc trong năm nay về trí tuệ nhân tạo tổng hợp, hay còn gọi là AI “giống như Chúa.” Các định nghĩa về AGI khác nhau nhưng nhìn chung nó đề cập đến một hệ thống AI có thể thực hiện một nhiệm vụ ở cấp độ con người hoặc cao hơn con người - và có thể trốn tránh sự kiểm soát của chúng ta.

Max Tegmark, nhà khoa học đằng sau một lá thư gây chú ý trong năm nay kêu gọi tạm dừng các thí nghiệm AI lớn, nói với Guardian rằng các chuyên gia công nghệ ở California tin rằng AGI đang đến gần.

“Rất nhiều người ở đây nghĩ rằng chúng ta sẽ có được trí tuệ nhân tạo tổng hợp giống như Chúa trong khoảng ba năm nữa. Một số người nghĩ có thể là hai năm.”

Ông nói thêm: “Một số người cho rằng việc này sẽ mất nhiều thời gian hơn và phải đến năm 2030 mới xảy ra. Điều đó dường như cũng không quá xa vời.”

Cũng có những tiếng nói được kính trọng cho rằng những lời chỉ trích về AGI đang bị cường điệu hóa quá mức. Theo một trong những lập luận phản bác đó, những ổn ào này là một âm mưu gây hoài nghi nhằm điều tiết và rào cản thị trường cũng như củng cố vị thế của những ông lớn như nhà phát triển ChatGPT OpenAI, Google và Microsoft.

Distributed AI Research Institute đã cảnh báo rằng việc tập trung vào rủi ro hiện hữu sẽ bỏ qua những tác động tức thời từ hệ thống AI như: sử dụng trái phép tác phẩm của nghệ sĩ và tác giả để xây dựng mô hình AI; và sử dụng lao động được trả lương thấp để thực hiện một số nhiệm vụ xây dựng mô hình. Timnit Gebru, người sáng lập và giám đốc điều hành của DAIR, tuần trước đã khen ngợi một thượng nghị sĩ Mỹ vì đã nêu lên mối lo ngại về điều kiện làm việc cho nhân viên dữ liệu thay vì tập trung vào “rủi ro hiện hữu vô nghĩa.”

Một quan điểm khác cho rằng AGI không thể kiểm soát được sẽ không xảy ra.

William Dally, nhà khoa học trưởng của nhà sản xuất chip AI Nvidia, cho biết tại phiên điều trần tại Thượng viện Mỹ vào tuần trước: “Trí thông minh nhân tạo không thể kiểm soát là khoa học viễn tưởng chứ không phải thực tế. Con người sẽ luôn quyết định nhường bao nhiêu quyền ra quyết định cho các mô hình AI.”

Tuy nhiên, đối với những người không đồng tình, không thể bỏ qua mối đe dọa do AGI gây ra. Những lo ngại về các hệ thống như vậy bao gồm việc từ chối – và trốn tránh – bị tắt, kết hợp với các AI khác hoặc có thể tự cải thiện bản thân. Connor Leahy, giám đốc điều hành của công ty nghiên cứu an toàn AI Conjecture, cho biết vấn đề đơn giản hơn thế.

“Vấn đề sâu sắc với AGI không phải là nó xấu xa hay có khía cạnh đặc biệt nguy hiểm mà bạn cần phải loại bỏ. Thực tế là nó có năng lực. Nếu bạn không thể kiểm soát một AI có năng lực ở cấp độ con người thì theo định nghĩa, nó rất nguy hiểm,” ông nói.

Các lo ngại khác từ các quan chức chính phủ Anh là phiên bản tiếp theo của các mô hình AI, dưới mức AGI, có thể bị thao túng bởi những kẻ khủng bố để tạo ra các mối đe dọa nghiêm trọng như vũ khí sinh học. AI nguồn mở, trong đó các mô hình làm nền tảng cho công nghệ được cung cấp miễn phí và có thể sửa đổi, là một mối quan tâm liên quan.

Các quan chức cho biết họ cũng đang nỗ lực chống lại những rủi ro trong thời gian ngắn hơn, chẳng hạn như thông tin sai lệch và vi phạm bản quyền. Nhưng với việc các nhà lãnh đạo quốc tế sẽ đến Bletchley Park trong vài tuần nữa, Phố Downing muốn tập trung sự chú ý của thế giới vào một điều mà các quan chức tin rằng chưa được xem xét đủ nghiêm túc trong giới chính sách: khả năng máy móc có thể gây ra thiệt hại nghiêm trọng cho nhân loại.

© 2023 The Guardian

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept