Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Biden, Harris gặp các CEO để tìm hiểu về rủi ro AI

Phó Tổng thống Kamala Harris đã gặp gỡ những người đứng đầu Google, Microsoft và hai công ty khác đang phát triển trí tuệ nhân tạo khi chính quyền Biden đưa ra các sáng kiến nhằm đảm bảo công nghệ cải thiện cuộc sống phát triển nhanh chóng này không gây nguy hiểm cho quyền và sự an toàn của mọi người.

Tổng thống Joe Biden đã tham gia cuộc họp trong Phòng Roosevelt của Nhà Trắng trong một thời gian ngắn, nói rằng ông hy vọng nhóm có thể "giáo dục chúng tôi" về những gì cần thiết nhất để bảo vệ và thúc đẩy xã hội.

"Những gì các anh đang làm có tiềm năng to lớn và nguy hiểm to lớn," Biden nói với các CEO, theo một video được đăng trên tài khoản Twitter của ông.

Sự phổ biến của chatbot AI ChatGPT -- ngay cả tổng thống Biden cũng đã dùng thử, các quan chức Nhà Trắng cho biết hôm thứ Năm -- đã gây ra làn sóng đầu tư thương mại vào các công cụ AI có thể viết văn bản giống con người một cách thuyết phục và tạo ra hình ảnh, âm nhạc và quote máy tính.

Nhưng việc nó có thể bắt chước con người một cách dễ dàng đã khiến các chính phủ trên khắp thế giới cân nhắc cách nó có thể lấy đi việc làm, lừa mọi người và truyền bá thông tin sai lệch.

Chính quyền đảng Dân chủ đã công bố khoản đầu tư 140 triệu đô la để thành lập bảy viện nghiên cứu AI mới.

Ngoài ra, Văn phòng Quản lý và Ngân sách của Nhà Trắng dự kiến sẽ ban hành hướng dẫn trong vài tháng tới về cách các cơ quan liên bang có thể sử dụng các công cụ AI. Ngoài ra còn có một cam kết độc lập của các nhà phát triển AI hàng đầu về việc tham gia đánh giá công khai hệ thống của họ vào tháng 8 tại hội nghị hacker DEF CON ở Las Vegas.

Nhưng Nhà Trắng cũng cần có hành động mạnh mẽ hơn khi các hệ thống AI do các công ty này xây dựng đang được tích hợp vào hàng nghìn ứng dụng của người tiêu dùng, Adam Conner thuộc Trung tâm Tiến bộ Hoa Kỳ cho biết.

"Chúng ta đang ở thời điểm mà trong vài tháng tới sẽ thực sự quyết định liệu chúng ta có dẫn đầu về vấn đề này hay nhường lại vai trò lãnh đạo cho những nơi khác trên thế giới, như chúng ta đã làm trong các lĩnh vực quy định công nghệ khác như quyền riêng tư hoặc điều chỉnh các nền tảng trực tuyến lớn, "Conner nói.

Cuộc họp được coi là một cách để Harris và các quan chức chính quyền thảo luận về những rủi ro trong quá trình phát triển AI hiện tại với Giám đốc điều hành Google Sundar Pichai, Giám đốc điều hành Microsoft Satya Nadella và người đứng đầu hai công ty khởi nghiệp có ảnh hưởng: Anthropic do Google hậu thuẫn và OpenAI, nhà sáng tạo ChatGPT, do Microsoft hậu thuẫn.

Harris cho biết trong một tuyên bố sau cuộc họp kín rằng bà đã nói với các giám đốc điều hành rằng "khu vực tư nhân có trách nhiệm đạo đức, luân lý và pháp lý để đảm bảo an toàn và bảo mật cho các sản phẩm của họ."

ChatGPT đã dẫn đầu một loạt các công cụ "AI thế hệ mới" làm tăng thêm mối lo ngại về đạo đức và xã hội đối với các hệ thống được đào tạo tự động dựa trên kho dữ liệu rộng lớn.

Một số công ty, bao gồm OpenAI, đã giữ bí mật về dữ liệu mà hệ thống AI của họ đã được đào tạo. Điều đó khiến người ta khó hiểu tại sao một chatbot lại đưa ra những câu trả lời thiên vị hoặc sai cho các yêu cầu hoặc để giải quyết những lo ngại về việc liệu nó có ăn cắp từ các tác phẩm có bản quyền hay không.

Margaret Mitchell, nhà khoa học đạo đức tại startup AI Hugging Face cho biết rằng các công ty lo lắng về việc phải chịu trách nhiệm về điều gì đó trong dữ liệu đào tạo của họ cũng có thể không có động lực để theo dõi nó một cách chặt chẽ theo cách hữu ích "xét đến một số lo ngại xung quanh sự đồng ý, quyền riêng tư và cấp phép.”

"Từ những gì tôi biết về văn hóa công nghệ, điều đó vẫn chưa được thực hiện," cô nói.

Một số người đã kêu gọi đạo luật tiết lộ để buộc các nhà cung cấp AI mở hệ thống của họ để bên thứ ba giám sát kỹ lưỡng hơn. Nhưng với các hệ thống AI được xây dựng dựa trên các mô hình trước đó, sẽ không dễ dàng để cung cấp tính minh bạch cao hơn sau thực tế.

“Các chính phủ thực sự sẽ quyết định xem điều này có nghĩa là bạn phải vứt bỏ tất cả những công việc bạn đã làm hay không,” Mitchell nói. "Tất nhiên, tôi tưởng tượng rằng ít nhất ở Hoa Kỳ, các quyết định sẽ nghiêng về phía các tập đoàn và ủng hộ thực tế là nó đã được thực hiện. Sẽ có sự phân nhánh lớn như vậy nếu tất cả các công ty này về cơ bản phải vứt bỏ tất cả công việc này và bắt đầu lại."

Trong khi Nhà Trắng hôm thứ Năm báo hiệu một cách tiếp cận hợp tác với ngành, các công ty xây dựng hoặc sử dụng AI cũng đang phải đối mặt với sự giám sát chặt chẽ từ các cơ quan của Hoa Kỳ như Ủy ban Thương mại Liên bang, cơ quan thực thi luật bảo vệ người tiêu dùng và chống độc quyền.

Các công ty cũng phải đối mặt với các quy tắc có thể thắt chặt hơn ở Liên minh châu Âu, nơi các nhà đàm phán đang hoàn thiện các quy định về AI có thể đưa khối 27 quốc gia đi đầu trong nỗ lực toàn cầu nhằm thiết lập các tiêu chuẩn cho công nghệ.

Khi EU lần đầu tiên đưa ra đề xuất về các quy tắc AI vào năm 2021, trọng tâm là kiểm soát các ứng dụng có rủi ro cao đe dọa đến sự an toàn hoặc quyền của mọi người, chẳng hạn như quét khuôn mặt trực tiếp hoặc hệ thống chấm điểm xã hội của chính phủ, vốn đánh giá mọi người dựa trên hành vi của họ. Chatbots hầu như không được đề cập.

Nhưng để phản ánh tốc độ phát triển của công nghệ AI, các nhà đàm phán ở Brussels đã cố gắng cập nhật các đề xuất của họ để tính đến các hệ thống AI có mục đích chung, chẳng hạn như các hệ thống do OpenAI xây dựng. Các điều khoản được thêm vào dự luật sẽ yêu cầu cái gọi là các mô hình AI nền tảng tiết lộ tài liệu bản quyền được sử dụng để đào tạo các hệ thống, theo một dự thảo luật gần đây mà The Associated Press có được.

Một ủy ban của Nghị viện Châu Âu sẽ bỏ phiếu vào tuần tới về dự luật, nhưng có thể mất nhiều năm trước khi Đạo luật AI có hiệu lực.

Ở những nơi khác ở Châu Âu, Italy đã tạm thời cấm ChatGPT do vi phạm các quy tắc nghiêm ngặt về quyền riêng tư của Châu Âu và cơ quan giám sát cạnh tranh của Anh cho biết hôm thứ Năm rằng họ sẽ mở một cuộc đánh giá về thị trường AI.

Heather Frase, thành viên cấp cao tại Trung tâm An ninh và Kỹ thuật khẩn cấp của Đại học Georgetown, cho biết tại Hoa Kỳ, việc đưa các hệ thống AI ra kiểm tra công khai tại hội nghị tin tặc DEF CON có thể là một cách mới để kiểm tra rủi ro, mặc dù có thể không triệt để bằng một cuộc kiểm toán kéo dài.

Cùng với Google, Microsoft, OpenAI và Anthropic, các công ty mà Nhà Trắng cho biết đã đồng ý tham gia bao gồm Hugging Face, nhà sản xuất chip Nvidia và Stability AI, được biết đến với công nghệ tạo hình ảnh Stable Diffusion..

Frase nói: “Đây sẽ là cách để những người có tay nghề cao và sáng tạo thực hiện nó trong một kiểu bùng nổ lớn.

© 2023 The Associated Press

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept