Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Amazon, Google, Meta, Microsoft và các công ty công nghệ khác đồng ý với các biện pháp bảo vệ AI do Nhà Trắng đặt ra

Tổng thống Hoa Kỳ Joe Biden cho biết hôm thứ Sáu rằng các cam kết mới của Amazon, Google, Meta, Microsoft và các công ty khác đang dẫn đầu sự phát triển của công nghệ trí tuệ nhân tạo để đáp ứng một loạt các biện pháp bảo vệ AI do Nhà Trắng của ông làm trung gian là một bước quan trọng để quản lý triển vọng “to lớn” và rủi ro do công nghệ này gây ra.

Biden thông báo rằng chính quyền của ông đã nhận được các cam kết tự nguyện từ bảy công ty Hoa Kỳ nhằm đảm bảo rằng các sản phẩm AI của họ an toàn trước khi tung ra thị trường. Một số cam kết kêu gọi sự giám sát của bên thứ ba đối với hoạt động của thế hệ AI tiếp theo, mặc dù lời kêu gọi không nêu chi tiết ai sẽ kiểm tra công nghệ này hoặc quy trách nhiệm cho các công ty.

“Chúng ta phải sáng suốt và thận trọng về những mối đe dọa mà các công nghệ mới nổi có thể gây ra,” Biden nói, đồng thời cho biết thêm rằng các công ty có “nghĩa vụ cơ bản” để đảm bảo sản phẩm của họ an toàn.

“Mạng xã hội đã cho chúng ta thấy tác hại mà công nghệ mạnh mẽ có thể gây ra nếu không có các biện pháp bảo vệ phù hợp,” Biden nói thêm. “Những cam kết này là một bước đi đầy hứa hẹn, nhưng chúng ta còn nhiều việc phải làm cùng nhau.”

Sự gia tăng đầu tư thương mại vào các công cụ AI tạo sinh có thể viết văn bản giống con người một cách thuyết phục và tạo ra những hình ảnh mới cũng như các phương tiện truyền thông khác đã khiến công chúng bị thu hút cũng như lo ngại về khả năng lừa mọi người và lan truyền thông tin sai lệch, cùng những mối nguy hiểm khác.

Bốn gã khổng lồ công nghệ, cùng với OpenAI, nhà sản xuất ChatGPT và các công ty khởi nghiệp Anthropic và Inflection, đã cam kết kiểm tra bảo mật “được thực hiện một phần bởi các chuyên gia độc lập” để bảo vệ trước những rủi ro lớn, chẳng hạn như an ninh sinh học và an ninh mạng, Nhà Trắng cho biết trong một tuyên bố.

Thử nghiệm đó cũng sẽ xem xét khả năng gây hại cho xã hội, chẳng hạn như thành kiến và phân biệt đối xử, cũng như nhiều nguy cơ về mặt lý thuyết hơn về các hệ thống AI tiên tiến có thể giành quyền kiểm soát các hệ thống vật lý hoặc “tự tái tạo” bằng cách tạo các bản sao của chính chúng.

Các công ty cũng đã cam kết thực hiện các phương pháp báo cáo lỗ hổng hệ thống của họ và sử dụng hình mờ kỹ thuật số để giúp phân biệt giữa hình ảnh hoặc âm thanh thực và do AI tạo ra, được gọi là deepfakes.

Các giám đốc điều hành của bảy công ty đã gặp gỡ kín với Biden và các quan chức khác vào thứ Sáu khi họ cam kết tuân theo các tiêu chuẩn.

“Ông ấy rất kiên quyết và rõ ràng” rằng ông ấy muốn các công ty tiếp tục đổi mới, nhưng đồng thời “cảm thấy rằng điều này cần rất nhiều sự chú ý,” giám đốc điều hành của Inflection, Mustafa Suleyman, cho biết trong một cuộc phỏng vấn sau cuộc họp tại Nhà Trắng.

Suleyman, người có công ty khởi nghiệp có trụ sở tại Palo Alto, California, là công ty trẻ nhất và nhỏ nhất trong số các công ty, cho biết: “Việc tập hợp tất cả các phòng thí nghiệm, tất cả các công ty lại với nhau là một vấn đề lớn. Đây là siêu cạnh tranh và chúng tôi sẽ không đến với nhau trong những trường hợp khác.”

Theo cam kết, các công ty cũng sẽ báo cáo công khai các sai sót và rủi ro trong công nghệ của họ, bao gồm các tác động đối với sự công bằng và thiên vị.

Các cam kết tự nguyện có nghĩa là một cách ngay lập tức để giải quyết rủi ro trước nỗ lực dài hạn hơn để Quốc hội thông qua luật điều chỉnh công nghệ.

Một số người ủng hộ các quy định về AI cho biết động thái của Biden là một sự khởi đầu nhưng cần phải làm nhiều hơn nữa để buộc các công ty và sản phẩm của họ phải chịu trách nhiệm.

Amba Kak, giám đốc điều hành của AI Now Institute cho biết: “Một cuộc thảo luận kín với các bên liên quan dẫn đến các biện pháp bảo vệ tự nguyện là không đủ. Chúng ta cần một cuộc thảo luận công khai trên phạm vi rộng hơn nhiều và điều đó sẽ đưa ra những vấn đề mà các công ty gần như chắc chắn sẽ không tự nguyện cam kết vì nó sẽ dẫn đến những kết quả khác biệt đáng kể, những vấn đề có thể ảnh hưởng trực tiếp hơn đến mô hình kinh doanh của họ.”

Suleyman cho biết, mặc dù tự nguyện, nhưng việc đồng ý đệ trình các bài kiểm tra của “đội đỏ” chọc vào hệ thống AI của họ không phải là một lời hứa dễ dàng.

Suleyman cho biết: “Cam kết mà chúng tôi đã đưa ra để các nhóm đỏ về cơ bản cố gắng phá vỡ các mô hình của chúng tôi, xác định các điểm yếu và sau đó chia sẻ các phương pháp đó với các nhà phát triển mô hình ngôn ngữ lớn khác là một cam kết khá quan trọng.”

Lãnh đạo Đa số Thượng viện Chuck Schumer, D-N.Y., cho biết ông sẽ đưa ra luật để điều chỉnh AI và đang hợp tác chặt chẽ với chính quyền Biden "và các đồng nghiệp lưỡng đảng của chúng tôi" để xây dựng dựa trên các cam kết đã đưa ra hôm thứ Sáu.

Một số giám đốc điều hành công nghệ đã kêu gọi quy định và một số người đã tham dự hội nghị thượng đỉnh Nhà Trắng trước đó vào tháng 5.

Chủ tịch Microsoft Brad Smith cho biết trong một bài đăng trên blog hôm thứ Sáu rằng công ty của ông đang thực hiện một số cam kết vượt xa cam kết của Nhà Trắng, bao gồm hỗ trợ cho quy định sẽ tạo ra “chế độ cấp phép cho các mô hình có khả năng cao.”

The White House pledge notes that it mostly only applies to models that “are overall more powerful than the current industry frontier,” set by recent models such as OpenAI's GPT-4 and image generator DALL-E 2 and similar releases from Anthropic, Google and Amazon.

Một số chuyên gia và các đối thủ cạnh tranh mới nổi lo lắng rằng loại quy định đang được thả nổi có thể là một lợi ích cho những người đi đầu có nhiều tiền do OpenAI, Google và Microsoft dẫn đầu khi những đối thủ nhỏ hơn bị loại bỏ do chi phí cao để khiến hệ thống AI của họ tuân thủ các quy định nghiêm ngặt.

Cam kết của Nhà Trắng lưu ý rằng nó chủ yếu chỉ áp dụng cho các mô hình “về tổng thể mạnh hơn so với biên giới ngành hiện tại,” được thiết lập bởi các mô hình gần đây như GPT-4 của OpenAI và trình tạo hình ảnh DALL-E 2 cũng như các bản phát hành tương tự từ Anthropic, Google và Amazon.

Một số quốc gia đang tìm cách điều chỉnh AI, bao gồm cả các nhà lập pháp Liên minh Châu Âu đang đàm phán các quy tắc AI sâu rộng cho khối 27 quốc gia có thể hạn chế các ứng dụng được coi là có rủi ro cao nhất.

Tổng thư ký Liên Hợp Quốc Antonio Guterres gần đây cho biết Liên Hợp Quốc là “nơi lý tưởng” để áp dụng các tiêu chuẩn toàn cầu và chỉ định một hội đồng sẽ báo cáo lại về các lựa chọn quản trị AI toàn cầu vào cuối năm nay.

Guterres cũng cho biết ông hoan nghênh lời kêu gọi từ một số quốc gia về việc thành lập một cơ quan mới của Liên Hợp Quốc để hỗ trợ các nỗ lực toàn cầu nhằm quản lý AI, lấy cảm hứng từ các mô hình như Cơ quan Năng lượng Nguyên tử Quốc tế hoặc Hội đồng Liên chính phủ về Biến đổi Khí hậu.

Nhà Trắng cho biết hôm thứ Sáu rằng họ đã tham khảo ý kiến về các cam kết tự nguyện với một số quốc gia.

Cam kết tập trung nhiều vào rủi ro an toàn nhưng không giải quyết những lo lắng khác về công nghệ AI mới nhất, bao gồm ảnh hưởng đến việc làm và cạnh tranh thị trường, tài nguyên môi trường cần thiết để xây dựng mô hình và mối quan tâm về bản quyền đối với các tác phẩm, tác phẩm nghệ thuật và công việc thủ công khác của con người đang được sử dụng để dạy các hệ thống AI cách tạo ra nội dung giống con người.

Tuần trước, OpenAI và The Associated Press đã công bố một thỏa thuận để công ty AI được cấp phép cho kho lưu trữ tin tức của AP. Số tiền nó sẽ trả cho nội dung đó không được tiết lộ.

© 2023  The Associated Press

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept