Giám đốc kinh doanh tại phòng thí nghiệm nghiên cứu trí tuệ nhân tạo của Google cho biết thế giới đang có "khoảnh khắc eureka" xung quanh trí tuệ nhân tạo, nhưng chúng ta phải chịu trách nhiệm với công nghệ này.
Colin Murdoch của Google's DeepMind cho biết, sự bùng nổ mối quan tâm xung quanh AI đến từ những tiến bộ gần đây trong công nghệ cho phép mọi người sử dụng nó với ngôn ngữ đàm thoại, thay vì các lập trình viên chủ yếu tìm hiểu về nó trước đây.
Ông nói trong một cuộc phỏng vấn với The Canadian Press: “Thật bất ngờ, nó dễ tiếp cận hơn nhiều vì bố và mẹ tôi có thể làm được điều này.”
"Ai cũng có thể làm được."
Sự gia tăng số lượng người và các công ty thử nghiệm AI đã được kích hoạt bởi việc phát hành ChatGPT vào năm ngoái, một chatbot AI tạo sinh có khả năng thực hiện các cuộc hội thoại và nhiệm vụ giống như con người do OpenAI có trụ sở tại San Francisco phát triển.
Việc phát hành đã bắt đầu một cuộc đua AI với các tên tuổi công nghệ hàng đầu khác bao gồm Google và sản phẩm của hãng là Bard, tạo thêm sự chú ý cho DeepMind, công ty có trụ sở tại Vương quốc Anh, nhưng có không gian làm việc ở Montreal và Toronto.
Giờ đây, tất cả mọi người từ các công ty chăm sóc sức khỏe đến các công ty dầu khí và doanh nghiệp công nghệ đều đang quảng cáo việc sử dụng hoặc lên kế hoạch cho AI.
Nhưng Murdoch nói rằng tính phổ biến phải được đáp ứng bằng một cách tiếp cận cẩn thận và cân nhắc kỹ lưỡng về tất cả các rủi ro mà AI mang lại.
“Cách chúng tôi nghĩ về điều này là táo bạo và có trách nhiệm vì đó là sự cân bằng,”ông nói.
"Điều chúng tôi muốn đảm bảo là chúng tôi đang làm điều này theo cách cho phép xã hội được hưởng lợi từ tiềm năng đáng kinh ngạc của công nghệ này, nhưng lời hứa đặc biệt cũng cần được chăm sóc đặc biệt, đó là lý do tại sao chúng tôi phải hành động có trách nhiệm và tại sao chúng ta phải đi tiên phong một cách có trách nhiệm."
Nhưng AI có trách nhiệm trông như thế nào?
Tại Google, trong giai đoạn khởi đầu, điều đó có nghĩa là sẵn sàng đón nhận những lời chỉ trích ở mọi bước của quy trình phát triển AI.
Murdoch cho biết công ty dựa vào các ủy ban đánh giá nội bộ và bên ngoài kể từ ngày một ý tưởng được tạo ra cho đến khi nó được tung ra sử dụng công khai.
Ông nói: “Chúng tôi đảm bảo rằng chúng tôi có sự giám sát đúng đắn đối với công việc của mình, vì vậy, chẳng hạn, chúng tôi có các nhà đạo đức học ngồi cạnh các chuyên gia chính sách ngồi cạnh các chuyên gia máy học.”
"Họ đang kiểm tra áp lực công việc từ đầu đến cuối để xác định cách chúng tôi tối đa hóa lợi ích của công việc và cũng giải quyết mọi thay đổi tiềm ẩn mà chúng tôi cần thực hiện."
Đôi khi, họ thúc giục nhân viên nói chuyện với nhiều chuyên gia bên ngoài hơn nữa về sự phân nhánh, chẳng hạn như khi họ đang xây dựng AlphaFold và 30 người từ chuyên gia sinh học đến chuyên gia an toàn sinh học và nông dân đã được hỏi ý kiến.
AlphaFold có thể dự đoán mô hình 3D của cấu trúc protein. Murdoch cho rằng công nghệ này đã lập bản đồ tất cả 200 triệu protein được khoa học biết đến, tiết kiệm một tỷ năm thời gian nghiên cứu trong quá trình này vì nó có thể xác định cấu trúc của protein trong vài phút và đôi khi thậm chí là vài giây thay vì nhiều năm.
Nó đã được các nhà nghiên cứu tại Đại học Toronto sử dụng để xác định mục tiêu điều trị ung thư gan.
"Making sure that people building, deploying and AI practitioners somehow reflects broader society is very important," he said.
Ngoài việc đảm bảo các sản phẩm liên quan đến đánh giá bên ngoài, Murdoch cho biết AI có trách nhiệm cũng tính đến sự thiên vị. Nhiều người cho rằng sự thiên vị gia tăng trong AI là do thiếu sự đa dạng và thiếu quan điểm trong giai đoạn xây dựng và đào tạo.
Ông nói: “Đảm bảo rằng những người xây dựng, triển khai và những người thực hành AI bằng cách nào đó phản ánh xã hội rộng lớn hơn là rất quan trọng.”
Giáo dục và sự tham gia của cộng đồng có thể giúp giải quyết vấn đề thiên vị cùng với việc ngành trở nên minh bạch hơn, vì vậy các công ty khởi nghiệp nhỏ hơn, ít nguồn lực hơn có thể học hỏi từ những đối thủ nặng ký như Google.
Nhận xét của Murdoch được đưa ra trong chuyến thăm từ Vương quốc Anh tới Toronto, nơi ông phát biểu tại hội nghị công nghệ Collision kéo dài bốn ngày về cảm nhận của ông về AI đang thay đổi thế giới.
Cuối ngày, nhà tiên phong về AI Geoffrey Hinton, người đã rời Google để có thể tự do thảo luận về sự nguy hiểm của AI vào tháng 5, đã lên sân khấu tương tự để thảo luận về những bước nhảy vọt mà công nghệ này đã đạt được trong năm qua, điều mà ngay cả ông cũng không dự đoán sẽ đến sớm như vậy.
Hinton đã lo ngại sâu sắc về tác động của AI trong nhiều tháng và vào thứ Tư, ông đã vạch ra sáu tác hại mà công nghệ này gây ra, bao gồm thành kiến và phân biệt đối xử, tình trạng thất nghiệp, buồng dội âm, tin giả, rô bốt trong chiến tranh và rủi ro hiện hữu.
Trong khi ông nói rằng công nghệ này có thể hỗ trợ rất nhiều trong cách nhân loại tiếp cận với biến đổi khí hậu và y học, ông cũng cảnh báo rằng nó có thể gây ra những thay đổi đối với nghề nghiệp và thậm chí cả sự an toàn.
Ví dụ, anh ấy gợi ý con của Nick Thompson, giám đốc điều hành của Atlantic đang phỏng vấn Hinton trên sân khấu, hãy theo đuổi nghề làm ống nước hơn là phương tiện truyền thông vì AI đã trở nên có khả năng như thế nào trong việc hoàn thành các nhiệm vụ không thể thiếu đối với các công việc phi kỹ thuật.
Ở cấp độ tồn tại, Hinton cho biết ông lo lắng về việc các bộ quốc phòng chế tạo robot cho chiến tranh sẽ cần phải có một công ước quốc tế để ngăn chặn.
“Tôi nghĩ điều quan trọng là mọi người hiểu rằng đây không chỉ là khoa học viễn tưởng, nó không chỉ là nỗi sợ hãi gieo rắc,” ông nói.
"Đó là một rủi ro thực sự mà chúng ta cần phải suy nghĩ và chúng ta cần tìm ra cách đối phó trước."
Về phần Murdoch, ông cho biết thế giới không nên tập trung vào một rủi ro đơn lẻ do AI gây ra mà thay vào đó nên thực hiện một cách tiếp cận "toàn diện" và hãy nhớ rằng chúng ta vẫn đang ở giai đoạn đầu của việc sử dụng và tích hợp công nghệ này.
"Chúng ta vẫn đang ở nấc thang đầu tiên và mỗi nấc thang chúng ta bước lên, chúng ta sẽ trở nên mạnh mẽ và có khả năng hơn."
© 2023 The Canadian Press
Bản tiếng Việt của The Canada Life