Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Các nhà nghiên cứu ở Montreal đã đưa ChatGPT vào thử nghiệm, nói rằng các nhà khoa học hãy cẩn thận

Theo một nghiên cứu mới ở Montreal xem xét chất lượng và độ chính xác của thông tin cụ thể từ ChatGPT, các nhà khoa học dựa vào trí tuệ nhân tạo khi họ viết bài nghiên cứu của mình có thể sẽ lan truyền thông tin sai lệch.

Kết quả của nghiên cứu, được công bố trên Mayo Clinic Proceedings: Digital Health, cho thấy chatbot đưa ra những câu trả lời đáng ngờ và bao gồm các lỗi thực tế cũng như tài liệu tham khảo bịa đặt.

Đồng tác giả, Tiến sĩ Esli Osmanlliu, bác sĩ cấp cứu tại Bệnh viện Nhi đồng Montreal, cho biết: "Tôi đã bị sốc trước mức độ bịa đặt của các tài liệu tham khảo. Tôi không ngờ nó lại quan trọng đến vậy".

Để kiểm tra mô hình AI này, ông và hai đồng nghiệp tại CHU Sainte-Justine — Tiến sĩ Jocelyn Gravel và Madeleine D’Amours-Gravel — đã hỏi ChatGPT 20 câu hỏi y tế từ các nghiên cứu hiện có. Sau đó, họ yêu cầu các tác giả của nghiên cứu đánh giá câu trả lời của nó.

Trong số 20 tác giả, 17 tác giả đã tham gia và kết luận rằng hầu hết thông tin mà chatbot trả về đều có vấn đề, dẫn đến điểm trung bình là 60%.

Osmanlliu cho biết: “Cụ thể, trong một số trường hợp, nó đề xuất sử dụng steroid bằng cách tiêm trong khi trên thực tế, phương pháp điều trị là bằng đường uống, vì vậy đó là một sự khác biệt khá lớn trong cách chúng ta sử dụng thuốc,” Osmanlliu cho biết.

Gần 70 phần trăm các tài liệu tham khảo nghiên cứu được cung cấp đã được tạo ra bởi công cụ AI và điều đáng lo ngại là chúng có vẻ xác thực ngay từ cái nhìn đầu tiên, điều đó có nghĩa là các nhà khoa học có thể dễ dàng bị lừa hơn.

"(ChatGPT) sẽ rất tự tin và nói rằng, đây là nguồn của tôi, và hơn 70% trường hợp, những nguồn đó không tồn tại, mặc dù các tác giả, tiêu đề, tạp chí trông có vẻ hợp lý."

“Vì vậy, tư duy phản biện là vô cùng quan trọng,” Osmanlliu nói, đồng thời cho biết thêm rằng ông khuyên các nhà khoa học đồng nghiệp của mình nên kiểm tra thực tế theo cách lỗi thời để cuối cùng họ không đưa khoa học sai lầm hoặc khoa học không tồn tại vào bản thảo của mình.

Nghiên cứu cho thấy, thậm chí 8 trong số 18 tài liệu tham khảo thực do ChatGPT đưa ra có lỗi.

Nếu thông tin sai lệch đó được công bố, thì những tuyên bố sai sự thật có thể lan truyền nhanh chóng trên toàn thế giới. Việc trích dẫn các tài liệu tham khảo không chính xác về mặt lý thuyết thậm chí có thể dẫn đến cáo buộc đạo văn nếu các tác giả khác không được trích dẫn chính xác và ghi công cho tác phẩm của họ.

Osmanlliu cho biết ChatGPT và các công cụ AI khác mang đến cơ hội giúp công việc trở nên dễ dàng và nhanh chóng hơn miễn là chúng không bóp méo sự thật và được sử dụng đúng mục đích.

"Mặc dù đôi khi có cảm giác như chúng ta đang nói chuyện với một con người, cảm giác như chúng ta đang nói chuyện với một người có tri giác, thực sự thông minh, nhưng không phải lúc nào cũng vậy, phải không?"

“Đó là điều rất nguy hiểm,” ông nói, “đặc biệt là khi bạn đang cố gắng đưa ra những quyết định mang tính rủi ro cao.”

© 2023 CTVNews.ca

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept