Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Kids Help Phone tìm kiếm sự trợ giúp từ công nghệ AI để đáp ứng nhu cầu hỗ trợ sức khỏe tâm thần

Kids Help Phone cho biết nhóm đang chuyển sang sử dụng trí tuệ nhân tạo để giúp đáp ứng "nhu cầu to lớn" khi ngày càng có nhiều người trẻ tìm đến sự giúp đỡ và hỗ trợ về sức khỏe tâm thần.

Michael Cole, phó chủ tịch cấp cao kiêm giám đốc thông tin của Kids Help Phone cho biết: “Những người trẻ tuổi đang thay đổi nhanh chóng và công nghệ cũng thay đổi nhanh hơn.”

Đường dây trợ giúp này đang hợp tác với Viện Vector có trụ sở tại Toronto, nơi tự nhận mình là nhà tư vấn cho các tổ chức, doanh nghiệp và chính phủ để phát triển và áp dụng các chương trình AI "có trách nhiệm."

AI được lên kế hoạch sẽ có thể nhận ra các từ khóa và kiểu nói từ những người trẻ tuổi liên hệ với Kids Help Phone để giúp các cố vấn bận rộn tập trung vào những gì họ cần và điều chỉnh sự hỗ trợ của họ cho phù hợp.

Nhưng Kids Help Phone cho biết họ nhận thức sâu sắc rằng thuật ngữ "trí tuệ nhân tạo" có thể cảnh báo mọi người khi họ liên tưởng đến hình ảnh của máy tính hoặc chatbot chứ không phải con người ở đầu bên kia của đường dây trợ giúp.

Katherine Hay, chủ tịch kiêm giám đốc điều hành của tổ chức, cho biết đó không phải là cách chương trình AI của mình hoạt động.

Hay nói: “Luôn luôn là con người với con người. Nó không thay thế cách tiếp cận giữa con người với con người."

Thay vào đó, thông tin do AI thu thập sẽ có sẵn cho các cố vấn con người khi họ làm việc với người trẻ tuổi ở phía bên kia của cuộc gọi hoặc trao đổi tin nhắn, cô nói.

Đường dây hỗ trợ quốc gia 24/7 dành cho trẻ em và người lớn đã có nhu cầu sử dụng các dịch vụ  tăng lên rất nhiều kể từ khi đại dịch COVID-19 bắt đầu. Sau khi nhận được khoảng 1,9 triệu cuộc gọi, tin nhắn, trò chuyện trực tiếp hoặc lượt truy cập vào trang web của mình trong năm 2019, Kids Help Phone đã chứng kiến con số đó tăng lên hơn 15 triệu kể từ năm 2020, theo số liệu do tổ chức cung cấp.

Tổ chức này đã sử dụng một số công nghệ AI để giúp phân loại các văn bản, Hay nói.

Ví dụ: nếu ai đó sử dụng các từ hoặc cụm từ kích hoạt như "'Tôi cảm thấy vô vọng, tôi nghĩ mình muốn chết' hoặc điều gì đó tương tự như vậy, thì cuộc trò chuyện đó sẽ được đặt lên hàng đầu (để nói chuyện với một cố vấn) ," cô nói.

Roxana Sultan, giám đốc dữ liệu của Vector và phó chủ tịch bộ phận y tế của công ty, cho biết việc coi AI như một công cụ, không phải là sự thay thế cho con người, là một phần quan trọng trong việc sử dụng công nghệ một cách có trách nhiệm trong chăm sóc sức khỏe.

"Chúng tôi đã nói rất rõ ràng với tất cả các đối tác của mình rằng các công cụ mà chúng tôi đang phát triển luôn nhằm mục đích hỗ trợ các bác sĩ lâm sàng. Chúng không bao giờ nhằm thay thế sự đánh giá của bác sĩ lâm sàng, sự tham gia của bác sĩ lâm sàng," Sultan nói.

Công cụ AI của Kids Help Phone sẽ sử dụng "xử lý ngôn ngữ tự nhiên" để xác định "từ khóa hoặc từ kích hoạt có liên quan đến các loại vấn đề cụ thể," cô nói.

“Nếu một người trẻ tuổi sử dụng một từ cụ thể trong giao tiếp của họ có liên quan hoặc liên quan đến một vấn đề hoặc mối quan tâm cụ thể, nó sẽ bị mô hình này đánh dấu và nó sẽ cảnh báo cho các nhân viên chuyên nghiệp,” Sultan nói.

Ví dụ, AI có thể được huấn luyện để nhận ra những từ ám chỉ chứng rối loạn ăn uống có thể xảy ra, cho phép chuyên gia tư vấn xoay chuyển cuộc trò chuyện theo hướng đó và đưa ra các nguồn lực cũng như hỗ trợ cụ thể.

AI cũng có thể được đào tạo để xác định các từ và xu hướng mới liên quan đến các tình huống gây đau khổ và lo lắng, chẳng hạn như đại dịch, biến đổi khí hậu, cháy rừng hoặc xả súng hàng loạt.

"Điều đó thực sự nhằm tăng cường các dịch vụ mà đội ngũ nhân viên chuyên nghiệp đang cung cấp," Sultan nói. "(Nó) giúp họ trở nên chuyên nghiệp và hiệu quả hơn về cách họ quản lý các vấn đề phát sinh trong quá trình trò chuyện."

Sultan cho biết, điều quan trọng là đảm bảo các công cụ AI được các bác sĩ lâm sàng kiểm tra kỹ lưỡng trước khi tung ra thị trường. Kids Help Phone và Vector dự kiến sẽ ra mắt công nghệ mới vào khoảng năm 2024.

Sau khi ra mắt, điều quan trọng là nhân viên tuyến đầu sử dụng nó phải liên tục đánh giá thông tin họ nhận được.

"Bạn thực sự không thể làm theo một cách mù quáng những gì mà bất kỳ thuật toán nào đang hướng dẫn bạn thực hiện trong thực tế. Vì vậy, dù mô hình có chất lượng cao đến đâu, được đào tạo bài bản đến mức nào, thì nó cũng không bao giờ nhằm thay thế khả năng phán đoán và kinh nghiệm của bạn với tư cách là một bác sĩ lâm sàng ," Sultan nói.

Cô nói nếu AI đang tạo ra thứ gì đó có vẻ "hơi khác thường," thì điều đó nên được gắn cờ và điều tra.

Cô nói rằng một mối quan tâm khác mà mọi người có thể có về AI là tính bảo mật của thông tin cá nhân của họ.

“Điều thực sự quan trọng cần làm rõ là tất cả dữ liệu được sử dụng để huấn luyện các mô hình đều được hủy nhận dạng,” Sultan nói.

"Vì vậy, không có rủi ro khi biết thông tin về tên của ai đó hoặc bạn biết đấy, mọi yếu tố nhận dạng đều bị xóa trước."

Maureen Abbott, người quản lý bộ phận tiếp cận các dịch vụ sức khỏe tâm thần chất lượng tại Ủy ban Sức khỏe Tâm thần Canada cho biết, việc sử dụng AI trong lĩnh vực sức khỏe tâm thần đang gia tăng trên toàn quốc.

Cô cho biết các ứng dụng hiện tại của nó rất đa dạng, từ các dịch vụ riêng lẻ đến theo dõi các xu hướng xã hội để thúc đẩy sự phát triển của các ứng dụng sức khỏe tâm thần.

Abbott cho biết: “AI đang được sử dụng trong nhận dạng giọng nói để nhận nhịp điệu trong giọng nói của một người và giúp chẩn đoán các giai đoạn hưng cảm và trầm cảm.”

"Nó được sử dụng trong chatbot cho cho máy học và cả trên mạng xã hội để xác định xu hướng ý tưởng tự tử, chẳng hạn như để quét các cụm từ và từ."

Abbott cho biết cần phải phát triển và thực hiện các tiêu chuẩn chi phối việc sử dụng AI trong sức khỏe tâm thần ở Canada để bắt kịp với tỷ lệ phổ biến ngày càng tăng nhanh chóng của nó.

“AI đã được sử dụng trong cuộc sống hàng ngày của chúng ta cho dù chúng ta có nhìn thấy nó hay không,” Abbott nói.

"Vì vậy, điều tự nhiên là nó cũng xảy ra đối với sức khỏe tâm thần và nó đang diễn ra nhanh chóng."

© 2023 The Canadian Press

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept