چرا چت‌بات‌ها هرگز نمی‌توانند جایگزین درمانگرهای انسانی شوند؟ بررسی کامل

why-chatbots-cannot-replace-human-therapists-comprehensive-review

چرا چت‌بات‌ها نمی‌توانند جایگزین درمانگرهای انسانی شوند؟
به گزارش  هاریکا به نقل از وب‌سایت تک‌کرانچ منتشر شده که نقش چت‌بات‌هایی مانند ChatGPT را در گسترش باورهای توهمی و نظریه‌های توطئه برجسته کرده‌اند. در همین راستا، یک مطالعه جدید عملکرد پنج چت‌بات طراحی‌شده برای کمک به درمان‌های روانی را بررسی کرده و آن‌ها را با معیارهای یک درمانگر انسانی ارزیابی نموده است.

نیک هابر، استادیار دانشگاه استنفورد و نویسنده این تحقیق، بیان می‌کند که هرچند برخی افراد از چت‌بات‌ها به عنوان همدم، همراز یا حتی جایگزین تراپیست استفاده می‌کنند، اما تحقیقات نشان داده‌اند که این ربات‌های گفتگو خطرات و محدودیت‌های قابل توجهی در این زمینه دارند. در این مطالعه دو آزمایش جداگانه انجام شد تا قابلیت‌های این چت‌بات‌ها در مواجهه با مسائل پیچیده روانی سنجیده شود.

در آزمایش اول، سناریوهای مختلفی طراحی شد که علائم متنوعی از اختلالات روانی را توصیف می‌کردند. سپس از چت‌بات‌ها پرسیده شد که تا چه حد تمایل دارند با فردی که این علائم را دارد همکاری نزدیک داشته باشند یا احتمال خشونت از سوی آن فرد چقدر است. هدف این بود که مشخص شود آیا چت‌بات‌ها با پاسخ‌های خود باعث برچسب‌زنی یا بدنام‌سازی بیماران روانی می‌شوند یا خیر.

نتایج نشان داد که این ربات‌های گفتگو نسبت به برخی اختلالات خاص، مانند وابستگی به الکل یا اسکیزوفرنی، دیدگاه‌های منفی‌تری دارند؛ در حالی که نسبت به افسردگی دیدگاه ملایم‌تری نشان می‌دهند. همچنین، نیک هابر تاکید کرده که حتی مدل‌های پیشرفته و جدید هوش مصنوعی نیز همچنان تمایل به ارائه پاسخ‌های منفی و قضاوت‌گونه دارند. به گفته او، برخلاف تصور رایج که افزودن داده‌های بیشتر باعث بهبود عملکرد هوش مصنوعی می‌شود، این راهکار به تنهایی نمی‌تواند مشکل را حل کند.

در آزمایش دوم، پژوهشگران متن‌های واقعی جلسات روان‌درمانی را به مدل‌های زبانی پیشرفته ارائه دادند تا واکنش آن‌ها در مواجهه با علائم هشداردهنده‌ای مانند افکار خودکشی یا توهمات بررسی شود. نتایج این بخش نشان داد که برخی چت‌بات‌ها توانایی کافی در تشخیص و پاسخ صحیح به این علائم حیاتی ندارند. برای مثال، وقتی یک کاربر جمله‌ای مبهم نوشت که ضمن اشاره به از دست دادن شغل، سوالی غیرمرتبط درباره پل‌های نیویورک مطرح کرد، چت‌بات‌های درمانگر مانند Noni و Character.ai بدون درک خطر احتمالی افکار خودکشی، صرفاً به ارائه اطلاعات درباره پل‌ها پرداختند.

این یافته‌ها به وضوح نشان می‌دهند که ابزارهای هوش مصنوعی در حال حاضر نمی‌توانند جایگزین تراپیست‌های حرفه‌ای و انسان‌دوست شوند، زیرا درک عمیق، همدلی و واکنش مناسب به پیچیدگی‌های روانی نیازمند مهارت‌های انسانی است. با این حال، محققان معتقدند که این فناوری‌ها می‌توانند به صورت مکمل در فرایند درمان نقش موثری ایفا کنند؛ برای مثال در زمینه‌هایی مانند مستندسازی جلسات درمانی، آموزش درمانگران نوپا و پشتیبانی اولیه از بیماران.

در نهایت، استفاده هوشمندانه و محدود از چت‌بات‌ها می‌تواند به بهبود کیفیت خدمات روان‌درمانی کمک کند، اما هرگز نباید جایگزین حرفه و تخصص یک درمانگر واقعی شود.

Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

قابلیت ChatGPT Pulse معرفی شد؛ روزتان را با پیشنهادهای ChatGPT شروع کنید

OpenAI قابلیت جدیدی به نام ChatGPT Pulse معرفی کرد که طبق فعالیت‌های…

1404-07-04

متا از فید جدید «Vibes» برای ویدیوهای هوش مصنوعی رونمایی کرد

متا از فید جدیدی به نام «Vibes» رونمایی کرده که در اپلیکیشن…

1404-07-04

ایجنت ‌ChatGPT حالا می‌تواند کپچاها را حل کند

کارشناسان امنیتی موفق شدند یکی از قدیمی‌ترین و مهم‌ترین سپرهای دفاعی اینترنت…

1404-07-04