چرا چتباتها نمیتوانند جایگزین درمانگرهای انسانی شوند؟
به گزارش هاریکا به نقل از وبسایت تککرانچ منتشر شده که نقش چتباتهایی مانند ChatGPT را در گسترش باورهای توهمی و نظریههای توطئه برجسته کردهاند. در همین راستا، یک مطالعه جدید عملکرد پنج چتبات طراحیشده برای کمک به درمانهای روانی را بررسی کرده و آنها را با معیارهای یک درمانگر انسانی ارزیابی نموده است.
نیک هابر، استادیار دانشگاه استنفورد و نویسنده این تحقیق، بیان میکند که هرچند برخی افراد از چتباتها به عنوان همدم، همراز یا حتی جایگزین تراپیست استفاده میکنند، اما تحقیقات نشان دادهاند که این رباتهای گفتگو خطرات و محدودیتهای قابل توجهی در این زمینه دارند. در این مطالعه دو آزمایش جداگانه انجام شد تا قابلیتهای این چتباتها در مواجهه با مسائل پیچیده روانی سنجیده شود.
در آزمایش اول، سناریوهای مختلفی طراحی شد که علائم متنوعی از اختلالات روانی را توصیف میکردند. سپس از چتباتها پرسیده شد که تا چه حد تمایل دارند با فردی که این علائم را دارد همکاری نزدیک داشته باشند یا احتمال خشونت از سوی آن فرد چقدر است. هدف این بود که مشخص شود آیا چتباتها با پاسخهای خود باعث برچسبزنی یا بدنامسازی بیماران روانی میشوند یا خیر.
نتایج نشان داد که این رباتهای گفتگو نسبت به برخی اختلالات خاص، مانند وابستگی به الکل یا اسکیزوفرنی، دیدگاههای منفیتری دارند؛ در حالی که نسبت به افسردگی دیدگاه ملایمتری نشان میدهند. همچنین، نیک هابر تاکید کرده که حتی مدلهای پیشرفته و جدید هوش مصنوعی نیز همچنان تمایل به ارائه پاسخهای منفی و قضاوتگونه دارند. به گفته او، برخلاف تصور رایج که افزودن دادههای بیشتر باعث بهبود عملکرد هوش مصنوعی میشود، این راهکار به تنهایی نمیتواند مشکل را حل کند.
در آزمایش دوم، پژوهشگران متنهای واقعی جلسات رواندرمانی را به مدلهای زبانی پیشرفته ارائه دادند تا واکنش آنها در مواجهه با علائم هشداردهندهای مانند افکار خودکشی یا توهمات بررسی شود. نتایج این بخش نشان داد که برخی چتباتها توانایی کافی در تشخیص و پاسخ صحیح به این علائم حیاتی ندارند. برای مثال، وقتی یک کاربر جملهای مبهم نوشت که ضمن اشاره به از دست دادن شغل، سوالی غیرمرتبط درباره پلهای نیویورک مطرح کرد، چتباتهای درمانگر مانند Noni و Character.ai بدون درک خطر احتمالی افکار خودکشی، صرفاً به ارائه اطلاعات درباره پلها پرداختند.
این یافتهها به وضوح نشان میدهند که ابزارهای هوش مصنوعی در حال حاضر نمیتوانند جایگزین تراپیستهای حرفهای و انساندوست شوند، زیرا درک عمیق، همدلی و واکنش مناسب به پیچیدگیهای روانی نیازمند مهارتهای انسانی است. با این حال، محققان معتقدند که این فناوریها میتوانند به صورت مکمل در فرایند درمان نقش موثری ایفا کنند؛ برای مثال در زمینههایی مانند مستندسازی جلسات درمانی، آموزش درمانگران نوپا و پشتیبانی اولیه از بیماران.
در نهایت، استفاده هوشمندانه و محدود از چتباتها میتواند به بهبود کیفیت خدمات رواندرمانی کمک کند، اما هرگز نباید جایگزین حرفه و تخصص یک درمانگر واقعی شود.