خطر افشای اطلاعات بیماران؛ برخی تراپیست‌ها از ChatGPT استفاده می‌کنند

خطر افشای اطلاعات بیماران؛ برخی تراپیست‌ها از ChatGPT استفاده می‌کنند

گزارش جدیدی نشان می‌دهد که برخی تراپیست‌ها یا درمانگران به‌طور پنهانی از ChatGPT در جلسات درمانی خود استفاده می‌کنند. این کار می‌تواند حریم خصوصی مراجعان را در معرض خطر قرار دهد.

در سال‌های اخیر هوش مصنوعی به ابزار کمکی برای حوزه‌های مختلف تبدیل شده، اما ورود آن به حوزه روان‌درمانی بحث‌برانگیز بوده است. براساس گزارشی از MIT Technology Review، برخی درمانگران به‌طور مخفیانه در طول جلسات از ChatGPT برای تولید پاسخ یا یافتن راه‌حل‌های سریع استفاده می‌کنند.

در این گزارش به یک فرد آمریکایی با نام «دکلن» اشاره شده که به‌طور ناخواسته متوجه شده درمانگرش حرف‌های او را مستقیماً در ChatGPT وارد می‌کند و سپس پاسخ‌های هوش مصنوعی را در اختیار او قرار می‌دهد. فرد دیگری با نام «هوپ» که پس از مرگ سگش به درمانگر مراجعه کرده، پیغامی از او دریافت کرده که در بالای آن نوشته شده «نسخه‌ای انسانی‌تر و صمیمانه‌تر با لحن محاوره‌ای.»

هشدار کارشناسان درباره استفاده تراپیست‌ها از ChatGPT برای درمان

به گفته کارشناسان این موضوع می‌تواند اعتماد بیمار را به‌شدت تحت تأثیر قرار دهد؛ زیرا بسیاری از بیماران انتظار دارند که گفته‌های آنها خصوصی باشد.

تراپی با هوش مصنوعی

«توماس وستن‌هولز»، درمانگر روابط فردی و زوج‌ها، در گفتگو با Cybernews تأکید می‌کند که شفافیت در این زمینه اهمیت زیادی دارد. او می‌گوید:

«درمان براساس صداقت و شفافیت شکل می‌گیرد. اگر مراجعه‌کننده متوجه شود درمانگرش بدون اطلاع او از ChatGPT کمک گرفته، این موضوع می‌تواند پیوند اعتماد میان آنها را از بین ببرد.»

به گفته او، نقش هوش مصنوعی می‌تواند در امور اداری یا تهیه منابع آموزشی مفید باشد، اما هرگز نباید در روند درمان جایگزین نیروی انسانی شود.

هرچند برخی مطالعات نشان می‌دهند که پاسخ‌های تولیدشده توسط هوش مصنوعی ممکن است از دید بیماران مناسب‌تر به نظر برسند، اما مشکل اصلی به عدم اطلاع‌رسانی صحیح به آنها مربوط می‌شود. بیماران معمولاً در آغاز درمان توافقی مبنی بر محرمانه بودن داده‌های خود را امضا می‌کنند و اگر بعدها متوجه شوند اطلاعاتشان به یک مدل زبانی داده شده، ممکن است احساس آسیب‌پذیری بیشتری کنند.

وستن‌هولز توضیح می‌دهد:

«شفافیت غیرقابل مذاکره است. در روان‌درمانی مبتنی بر EFT، ما می‌دانیم که روند بهبودی تنها در روابطی شکل می‌گیرد که فرد احساس امنیت کند، و این امنیت به صداقت وابسته است. اگر قرار است هوش مصنوعی بخشی از روند درمان باشد، بیماران باید بدانند و رضایت دهند.»

برچسب ها :
Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

قابلیت ChatGPT Pulse معرفی شد؛ روزتان را با پیشنهادهای ChatGPT شروع کنید

OpenAI قابلیت جدیدی به نام ChatGPT Pulse معرفی کرد که طبق فعالیت‌های…

1404-07-04

متا از فید جدید «Vibes» برای ویدیوهای هوش مصنوعی رونمایی کرد

متا از فید جدیدی به نام «Vibes» رونمایی کرده که در اپلیکیشن…

1404-07-04

ایجنت ‌ChatGPT حالا می‌تواند کپچاها را حل کند

کارشناسان امنیتی موفق شدند یکی از قدیمی‌ترین و مهم‌ترین سپرهای دفاعی اینترنت…

1404-07-04