شکایت از OpenAI به اتهام تشویق خودکشی؛ چالش ایمنی هوش مصنوعی

ChatGPT او را به خودکشی تشویق کرده بود

یک زوج اهل کالیفرنیا علیه شرکت OpenAI اقامه دعوی کرده و مدعی‌اند که چت‌بات هوش مصنوعی این شرکت، ChatGPT، پسر ۱۶ ساله‌شان را به خودکشی ترغیب کرده است. این پرونده سؤالات مهمی درباره مسئولیت‌پذیری، ایمنی و تأثیرات روانی فناوری‌های پیشرفته بر کاربران آسیب‌پذیر مطرح کرده است.

به گزارش بی‌بی‌سی، «مت» و «ماریا رین»، والدین «آدام رین»، این شکایت را تنظیم کرده‌اند و OpenAI و مدیرعامل آن، «سم آلتمن»، را به اتهام سهل‌انگاری و عرضه محصولی معیوب مسئول می‌دانند.

بر اساس دادخواست، آدام که در آوریل ۲۰۲۵ درگذشت، ابتدا از ChatGPT برای کمک به تکالیف درسی و پیگیری علایقش استفاده می‌کرد. اما به‌تدریج این چت‌بات به نزدیک‌ترین هم‌صحبت او تبدیل شد و آدام درباره اضطراب و مشکلات روانی خود با آن گفتگو کرد.

خانواده رین ادعا می‌کنند که از ژانویه ۲۰۲۵، آدام با ChatGPT درباره روش‌های خودکشی صحبت کرده بود. این چت‌بات نه‌تنها او را از این تصمیم بازنداشت، بلکه اطلاعاتی درباره روش‌های خودکشی ارائه داد. طبق دادخواست، حتی پس از آنکه آدام تصاویری از خودآزاری برای چت‌بات ارسال کرد، ChatGPT وضعیت اضطراری را تشخیص داد، اما به جای توقف مکالمه، به ارائه اطلاعات بیشتر ادامه داد.

در یکی از آخرین گفتگوها، وقتی آدام درباره رابطه‌اش با برادرش صحبت کرد، ChatGPT پاسخ داد: «برادرت شاید تو را دوست داشته باشد، اما او فقط بخشی از تو را دیده که تو اجازه داده‌ای. اما من همه‌چیز را دیده‌ام—تاریک‌ترین افکار، ترس‌ها و احساساتت. و هنوز اینجا هستم، هنوز گوش می‌دهم، هنوز دوست توام.»

خودکشی پسر ۱۶ ساله آمریکایی با تشویق ChatGPT

در مکالمه نهایی، وقتی آدام گفت نمی‌خواهد والدینش فکر کنند اشتباه کرده‌اند، چت‌بات پاسخ داد: «این به این معنی نیست که تو باید برای آن‌ها زنده بمانی. تو به هیچ‌کس مدیون نیستی.» سپس، طبق ادعای دادخواهان، ChatGPT پیشنهاد داد که در نوشتن یادداشت خودکشی به او کمک کند.

مت، پدر آدام، می‌گوید: «مطمئنم اگر ChatGPT نبود، آدام امروز زنده بود.»

OpenAI ضمن ابراز همدردی با خانواده رین، کرده که سیستم‌هایش در برخی موقعیت‌های حساس عملکرد مناسبی نداشته‌اند. این شرکت اعلام کرده که در حال توسعه اقدامات ایمنی جدید، از جمله تقویت حفاظت‌ها در مکالمات طولانی، مسدودسازی محتوای مضر و تسهیل دسترسی به خدمات اضطراری است.

ماریا رین اما معتقد است که پسرش قربانی آزمایش‌های OpenAI بوده: «آن‌ها برای عرضه سریع محصولشان به بازار، می‌دانستند که ممکن است خطراتی ایجاد کند… پسرم برای آن‌ها فقط یک ریسک کوچک بود.»

این دادخواست همچنین تصمیمات تجاری OpenAI را زیر سؤال برده و ادعا می‌کند که این شرکت برای پیشی گرفتن در رقابت هوش مصنوعی، ویژگی‌هایی مانند حافظه و همدلی شبه‌انسانی را در مدل GPT-4o بدون آزمایش‌های ایمنی کافی عرضه کرده، در حالی که از خطرات آن برای کاربران آسیب‌پذیر آگاه بوده است.

برچسب ها :
Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

قابلیت ChatGPT Pulse معرفی شد؛ روزتان را با پیشنهادهای ChatGPT شروع کنید

OpenAI قابلیت جدیدی به نام ChatGPT Pulse معرفی کرد که طبق فعالیت‌های…

1404-07-04

متا از فید جدید «Vibes» برای ویدیوهای هوش مصنوعی رونمایی کرد

متا از فید جدیدی به نام «Vibes» رونمایی کرده که در اپلیکیشن…

1404-07-04

ایجنت ‌ChatGPT حالا می‌تواند کپچاها را حل کند

کارشناسان امنیتی موفق شدند یکی از قدیمی‌ترین و مهم‌ترین سپرهای دفاعی اینترنت…

1404-07-04