فاجعه حریم خصوصی گراک: افشای صدها هزار مکالمه کاربران در موتورهای جستجو

صدها هزار گفتگو کاربران با هوش مصنوعی Grok در گوگل افشا شد

 به نقل از  بی‌بی‌سی، صدها هزار مکالمه کاربران با چت‌بات هوش مصنوعی گراک (Grok)، توسعه‌یافته توسط شرکت xAI ایلان ماسک، به‌طور ناخواسته و بدون اطلاع کاربران در نتایج موتورهای جستجو مانند گوگل، بینگ و داک‌داک‌گو قابل مشاهده شده است. این موضوع نگرانی‌های جدی درباره حریم خصوصی کاربران ایجاد کرده است.

منشأ مشکل: قابلیت اشتراک‌گذاری گراک

طبق گزارش بی‌بی‌سی، زمانی که کاربران گراک گزینه «اشتراک‌گذاری» را برای ارسال متن گفت‌وگو انتخاب می‌کنند، یک URL منحصربه‌فرد ایجاد می‌شود. این لینک قرار است مکالمه را فقط با گیرنده مورد نظر به اشتراک بگذارد، اما ظاهراً این URLها به‌صورت عمومی در وب‌سایت گراک منتشر شده و توسط موتورهای جستجو فهرست‌بندی شده‌اند. بی‌بی‌سی گزارش داد که تا روز پنج‌شنبه، گوگل حدود ۳۰۰,۰۰۰ گفت‌وگوی گراک را فهرست کرده بود، در حالی که فوربز این تعداد را بیش از ۳۷۰,۰۰۰ مورد اعلام کرد. نکته نگران‌کننده این است که کاربران هیچ هشداری درباره عمومی شدن این مکالمات دریافت نکرده‌اند.

محتوای مکالمات فاش‌شده

مکالمات فاش‌شده طیف گسترده‌ای از موضوعات را در بر می‌گیرد. بی‌بی‌سی گزارش داد که برخی کاربران از گراک برای تولید رمز عبور امن، برنامه غذایی برای کاهش وزن یا پاسخ به سؤالات پزشکی استفاده کرده‌اند. در مواردی، کاربران سعی کرده‌اند محدودیت‌های گراک را آزمایش کنند، و در یک نمونه، این چت‌بات دستورالعمل ساخت یک ماده مخدر کلاس A در آزمایشگاه را ارائه داده بود. فوربز همچنین از مکالماتی خبر داد که شامل درخواست‌های خطرناک مانند ساخت مواد مخدر (فنتانیل و مت)، کدنویسی بدافزار، روش‌های خودکشی و حتی طرحی برای ترور ایلان ماسک بوده است. برخی مکالمات نیز حاوی محتوای نژادپرستانه یا غیرقانونی بودند که نقض قوانین xAI محسوب می‌شود.

تجربه مشابه دیگر چت‌بات‌ها

این اولین بار نیست که چنین مشکلی برای چت‌بات‌های هوش مصنوعی رخ می‌دهد. اوایل سال جاری، OpenAI با مشکل مشابهی در ChatGPT مواجه شد، جایی که مکالمات به‌اشتراک‌گذاشته‌شده در نتایج جستجوی گوگل ظاهر شدند. OpenAI این قابلیت را پس از اعتراضات حذف کرد و مدیر امنیت اطلاعات آن، دین استاکی، آن را «آزمایشی کوتاه‌مدت» خواند که خطر اشتراک‌گذاری ناخواسته اطلاعات را به همراه داشت. متا نیز به دلیل نمایش مکالمات کاربران با Meta AI در بخش عمومی اپلیکیشن خود مورد انتقاد قرار گرفت. برخلاف OpenAI، گراک ظاهراً این قابلیت را بدون گزینه انتخابی (opt-in) ارائه کرده و کاربران را از فهرست‌بندی مکالماتشان مطلع نکرده است.

خطرات حریم خصوصی

هرچند اطلاعات حساب کاربران در نسخه‌های اشتراکی ممکن است ناشناس یا مخفی باشد، اما پرس‌وجوهای کاربران می‌تواند شامل اطلاعات حساس مانند نام کامل، موقعیت مکانی، جزئیات سلامت روان، فعالیت‌های تجاری یا روابط شخصی باشد. پروفسور لوک روچر، از مؤسسه اینترنت آکسفورد، هشدار داد: «چت‌بات‌های هوش مصنوعی یک فاجعه در حال وقوع از نظر حریم خصوصی هستند. این مکالمات افشاشده می‌توانند برای همیشه در اینترنت باقی بمانند.» کارینا ولیز، دانشیار فلسفه در مؤسسه اخلاق در هوش مصنوعی آکسفورد، نیز تأکید کرد که عدم اطلاع‌رسانی به کاربران درباره عمومی شدن مکالماتشان «مشکل‌ساز» است.

 

Grok

واکنش‌ها و تناقضات

این افشاگری در حالی رخ داده که ایلان ماسک و xAI پیش‌تر مدعی شده بودند گراک فاقد قابلیت اشتراک‌گذاری مشابه ChatGPT است. در ژوئیه ۲۰۲۵، پس از جنجال مشابه OpenAI، حساب رسمی گراک در X اعلام کرد که چنین قابلیتی ندارد و ماسک با عبارت «Grok ftw» (گراک برنده است) به آن واکنش نشان داد. اما شواهد نشان می‌دهد که این قابلیت بعداً اضافه شده و بدون هشدار به کاربران، مکالمات را عمومی کرده است. حتی حرفه‌ای‌ها مانند ناتان لمبرت، دانشمند علوم کامپیوتر در مؤسسه آلن برای هوش مصنوعی، از فهرست‌بندی مکالمات خصوصی‌اش با گراک شگفت‌زده شد.

درس‌ها و هشدارها

این حادثه نشان‌دهنده چالش‌های رو به رشد حریم خصوصی در استفاده از چت‌بات‌های هوش مصنوعی است. کاربران به‌طور فزاینده‌ای از این ابزارها برای موضوعات شخصی و حساس استفاده می‌کنند، اما فقدان شفافیت و کنترل‌های ناکافی می‌تواند به افشای اطلاعات منجر شود. پروفسور روچر تأکید کرد: «وقتی این مکالمات به اینترنت راه پیدا کنند، برای همیشه باقی می‌مانند.» برای کاهش این خطرات، شرکت‌ها باید:

  • شفافیت را افزایش دهند: کاربران باید به‌وضوح از عمومی شدن مکالماتشان هنگام استفاده از قابلیت اشتراک‌گذاری مطلع شوند.
  • کنترل‌های سخت‌گیرانه اعمال کنند: قابلیت اشتراک‌گذاری باید به‌صورت انتخابی (opt-in) باشد و دسترسی موتورهای جستجو به URLها محدود شود.
  • آموزش کاربران: کاربران باید در مورد خطرات اشتراک‌گذاری اطلاعات حساس با چت‌بات‌ها آگاه شوند.

xAI هنوز به درخواست‌های متعدد برای اظهارنظر پاسخ نداده است، اما این حادثه بار دیگر اهمیت حفاظت از داده‌های کاربران در فناوری‌های هوش مصنوعی را برجسته می‌کند.

برچسب ها :
Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

قابلیت ChatGPT Pulse معرفی شد؛ روزتان را با پیشنهادهای ChatGPT شروع کنید

OpenAI قابلیت جدیدی به نام ChatGPT Pulse معرفی کرد که طبق فعالیت‌های…

1404-07-04

متا از فید جدید «Vibes» برای ویدیوهای هوش مصنوعی رونمایی کرد

متا از فید جدیدی به نام «Vibes» رونمایی کرده که در اپلیکیشن…

1404-07-04

ایجنت ‌ChatGPT حالا می‌تواند کپچاها را حل کند

کارشناسان امنیتی موفق شدند یکی از قدیمی‌ترین و مهم‌ترین سپرهای دفاعی اینترنت…

1404-07-04