به نقل از بیبیسی، صدها هزار مکالمه کاربران با چتبات هوش مصنوعی گراک (Grok)، توسعهیافته توسط شرکت xAI ایلان ماسک، بهطور ناخواسته و بدون اطلاع کاربران در نتایج موتورهای جستجو مانند گوگل، بینگ و داکداکگو قابل مشاهده شده است. این موضوع نگرانیهای جدی درباره حریم خصوصی کاربران ایجاد کرده است.
منشأ مشکل: قابلیت اشتراکگذاری گراک
طبق گزارش بیبیسی، زمانی که کاربران گراک گزینه «اشتراکگذاری» را برای ارسال متن گفتوگو انتخاب میکنند، یک URL منحصربهفرد ایجاد میشود. این لینک قرار است مکالمه را فقط با گیرنده مورد نظر به اشتراک بگذارد، اما ظاهراً این URLها بهصورت عمومی در وبسایت گراک منتشر شده و توسط موتورهای جستجو فهرستبندی شدهاند. بیبیسی گزارش داد که تا روز پنجشنبه، گوگل حدود ۳۰۰,۰۰۰ گفتوگوی گراک را فهرست کرده بود، در حالی که فوربز این تعداد را بیش از ۳۷۰,۰۰۰ مورد اعلام کرد. نکته نگرانکننده این است که کاربران هیچ هشداری درباره عمومی شدن این مکالمات دریافت نکردهاند.
محتوای مکالمات فاششده
مکالمات فاششده طیف گستردهای از موضوعات را در بر میگیرد. بیبیسی گزارش داد که برخی کاربران از گراک برای تولید رمز عبور امن، برنامه غذایی برای کاهش وزن یا پاسخ به سؤالات پزشکی استفاده کردهاند. در مواردی، کاربران سعی کردهاند محدودیتهای گراک را آزمایش کنند، و در یک نمونه، این چتبات دستورالعمل ساخت یک ماده مخدر کلاس A در آزمایشگاه را ارائه داده بود. فوربز همچنین از مکالماتی خبر داد که شامل درخواستهای خطرناک مانند ساخت مواد مخدر (فنتانیل و مت)، کدنویسی بدافزار، روشهای خودکشی و حتی طرحی برای ترور ایلان ماسک بوده است. برخی مکالمات نیز حاوی محتوای نژادپرستانه یا غیرقانونی بودند که نقض قوانین xAI محسوب میشود.
تجربه مشابه دیگر چتباتها
این اولین بار نیست که چنین مشکلی برای چتباتهای هوش مصنوعی رخ میدهد. اوایل سال جاری، OpenAI با مشکل مشابهی در ChatGPT مواجه شد، جایی که مکالمات بهاشتراکگذاشتهشده در نتایج جستجوی گوگل ظاهر شدند. OpenAI این قابلیت را پس از اعتراضات حذف کرد و مدیر امنیت اطلاعات آن، دین استاکی، آن را «آزمایشی کوتاهمدت» خواند که خطر اشتراکگذاری ناخواسته اطلاعات را به همراه داشت. متا نیز به دلیل نمایش مکالمات کاربران با Meta AI در بخش عمومی اپلیکیشن خود مورد انتقاد قرار گرفت. برخلاف OpenAI، گراک ظاهراً این قابلیت را بدون گزینه انتخابی (opt-in) ارائه کرده و کاربران را از فهرستبندی مکالماتشان مطلع نکرده است.
خطرات حریم خصوصی
هرچند اطلاعات حساب کاربران در نسخههای اشتراکی ممکن است ناشناس یا مخفی باشد، اما پرسوجوهای کاربران میتواند شامل اطلاعات حساس مانند نام کامل، موقعیت مکانی، جزئیات سلامت روان، فعالیتهای تجاری یا روابط شخصی باشد. پروفسور لوک روچر، از مؤسسه اینترنت آکسفورد، هشدار داد: «چتباتهای هوش مصنوعی یک فاجعه در حال وقوع از نظر حریم خصوصی هستند. این مکالمات افشاشده میتوانند برای همیشه در اینترنت باقی بمانند.» کارینا ولیز، دانشیار فلسفه در مؤسسه اخلاق در هوش مصنوعی آکسفورد، نیز تأکید کرد که عدم اطلاعرسانی به کاربران درباره عمومی شدن مکالماتشان «مشکلساز» است.
واکنشها و تناقضات
این افشاگری در حالی رخ داده که ایلان ماسک و xAI پیشتر مدعی شده بودند گراک فاقد قابلیت اشتراکگذاری مشابه ChatGPT است. در ژوئیه ۲۰۲۵، پس از جنجال مشابه OpenAI، حساب رسمی گراک در X اعلام کرد که چنین قابلیتی ندارد و ماسک با عبارت «Grok ftw» (گراک برنده است) به آن واکنش نشان داد. اما شواهد نشان میدهد که این قابلیت بعداً اضافه شده و بدون هشدار به کاربران، مکالمات را عمومی کرده است. حتی حرفهایها مانند ناتان لمبرت، دانشمند علوم کامپیوتر در مؤسسه آلن برای هوش مصنوعی، از فهرستبندی مکالمات خصوصیاش با گراک شگفتزده شد.
درسها و هشدارها
این حادثه نشاندهنده چالشهای رو به رشد حریم خصوصی در استفاده از چتباتهای هوش مصنوعی است. کاربران بهطور فزایندهای از این ابزارها برای موضوعات شخصی و حساس استفاده میکنند، اما فقدان شفافیت و کنترلهای ناکافی میتواند به افشای اطلاعات منجر شود. پروفسور روچر تأکید کرد: «وقتی این مکالمات به اینترنت راه پیدا کنند، برای همیشه باقی میمانند.» برای کاهش این خطرات، شرکتها باید:
- شفافیت را افزایش دهند: کاربران باید بهوضوح از عمومی شدن مکالماتشان هنگام استفاده از قابلیت اشتراکگذاری مطلع شوند.
- کنترلهای سختگیرانه اعمال کنند: قابلیت اشتراکگذاری باید بهصورت انتخابی (opt-in) باشد و دسترسی موتورهای جستجو به URLها محدود شود.
- آموزش کاربران: کاربران باید در مورد خطرات اشتراکگذاری اطلاعات حساس با چتباتها آگاه شوند.
xAI هنوز به درخواستهای متعدد برای اظهارنظر پاسخ نداده است، اما این حادثه بار دیگر اهمیت حفاظت از دادههای کاربران در فناوریهای هوش مصنوعی را برجسته میکند.