مکالمات ChatGPT و Grok در دسترس عموم
کشف دسترسی عمومی به مکالمات کاربران با ChatGPT و Grok از طریق جستوجوی گوگل، زنگ خطر را برای امنیت دادهها و حریم خصوصی در ابزارهای هوش مصنوعی به صدا درآورده است. این اتفاق نشاندهنده ضعفهای ساختاری در حفاظت از دادههای کاربران در پلتفرمهای هوش مصنوعی است و نیاز به بازنگری جدی در سیاستهای امنیتی این فناوریها را برجسته میکند.
ماجرا از کجا شروع شد؟
طبق گزارش Wccftech، کاربران اخیراً متوجه شدهاند که بیش از ۱۰۰ هزار مکالمه با ChatGPT، چت بات توسعهیافته توسط OpenAI، از طریق جستوجوی ساده در گوگل قابل دسترسی بوده است. این مکالمات که شامل اطلاعات حساس و شخصی کاربران میشوند، به دلیل نقص در تنظیمات حریم خصوصی یا ایندکس شدن صفحات عمومی در دسترس قرار گرفتهاند. اما این تنها بخشی از مشکل است؛ مکالمات Grok، هوش مصنوعی توسعهیافته توسط xAI، نیز به همین شیوه در گوگل قابل مشاهده هستند، که نشان میدهد این مسئله به یک مشکل گستردهتر در صنعت هوش مصنوعی تبدیل شده است.
OpenAI اعلام کرده که در حال حذف این صفحات از ایندکس گوگل است، اما مشکل همچنان پابرجاست. نسخههای آرشیوی این مکالمات در Wayback Machine (سرویس آرشیو اینترنتی Archive.org) همچنان در دسترس هستند. مارک گراهام، مدیر Wayback Machine، اظهار داشته که OpenAI تاکنون هیچ درخواست رسمی برای حذف این دادهها ارائه نکرده است. این پلتفرم بهصورت خودکار نسخههای زماندار از صفحات عمومی وب را ذخیره میکند، به این معنا که حتی حذف از گوگل، لزوماً به معنای ناپدید شدن کامل این دادهها نیست.
ابعاد مشکل: چرا این موضوع نگرانکننده است؟
این نقص امنیتی نگرانیهای متعددی را ایجاد کرده است:
- نقض حریم خصوصی: مکالمات کاربران با چتباتها ممکن است شامل اطلاعات شخصی مانند نام، آدرس، اطلاعات مالی یا حتی مسائل حساس مانند مشکلات پزشکی و قانونی باشد. دسترسی عمومی به این دادهها میتواند به سوءاستفاده، سرقت هویت یا کلاهبرداری منجر شود.
- ضعف ساختاری در پلتفرمها: این مشکل نهتنها به ChatGPT بلکه به Grok و احتمالاً سایر مدلهای هوش مصنوعی نیز مربوط میشود. این نشاندهنده فقدان استانداردهای امنیتی یکپارچه در صنعت هوش مصنوعی است.
- ذخیرهسازی در آرشیوهای وب: وجود نسخههای آرشیوی در Wayback Machine به این معناست که حتی پس از حذف از گوگل، دادهها ممکن است برای همیشه در دسترس باقی بمانند، مگر اینکه اقدامات مشخصی برای حذف آنها انجام شود.
- عدم شفافیت: عدم درخواست رسمی OpenAI برای حذف دادهها از Wayback Machine و فقدان اطلاعات دقیق درباره نحوه استفاده xAI از دادههای کاربران Grok، به نگرانیها درباره شفافیت و مسئولیتپذیری این شرکتها دامن زده است.
مورد خاص Grok: چالشهای حریم خصوصی در xAI
Grok، که توسط xAI ایلان ماسک توسعه یافته، به دلیل یکپارچگی با پلتفرم X و دسترسی به دادههای real-time کاربران، نگرانیهای بیشتری را ایجاد کرده است. طبق گزارش WIRED، Grok بهطور پیشفرض دادههای عمومی کاربران X و تعاملات آنها با این چتبات را برای آموزش و بهبود مدل جمعآوری میکند. این رویکرد، که کاربران بهصورت خودکار در آن مشارکت داده میشوند، با قوانین حریم خصوصی مانند GDPR در اروپا و قوانین مشابه در بریتانیا مغایرت دارد، زیرا رضایت صریح کاربران را دریافت نمیکند.
علاوه بر این، xAI اعلام کرده که مکالمات کاربران را میتوان ظرف ۳۰ روز حذف کرد، مگر اینکه به دلایل امنیتی یا قانونی نیاز به نگهداری آنها باشد. اما عدم شفافیت درباره این «دلایل امنیتی یا قانونی» اعتماد کاربران را کاهش داده است. قابلیت تولید تصاویر توسط Grok نیز مشکلاتی مانند تولید دیپفیکهای افراد مشهور یا محتوای دارای کپیرایت را به همراه داشته که نگرانیهای بیشتری درباره سوءاستفاده از دادهها ایجاد میکند.
اقدامات OpenAI و محدودیتها
OpenAI ادعا میکند که در حال رفع مشکل ایندکس شدن مکالمات ChatGPT در گوگل است، اما این تلاشها کافی نبودهاند. وجود نسخههای آرشیوی در Wayback Machine نشان میدهد که حذف کامل دادهها چالشبرانگیز است. OpenAI همچنین در سیاستهای حریم خصوصی خود هشدار داده که کاربران نباید اطلاعات حساس یا شخصی را در مکالمات با ChatGPT وارد کنند، زیرا این دادهها ممکن است در معرض خطر قرار گیرند. این شرکت از پروتکلهای رمزنگاری برای حفاظت از دادهها در حین انتقال استفاده میکند و برنامهای برای شناسایی آسیبپذیریها (Bug Bounty) دارد، اما این اقدامات نتوانستهاند از دسترسی عمومی به مکالمات جلوگیری کنند.
توصیههایی برای کاربران
برای محافظت از حریم خصوصی هنگام استفاده از ChatGPT، Grok یا سایر چتباتهای هوش مصنوعی، کاربران میتوانند اقدامات زیر را انجام دهند:
- اجتناب از اشتراک اطلاعات حساس: از وارد کردن اطلاعات شخصی مانند نام، آدرس، شماره کارت اعتباری یا دادههای پزشکی خودداری کنید. این دادهها ممکن است ذخیره یا افشا شوند.
- تنظیمات حریم خصوصی: در ChatGPT، گزینههایی مانند «Memory» یا «Improve the model for everyone» را غیرفعال کنید تا دادههای کمتری ذخیره شوند. در Grok، گزینه استفاده از دادههای عمومی X برای آموزش را در تنظیمات X غیرفعال کنید.
- استفاده از حالتهای موقت: ChatGPT ویژگی «Temporary Chat» را ارائه میدهد که مکالمات را برای آموزش ذخیره نمیکند و پس از ۳۰ روز حذف میشوند. این گزینه برای مکالمات حساس مناسب است.
- بررسی سیاستهای حریم خصوصی: سیاستهای حریم خصوصی OpenAI و xAI را مطالعه کنید تا از نحوه استفاده از دادههایتان آگاه شوید.
- استفاده از رمزنگاری و رمزهای قوی: برای حسابهای کاربری خود رمزهای قوی و منحصربهفرد تنظیم کنید و از احراز هویت دو مرحلهای استفاده کنید.
آینده امنیت در هوش مصنوعی
این جنجال نشاندهنده نیاز فوری به استانداردهای امنیتی قویتر در صنعت هوش مصنوعی است. شرکتها باید شفافیت بیشتری درباره نحوه جمعآوری، ذخیره و حذف دادهها ارائه دهند و رضایت صریح کاربران را برای استفاده از دادههایشان دریافت کنند. علاوه بر این، همکاری با سرویسهایی مانند Wayback Machine برای حذف دادههای حساس و جلوگیری از ایندکس شدن غیرمجاز ضروری است.
برای کاربران ایرانی، که دسترسی به پلتفرمهای بینالمللی ممکن است با محدودیتهایی همراه باشد، این موضوع اهمیت بیشتری دارد. توصیه میشود از ابزارهای هوش مصنوعی با احتیاط استفاده کرده و از VPNهای امن و خدمات ذخیرهسازی ابری خصوصی مانند Internxt برای حفاظت از دادهها بهره ببرید.
در نتیجه افشای مکالمات ChatGPT و Grok در گوگل و آرشیوهای وب، هشداری جدی برای کاربران و توسعهدهندگان هوش مصنوعی است. این اتفاق نهتنها اعتماد به این فناوریها را تضعیف میکند، بلکه نیاز به اصلاحات اساسی در امنیت و حریم خصوصی را نشان میدهد. تا زمانی که این مشکلات برطرف نشوند، کاربران باید با احتیاط بیشتری از این ابزارها استفاده کنند و از اشتراک اطلاعات حساس خودداری کنند.