جنجال امنیتی هوش مصنوعی: مکالمات ChatGPT و Grok لو رفت

grok-هاریکا

 مکالمات ChatGPT و Grok در دسترس عموم

کشف دسترسی عمومی به مکالمات کاربران با ChatGPT و Grok از طریق جست‌وجوی گوگل، زنگ خطر را برای امنیت داده‌ها و حریم خصوصی در ابزارهای هوش مصنوعی به صدا درآورده است. این اتفاق نشان‌دهنده ضعف‌های ساختاری در حفاظت از داده‌های کاربران در پلتفرم‌های هوش مصنوعی است و نیاز به بازنگری جدی در سیاست‌های امنیتی این فناوری‌ها را برجسته می‌کند.

ماجرا از کجا شروع شد؟

طبق گزارش  Wccftech، کاربران اخیراً متوجه شده‌اند که بیش از ۱۰۰ هزار مکالمه با ChatGPT، چت‌ بات توسعه‌یافته توسط OpenAI، از طریق جست‌وجوی ساده در گوگل قابل دسترسی بوده است. این مکالمات که شامل اطلاعات حساس و شخصی کاربران می‌شوند، به دلیل نقص در تنظیمات حریم خصوصی یا ایندکس شدن صفحات عمومی در دسترس قرار گرفته‌اند. اما این تنها بخشی از مشکل است؛ مکالمات Grok، هوش مصنوعی توسعه‌یافته توسط xAI، نیز به همین شیوه در گوگل قابل مشاهده هستند، که نشان می‌دهد این مسئله به یک مشکل گسترده‌تر در صنعت هوش مصنوعی تبدیل شده است.

OpenAI اعلام کرده که در حال حذف این صفحات از ایندکس گوگل است، اما مشکل همچنان پابرجاست. نسخه‌های آرشیوی این مکالمات در Wayback Machine (سرویس آرشیو اینترنتی Archive.org) همچنان در دسترس هستند. مارک گراهام، مدیر Wayback Machine، اظهار داشته که OpenAI تاکنون هیچ درخواست رسمی برای حذف این داده‌ها ارائه نکرده است. این پلتفرم به‌صورت خودکار نسخه‌های زمان‌دار از صفحات عمومی وب را ذخیره می‌کند، به این معنا که حتی حذف از گوگل، لزوماً به معنای ناپدید شدن کامل این داده‌ها نیست.

 مکالمات ChatGPT و Grok در دسترس عموم

ابعاد مشکل: چرا این موضوع نگران‌کننده است؟

این نقص امنیتی نگرانی‌های متعددی را ایجاد کرده است:

  • نقض حریم خصوصی: مکالمات کاربران با چت‌بات‌ها ممکن است شامل اطلاعات شخصی مانند نام، آدرس، اطلاعات مالی یا حتی مسائل حساس مانند مشکلات پزشکی و قانونی باشد. دسترسی عمومی به این داده‌ها می‌تواند به سوءاستفاده، سرقت هویت یا کلاهبرداری منجر شود.
  • ضعف ساختاری در پلتفرم‌ها: این مشکل نه‌تنها به ChatGPT بلکه به Grok و احتمالاً سایر مدل‌های هوش مصنوعی نیز مربوط می‌شود. این نشان‌دهنده فقدان استانداردهای امنیتی یکپارچه در صنعت هوش مصنوعی است.
  • ذخیره‌سازی در آرشیوهای وب: وجود نسخه‌های آرشیوی در Wayback Machine به این معناست که حتی پس از حذف از گوگل، داده‌ها ممکن است برای همیشه در دسترس باقی بمانند، مگر اینکه اقدامات مشخصی برای حذف آن‌ها انجام شود.
  • عدم شفافیت: عدم درخواست رسمی OpenAI برای حذف داده‌ها از Wayback Machine و فقدان اطلاعات دقیق درباره نحوه استفاده xAI از داده‌های کاربران Grok، به نگرانی‌ها درباره شفافیت و مسئولیت‌پذیری این شرکت‌ها دامن زده است.

مورد خاص Grok: چالش‌های حریم خصوصی در xAI

Grok، که توسط xAI ایلان ماسک توسعه یافته، به دلیل یکپارچگی با پلتفرم X و دسترسی به داده‌های real-time کاربران، نگرانی‌های بیشتری را ایجاد کرده است. طبق گزارش WIRED، Grok به‌طور پیش‌فرض داده‌های عمومی کاربران X و تعاملات آن‌ها با این چت‌بات را برای آموزش و بهبود مدل جمع‌آوری می‌کند. این رویکرد، که کاربران به‌صورت خودکار در آن مشارکت داده می‌شوند، با قوانین حریم خصوصی مانند GDPR در اروپا و قوانین مشابه در بریتانیا مغایرت دارد، زیرا رضایت صریح کاربران را دریافت نمی‌کند.

علاوه بر این، xAI اعلام کرده که مکالمات کاربران را می‌توان ظرف ۳۰ روز حذف کرد، مگر اینکه به دلایل امنیتی یا قانونی نیاز به نگهداری آن‌ها باشد. اما عدم شفافیت درباره این «دلایل امنیتی یا قانونی» اعتماد کاربران را کاهش داده است. قابلیت تولید تصاویر توسط Grok نیز مشکلاتی مانند تولید دیپ‌فیک‌های افراد مشهور یا محتوای دارای کپی‌رایت را به همراه داشته که نگرانی‌های بیشتری درباره سوءاستفاده از داده‌ها ایجاد می‌کند.

اقدامات OpenAI و محدودیت‌ها

OpenAI ادعا می‌کند که در حال رفع مشکل ایندکس شدن مکالمات ChatGPT در گوگل است، اما این تلاش‌ها کافی نبوده‌اند. وجود نسخه‌های آرشیوی در Wayback Machine نشان می‌دهد که حذف کامل داده‌ها چالش‌برانگیز است. OpenAI همچنین در سیاست‌های حریم خصوصی خود هشدار داده که کاربران نباید اطلاعات حساس یا شخصی را در مکالمات با ChatGPT وارد کنند، زیرا این داده‌ها ممکن است در معرض خطر قرار گیرند. این شرکت از پروتکل‌های رمزنگاری برای حفاظت از داده‌ها در حین انتقال استفاده می‌کند و برنامه‌ای برای شناسایی آسیب‌پذیری‌ها (Bug Bounty) دارد، اما این اقدامات نتوانسته‌اند از دسترسی عمومی به مکالمات جلوگیری کنند.

توصیه‌هایی برای کاربران

برای محافظت از حریم خصوصی هنگام استفاده از ChatGPT، Grok یا سایر چت‌بات‌های هوش مصنوعی، کاربران می‌توانند اقدامات زیر را انجام دهند:

  1. اجتناب از اشتراک اطلاعات حساس: از وارد کردن اطلاعات شخصی مانند نام، آدرس، شماره کارت اعتباری یا داده‌های پزشکی خودداری کنید. این داده‌ها ممکن است ذخیره یا افشا شوند.
  2. تنظیمات حریم خصوصی: در ChatGPT، گزینه‌هایی مانند «Memory» یا «Improve the model for everyone» را غیرفعال کنید تا داده‌های کمتری ذخیره شوند. در Grok، گزینه استفاده از داده‌های عمومی X برای آموزش را در تنظیمات X غیرفعال کنید.
  3. استفاده از حالت‌های موقت: ChatGPT ویژگی «Temporary Chat» را ارائه می‌دهد که مکالمات را برای آموزش ذخیره نمی‌کند و پس از ۳۰ روز حذف می‌شوند. این گزینه برای مکالمات حساس مناسب است.
  4. بررسی سیاست‌های حریم خصوصی: سیاست‌های حریم خصوصی OpenAI و xAI را مطالعه کنید تا از نحوه استفاده از داده‌هایتان آگاه شوید.
  5. استفاده از رمزنگاری و رمزهای قوی: برای حساب‌های کاربری خود رمزهای قوی و منحصربه‌فرد تنظیم کنید و از احراز هویت دو مرحله‌ای استفاده کنید.

آینده امنیت در هوش مصنوعی

این جنجال نشان‌دهنده نیاز فوری به استانداردهای امنیتی قوی‌تر در صنعت هوش مصنوعی است. شرکت‌ها باید شفافیت بیشتری درباره نحوه جمع‌آوری، ذخیره و حذف داده‌ها ارائه دهند و رضایت صریح کاربران را برای استفاده از داده‌هایشان دریافت کنند. علاوه بر این، همکاری با سرویس‌هایی مانند Wayback Machine برای حذف داده‌های حساس و جلوگیری از ایندکس شدن غیرمجاز ضروری است.

برای کاربران ایرانی، که دسترسی به پلتفرم‌های بین‌المللی ممکن است با محدودیت‌هایی همراه باشد، این موضوع اهمیت بیشتری دارد. توصیه می‌شود از ابزارهای هوش مصنوعی با احتیاط استفاده کرده و از VPNهای امن و خدمات ذخیره‌سازی ابری خصوصی مانند Internxt برای حفاظت از داده‌ها بهره ببرید.

در نتیجه افشای مکالمات ChatGPT و Grok در گوگل و آرشیوهای وب، هشداری جدی برای کاربران و توسعه‌دهندگان هوش مصنوعی است. این اتفاق نه‌تنها اعتماد به این فناوری‌ها را تضعیف می‌کند، بلکه نیاز به اصلاحات اساسی در امنیت و حریم خصوصی را نشان می‌دهد. تا زمانی که این مشکلات برطرف نشوند، کاربران باید با احتیاط بیشتری از این ابزارها استفاده کنند و از اشتراک اطلاعات حساس خودداری کنند.

Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

ایگور بابوشکین از xAI جدا شد

ایگور بابوشکین، یکی از بنیان‌گذاران xAI، اعلام کرد که این شرکت را…

1404-05-23

بازگشت انتخاب‌گر مدل GPT-5 با حالت‌های Auto، Fast و Thinking پس از واکنش‌های کاربران

اوپن‌ای‌آی هنگام رونمایی از GPT-5 در تاریخ ۷ آگوست ۲۰۲۵، وعده داده…

1404-05-23

هوش مصنوعی تب کرد! افزایش قیمت برق و فشار بر زیرساخت‌های آمریکا

هوش مصنوعی با وعده‌های جذاب خود، از انتخاب غذا و لباس گرفته…

1404-05-23