آنتروپیک برای آموزش هوش مصنوعی از مکالمات کاربران استفاده خواهد کرد

آنتروپیک برای آموزش هوش مصنوعی از مکالمات کاربران استفاده خواهد کرد

آنتروپیک، توسعه‌دهنده مدل هوش مصنوعی کلود، در تغییری مهم اعلام کرد که از این پس مکالمات و کدهای کاربران را برای بهبود و آموزش مدل‌های آینده خود استفاده خواهد کرد، مگر اینکه کاربران صراحتاً مخالفت کنند.

این شرکت سیاست‌های خود را به‌روزرسانی کرده تا اجازه استفاده از داده‌های کاربران برای آموزش مدل‌ها را داشته باشد و دوره نگهداری این داده‌ها برای کاربرانی که موافقت کنند به پنج سال افزایش یافته است. این تغییر نگرانی‌هایی درباره حریم خصوصی و نحوه کسب رضایت کاربران ایجاد کرده است.

کاربران هنگام ورود به چت‌بات کلود با یک پنجره پاپ‌آپ با عنوان «به‌روزرسانی شرایط و سیاست‌های مصرف‌کننده» مواجه می‌شوند که باید تا ۶ مهر ۱۴۰۴ (۲۸ سپتامبر ۲۰۲۵) تصمیم خود را مشخص کنند. طراحی این پنجره انتقاداتی را به دنبال داشته است. دکمه برجسته «پذیرش» در پایین صفحه قرار دارد، در حالی که گزینه مربوط به اجازه استفاده از داده‌ها با فونت کوچک‌تر و به‌صورت کلید روشن/خاموش در زیر آن قرار گرفته و به‌طور پیش‌فرض روی حالت «روشن» تنظیم شده است. این طراحی ممکن است باعث شود بسیاری از کاربران بدون توجه به جزئیات، با کلیک روی دکمه «پذیرش» ناخواسته با اشتراک داده‌ها موافقت کنند.

برای جلوگیری از استفاده مکالمات در آموزش هوش مصنوعی، کاربران باید کلید مربوطه را خاموش کرده و سپس دکمه پذیرش را انتخاب کنند. در صورت موافقت اشتباه، می‌توان از طریق بخش تنظیمات، قسمت حریم خصوصی و گزینه «Help improve Claude» این تنظیم را غیرفعال کرد. این تغییر تنها روی داده‌های آینده اعمال می‌شود و داده‌های قبلی استفاده‌شده قابل بازگشت نیستند.

آموزش هوش مصنوعی آنتروپیک با مکالمات کاربران
اگر نمی‌خواهید مکالمات شما برای آموزش هوش مصنوعی استفاده شود، باید تیک را خاموش کنید و سپس دکمه اکسپت را بزنید.

این سیاست جدید شامل کاربران اشتراک‌های مصرف‌کننده کلود (رایگان، پرو و مکس) می‌شود، اما کاربران تجاری، سازمانی (مانند Claude for Work و Education) و کسانی که از طریق API شرکت‌هایی مانند Amazon Bedrock یا Google Cloud به کلود دسترسی دارند، مشمول آن نمی‌شوند.

این سیاست تنها به مکالمات جدید یا مکالمات قدیمی که از سر گرفته شوند اعمال خواهد شد و مکالمات قبلی تا زمانی که ادامه پیدا نکنند، برای آموزش استفاده نمی‌شوند.

آنتروپیک اعلام کرده که هدف این تغییر، توسعه مدل‌های هوش مصنوعی قوی‌تر و کاربردی‌تر است که به بهبود ایمنی، شناسایی دقیق‌تر محتوای مضر و تقویت مهارت‌هایی مانند کدنویسی و تحلیل کمک می‌کند. این شرکت تأکید کرده که با استفاده از ابزارها و فرآیندهای خودکار، داده‌های حساس را فیلتر یا مخفی می‌کند و داده‌های کاربران را به اشخاص ثالث نمی‌فروشد. کاربرانی که با اشتراک داده‌ها موافقت نکنند، تحت سیاست قبلی باقی می‌مانند و داده‌هایشان پس از ۳۰ روز حذف خواهد شد.

منبع

برچسب ها :
Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

قابلیت ChatGPT Pulse معرفی شد؛ روزتان را با پیشنهادهای ChatGPT شروع کنید

OpenAI قابلیت جدیدی به نام ChatGPT Pulse معرفی کرد که طبق فعالیت‌های…

1404-07-04

متا از فید جدید «Vibes» برای ویدیوهای هوش مصنوعی رونمایی کرد

متا از فید جدیدی به نام «Vibes» رونمایی کرده که در اپلیکیشن…

1404-07-04

ایجنت ‌ChatGPT حالا می‌تواند کپچاها را حل کند

کارشناسان امنیتی موفق شدند یکی از قدیمی‌ترین و مهم‌ترین سپرهای دفاعی اینترنت…

1404-07-04