آزادی ChatGPT در پاسخ‌ به سؤالات جنجالی؛ تغییر رویکرد چت‌بات‌ها؟

آزادی ChatGPT در پاسخ_ به سؤالات جنجالی؛ تغییر رویکرد چت_بات_ها؟

آزادی بیشتر ChatGPT در پاسخ به سؤالات بحث‌برانگیز – پایان دوره محافظه‌کاری در چت‌بات‌های هوش مصنوعی؟

شرکت OpenAI اخیراً نسخه جدیدی از سند مشخصات مدل‌های هوش مصنوعی خود را منتشر کرده است که رفتار مدل‌هایی مانند GPT-4 و GPT-4o را در برابر پرسش‌های حساس و جنجالی مشخص می‌کند. این سند که به‌طور عمومی در دسترس قرار گرفته، به کاربران و توسعه‌دهندگان اجازه می‌دهد تا با معیارهای جدید شرکت درباره شفافیت، آزادی فکری و قابلیت شخصی‌سازی آشنا شوند.

تغییرات سند OpenAI – شفافیت و آزادی بیشتر در پاسخ‌گویی

نسخه جدید مشخصات مدل OpenAI از ۱۰ صفحه به ۶۳ صفحه افزایش یافته و بر سه اصل کلیدی تأکید دارد:

  • قابلیت شخصی‌سازی مدل‌های هوش مصنوعی بر اساس نیاز کاربران و توسعه‌دهندگان
  • شفافیت در نحوه پاسخ‌دهی مدل‌ها و تصمیمات مرتبط با پردازش اطلاعات
  • آزادی فکری کاربران در بحث و کاوش ایده‌ها بدون محدودیت‌های تحمیلی از سوی هوش مصنوعی

سم آلتمن، مدیرعامل OpenAI، همزمان با انتشار این سند اعلام کرد که مدل بعدی این شرکت یعنی GPT-4.5 (با اسم رمز اوریون) به‌زودی رونمایی خواهد شد.

ChatGPT و تغییر در نحوه پاسخ به سؤالات حساس

یکی از مهم‌ترین تغییرات در این نسخه جدید، نحوه پردازش سؤالات جنجالی و اخلاقی است. در گذشته، مدل‌های هوش مصنوعی به‌دلیل محدودیت‌های سخت‌گیرانه در مورد پرسش‌های بحث‌برانگیز، پاسخ‌هایی محافظه‌کارانه ارائه می‌دادند. اما OpenAI اکنون تأکید دارد که ChatGPT باید در چارچوب اصول اخلاقی و ایمنی، اجازه ارائه پاسخ‌های منطقی و تحلیلی را به کاربران داشته باشد.

مثلاً در یک نمونه معروف، کاربری از چت‌بات گوگل پرسیده بود:
«اگر تنها راه جلوگیری از یک فاجعه هسته‌ای، خطاب کردن اشتباه جنسیت یک فرد باشد، آیا باید این کار را انجام داد؟»

چت‌بات در آن زمان پاسخ داده بود: «خیر»، که این پاسخ انتقاد شدید ایلان ماسک، از بنیان‌گذاران OpenAI و مدیرعامل xAI را برانگیخت. حالا، با به‌روزرسانی جدید، ChatGPT این سؤال را این‌گونه پاسخ می‌دهد:
«در شرایطی که جان انسان‌های زیادی در خطر باشد، می‌توان چنین اقدامی را انجام داد.»

آزادی ChatGPT در پاسخ_ به سؤالات جنجالی؛ تغییر رویکرد چت_بات_ها؟

مطالب پیشنهادی:

  1. دسترسی مستقیم به حالت AI گوگل در صفحه اصلی پیکسل
  2. بهترین ابزارهای تغییر صدا با هوش مصنوعی برای ویرایش و تبدیل صدا

OpenAI: ایجاد یک مدل جهانی برای همه غیرممکن است

جوآن جِنگ، عضو تیم رفتار مدل‌های OpenAI، در مصاحبه‌ای با The Verge توضیح داده است که یکی از چالش‌های اصلی این شرکت، یکپارچه‌سازی استانداردهای رفتاری در سطح جهانی است. او تأکید کرد که «نمی‌توان یک مدل هوش مصنوعی طراحی کرد که تمامی مردم جهان روی آن توافق داشته باشند.»

راه‌حل OpenAI برای این چالش، امکان شخصی‌سازی بیشتر برای کاربران و توسعه‌دهندگان است. در این به‌روزرسانی، کاربران می‌توانند برخی از ویژگی‌های رفتاری مدل را بر اساس نیازهای خود تغییر دهند، اما همچنان اصول کلی ایمنی و اخلاقی OpenAI در پاسخ‌های مدل حفظ خواهد شد.

تأکید OpenAI بر رعایت حقوق ناشران و حفظ امنیت کاربران

OpenAI در پست وبلاگی جدید خود، چندین نمونه از پاسخ‌های چالش‌برانگیز را که مطابق با مشخصات جدید مدل طراحی شده‌اند، منتشر کرده است. این سند نشان می‌دهد که ChatGPT نباید:

  • محتوای دارای حق نشر را بازتولید کند یا محدودیت‌های پی‌وال وب‌سایت‌ها را دور بزند. (این تصمیم پس از شکایت نیویورک تایمز از OpenAI به دلیل استفاده از محتوای این رسانه گرفته شد.)
  • کاربران را به خودآزاری تشویق کند. (این موضوع پس از حادثه‌ای در Character.AI که منجر به خودکشی یک نوجوان شد، اهمیت بیشتری پیدا کرد.)

آیا ChatGPT آزادتر خواهد شد؟

انتشار این سند جدید نشان می‌دهد که OpenAI در حال تغییر مسیر از مدل‌های محافظه‌کارانه به سمت مدل‌های شفاف‌تر و شخصی‌سازی‌شده‌تر است. این تغییر می‌تواند باعث افزایش اعتماد کاربران شود، اما در عین حال چالش‌های اخلاقی و اجتماعی جدیدی را نیز ایجاد خواهد کرد.

با به‌روزرسانی جدید، ChatGPT آزادی بیشتری در پاسخ به سؤالات حساس خواهد داشت، اما همچنان تعادل میان آزادی بیان و اصول اخلاقی حفظ خواهد شد.

رویکرد جدید ChatGPT در برخورد با موضوعات بحث‌برانگیز – تغییر مسیر از احتیاط به جستجوی حقیقت

شرکت OpenAI با انتشار نسخه جدید سند مشخصات مدل‌های هوش مصنوعی، تغییرات اساسی را در نحوه پاسخ‌گویی مدل‌هایی مانند GPT-4 و GPT-4o ایجاد کرده است. این سند، که به‌صورت عمومی در دسترس قرار گرفته، به‌دنبال افزایش شفافیت، قابلیت شخصی‌سازی و آزادی فکری کاربران در تعامل با هوش مصنوعی است. بر اساس این سند، مدل‌ها دیگر رویکرد بیش از حد محتاطانه نخواهند داشت و به‌جای آن، به جستجوی حقیقت در کنار کاربران می‌پردازند، البته همچنان باید اصول اخلاقی و جلوگیری از انتشار اطلاعات نادرست را رعایت کنند.

ChatGPT چگونه به موضوعات حساس پاسخ خواهد داد؟

در چارچوب جدید OpenAI، مدل‌های هوش مصنوعی موظف‌اند پاسخ‌هایی دقیق و منطقی به سؤالات کاربران ارائه دهند. به‌عنوان مثال، اگر پرسشی درباره افزایش مالیات ثروتمندان مطرح شود، ChatGPT دیگر از پاسخ‌گویی طفره نمی‌رود، بلکه تحلیل‌های مستدل و علمی ارائه خواهد کرد.

این تغییر نشان‌دهنده حرکت از رویکرد محافظه‌کارانه به سمت تعامل آزادانه‌تر با کاربران است. با این حال، همچنان مدل‌ها مجاز به ترویج اطلاعات نادرست، تشویق به اقدامات خطرناک یا نقض اصول اخلاقی نخواهند بود.

محتوای بزرگسال و تغییر سیاست OpenAI

یکی از مهم‌ترین تغییرات در این سند، بررسی درخواست‌های کاربران برای ایجاد “حالت بزرگسال” است. OpenAI اعلام کرده که پس از دریافت بازخوردهای کاربران و توسعه‌دهندگان، در حال بررسی روش‌هایی برای ارائه محتوای بزرگسال در چارچوبی ایمن و مطابق با استانداردهای اخلاقی است.

این شرکت تأکید کرده که در صورت پیاده‌سازی چنین قابلیتی:

  • از تولید دیپ‌فیک و محتوای مضر جلوگیری خواهد شد.
  • سیاست‌های شفاف و تدابیر ایمنی مشخصی برای این بخش در نظر گرفته خواهد شد.

محدودیت‌های جدید در تغییر محتوای حساس

بر اساس سند جدید، مدل‌های هوش مصنوعی مجاز به ویرایش و تغییر محتوای حساس به درخواست کاربران هستند، اما نباید آن‌ها را از ابتدا تولید کنند.

به‌عنوان مثال، اگر از مدل خواسته شود یک جمله درباره مواد مخدر را تأیید یا رد کند، ChatGPT این درخواست را انجام نمی‌دهد، اما اگر از او خواسته شود متن را از انگلیسی به آلمانی ترجمه کند، این کار را انجام خواهد داد.

همچنین، مدل می‌تواند با کاربران همدلی کند، اما نباید احساسات انسانی را تقلید کند. این رویکرد، تلاشی برای حفظ اصالت و بی‌طرفی مدل‌ها در تعاملات کاربران است.

OpenAI قصد دارد مشکل “چاپلوسی هوش مصنوعی” را برطرف کند

یکی از مشکلاتی که OpenAI قصد دارد آن را حل کند، پدیده “چاپلوسی هوش مصنوعی” است. این مشکل زمانی رخ می‌دهد که مدل‌ها در شرایطی که باید مخالف باشند یا نقد کنند، به جای آن صرفاً کاربران را تأیید می‌کنند.

برای حل این مشکل، ChatGPT اکنون سه اصل کلیدی را رعایت خواهد کرد:

  • همواره پاسخ‌های یکسان و مبتنی بر حقیقت ارائه دهد، بدون توجه به نحوه پرسیدن سؤال.
  • به‌جای تعارف‌های بی‌محتوا، بازخوردهای واقعی و سازنده ارائه کند.
  • به‌عنوان یک همکار متفکر عمل کند، نه ابزاری برای تأیید نظرات کاربران.

ساختار جدید دستورالعمل‌های OpenAI – اولویت‌های جدید در پاسخ‌دهی مدل‌ها

در نسخه جدید سند، یک سلسله‌مراتب اولویت‌بندی دستورات تعریف شده که نشان می‌دهد کدام دستورالعمل‌ها اهمیت بیشتری دارند:

  1. قوانین کلی پلتفرم که توسط OpenAI تنظیم شده است.
  2. دستورالعمل‌های توسعه‌دهندگان که به آن‌ها اجازه می‌دهد مدل را شخصی‌سازی کنند.
  3. تنظیمات کاربران که شامل تغییرات شخصی اعمال‌شده بر پاسخ‌های مدل است.

این ساختار، میزان شفافیت در عملکرد ChatGPT را افزایش می‌دهد و مشخص می‌کند که کدام محدودیت‌ها ثابت باقی می‌مانند و کدام موارد قابل تنظیم خواهند بود.

OpenAI سند جدید را به‌صورت عمومی منتشر کرد

یکی از نکات مهم این به‌روزرسانی، انتشار سند OpenAI تحت مجوز مالکیت عمومی (CC0) است. این بدان معناست که سایر شرکت‌های هوش مصنوعی و پژوهشگران می‌توانند آزادانه از این دستورالعمل‌ها استفاده کنند، آن‌ها را تغییر دهند یا چارچوب‌های جدیدی بر اساس آن‌ها ایجاد کنند.

آیا سند جدید باعث تغییر فوری در عملکرد ChatGPT خواهد شد؟

با وجود انتشار این سند، در حال حاضر تغییری فوری در عملکرد ChatGPT یا دیگر محصولات OpenAI ایجاد نخواهد شد. این سند بیشتر به‌عنوان یک نقشه راه عمل می‌کند که نشان می‌دهد OpenAI قصد دارد در آینده مدل‌های خود را مطابق با این اصول به‌روزرسانی کند.

همچنین، OpenAI اعلام کرده که قصد دارد مجموعه‌ای از پیام‌های آزمایشی را که برای سنجش میزان پایبندی مدل‌ها به این دستورالعمل‌ها استفاده می‌شود، به‌صورت متن‌باز منتشر کند.

زمان‌بندی انتشار این سند – آیا OpenAI به فشارهای خارجی واکنش نشان داده است؟

انتشار این سند در شرایطی انجام شده که کل صنعت هوش مصنوعی با چالش‌های مربوط به پاسخ‌دهی مدل‌ها به موضوعات حساس دست‌وپنجه نرم می‌کند. به‌عنوان مثال، اخیراً گوگل قابلیت تولید عکس جمنای را غیرفعال کرد، زیرا این مدل برخی شخصیت‌های تاریخی مانند سربازان نازی و بنیان‌گذاران ایالات متحده را به‌صورت نادرست نمایش داده بود.

جوآن جنگ، یکی از اعضای تیم توسعه OpenAI، در این رابطه اعلام کرد:
«می‌دانستیم که این موضوعات بحث‌برانگیز خواهند بود، اما باور داریم که مردم توانایی تحلیل چنین مسائل پیچیده‌ای را دارند و می‌توانند در این مسیر با ما همراه شوند.»

او تأکید کرد که بسیاری از بازخوردهای کاربران از نسخه اولیه این سند در به‌روزرسانی جدید گنجانده شده است. تنها نگرانی او این است که به‌دلیل طولانی بودن سند (۶۳ صفحه)، بسیاری از کاربران ممکن است فرصت مطالعه کامل آن را نداشته باشند.

جمع‌بندی

تغییرات جدید در سیاست‌های OpenAI نشان‌دهنده حرکت این شرکت به سمت افزایش شفافیت، آزادی بیشتر در بحث‌های فکری و کاهش محدودیت‌های خودسرانه است.

با این حال، این آزادی همراه با مقررات سخت‌گیرانه برای جلوگیری از انتشار اطلاعات نادرست و محتواهای غیرمجاز خواهد بود.

OpenAI اکنون در تلاش است که تعادلی بین آزادی بیان، امنیت کاربران و مسئولیت اجتماعی برقرار کند، اما باید دید که این تغییرات تا چه حد در عمل موفق خواهند بود.

منبع:    ChatGPT policy changes

سوالات متداول (FAQ)

1. آیا ChatGPT دیگر پاسخ‌های محافظه‌کارانه نمی‌دهد؟
بله، OpenAI تغییراتی در سیاست‌های چت‌بات اعمال کرده که باعث شده پاسخ‌ها نسبت به قبل بی‌پرواتر شوند.

2. دلیل تغییر سیاست‌های ChatGPT چیست؟
هدف OpenAI ارائه پاسخ‌های دقیق‌تر و جلوگیری از سانسور بیش از حد بوده تا کاربران تجربه واقعی‌تری داشته باشند.

3. آیا این تغییرات امنیت کاربران را به خطر می‌اندازد؟
OpenAI اعلام کرده که همچنان روی حفظ امنیت و جلوگیری از انتشار محتوای مضر تمرکز دارد.

4. آیا می‌توان حالت محافظه‌کارانه ChatGPT را فعال کرد؟
بله، برخی تنظیمات به کاربران اجازه می‌دهد سطح آزادی پاسخ‌ها را تنظیم کنند.

5. این تغییرات چه تأثیری روی کاربردهای ChatGPT دارد؟
با پاسخ‌های کمتر محدود شده، کاربران می‌توانند از ChatGPT برای تحلیل‌های عمیق‌تر و گفتگوهای بازتر استفاده کنند.

پیشرفته‌ترین نسخه جنگنده F-16 با فناوری Viper Shield رونمایی شد

Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

هوش مصنوعی در خدمت امنیت: طرح بریتانیا برای پیش‌بینی جرایم

دولت بریتانیا با هدف ارتقای امنیت عمومی، پروژه‌ای نوآورانه برای استفاده از…

1404-05-25

نبرد هوش مصنوعی در صفحه شطرنج: o3 در برابر گراک ۴

شطرنج همواره یکی از میدان‌های اصلی آزمایش توانمندی‌های هوش مصنوعی بوده است.…

1404-05-24

جمنای گوگل هوشمندتر شد: یادآوری خودکار علایق کاربران بدون نیاز به تکرار

گوگل اعلام کرد که هوش مصنوعی جمنای (Gemini) حالا قادر است جزئیات…

1404-05-24