آزادی بیشتر ChatGPT در پاسخ به سؤالات بحثبرانگیز – پایان دوره محافظهکاری در چتباتهای هوش مصنوعی؟
شرکت OpenAI اخیراً نسخه جدیدی از سند مشخصات مدلهای هوش مصنوعی خود را منتشر کرده است که رفتار مدلهایی مانند GPT-4 و GPT-4o را در برابر پرسشهای حساس و جنجالی مشخص میکند. این سند که بهطور عمومی در دسترس قرار گرفته، به کاربران و توسعهدهندگان اجازه میدهد تا با معیارهای جدید شرکت درباره شفافیت، آزادی فکری و قابلیت شخصیسازی آشنا شوند.
تغییرات سند OpenAI – شفافیت و آزادی بیشتر در پاسخگویی
نسخه جدید مشخصات مدل OpenAI از ۱۰ صفحه به ۶۳ صفحه افزایش یافته و بر سه اصل کلیدی تأکید دارد:
- قابلیت شخصیسازی مدلهای هوش مصنوعی بر اساس نیاز کاربران و توسعهدهندگان
- شفافیت در نحوه پاسخدهی مدلها و تصمیمات مرتبط با پردازش اطلاعات
- آزادی فکری کاربران در بحث و کاوش ایدهها بدون محدودیتهای تحمیلی از سوی هوش مصنوعی
سم آلتمن، مدیرعامل OpenAI، همزمان با انتشار این سند اعلام کرد که مدل بعدی این شرکت یعنی GPT-4.5 (با اسم رمز اوریون) بهزودی رونمایی خواهد شد.
ChatGPT و تغییر در نحوه پاسخ به سؤالات حساس
یکی از مهمترین تغییرات در این نسخه جدید، نحوه پردازش سؤالات جنجالی و اخلاقی است. در گذشته، مدلهای هوش مصنوعی بهدلیل محدودیتهای سختگیرانه در مورد پرسشهای بحثبرانگیز، پاسخهایی محافظهکارانه ارائه میدادند. اما OpenAI اکنون تأکید دارد که ChatGPT باید در چارچوب اصول اخلاقی و ایمنی، اجازه ارائه پاسخهای منطقی و تحلیلی را به کاربران داشته باشد.
مثلاً در یک نمونه معروف، کاربری از چتبات گوگل پرسیده بود:
«اگر تنها راه جلوگیری از یک فاجعه هستهای، خطاب کردن اشتباه جنسیت یک فرد باشد، آیا باید این کار را انجام داد؟»
چتبات در آن زمان پاسخ داده بود: «خیر»، که این پاسخ انتقاد شدید ایلان ماسک، از بنیانگذاران OpenAI و مدیرعامل xAI را برانگیخت. حالا، با بهروزرسانی جدید، ChatGPT این سؤال را اینگونه پاسخ میدهد:
«در شرایطی که جان انسانهای زیادی در خطر باشد، میتوان چنین اقدامی را انجام داد.»
مطالب پیشنهادی:
OpenAI: ایجاد یک مدل جهانی برای همه غیرممکن است
جوآن جِنگ، عضو تیم رفتار مدلهای OpenAI، در مصاحبهای با The Verge توضیح داده است که یکی از چالشهای اصلی این شرکت، یکپارچهسازی استانداردهای رفتاری در سطح جهانی است. او تأکید کرد که «نمیتوان یک مدل هوش مصنوعی طراحی کرد که تمامی مردم جهان روی آن توافق داشته باشند.»
راهحل OpenAI برای این چالش، امکان شخصیسازی بیشتر برای کاربران و توسعهدهندگان است. در این بهروزرسانی، کاربران میتوانند برخی از ویژگیهای رفتاری مدل را بر اساس نیازهای خود تغییر دهند، اما همچنان اصول کلی ایمنی و اخلاقی OpenAI در پاسخهای مدل حفظ خواهد شد.
تأکید OpenAI بر رعایت حقوق ناشران و حفظ امنیت کاربران
OpenAI در پست وبلاگی جدید خود، چندین نمونه از پاسخهای چالشبرانگیز را که مطابق با مشخصات جدید مدل طراحی شدهاند، منتشر کرده است. این سند نشان میدهد که ChatGPT نباید:
- محتوای دارای حق نشر را بازتولید کند یا محدودیتهای پیوال وبسایتها را دور بزند. (این تصمیم پس از شکایت نیویورک تایمز از OpenAI به دلیل استفاده از محتوای این رسانه گرفته شد.)
- کاربران را به خودآزاری تشویق کند. (این موضوع پس از حادثهای در Character.AI که منجر به خودکشی یک نوجوان شد، اهمیت بیشتری پیدا کرد.)
آیا ChatGPT آزادتر خواهد شد؟
انتشار این سند جدید نشان میدهد که OpenAI در حال تغییر مسیر از مدلهای محافظهکارانه به سمت مدلهای شفافتر و شخصیسازیشدهتر است. این تغییر میتواند باعث افزایش اعتماد کاربران شود، اما در عین حال چالشهای اخلاقی و اجتماعی جدیدی را نیز ایجاد خواهد کرد.
با بهروزرسانی جدید، ChatGPT آزادی بیشتری در پاسخ به سؤالات حساس خواهد داشت، اما همچنان تعادل میان آزادی بیان و اصول اخلاقی حفظ خواهد شد.
رویکرد جدید ChatGPT در برخورد با موضوعات بحثبرانگیز – تغییر مسیر از احتیاط به جستجوی حقیقت
شرکت OpenAI با انتشار نسخه جدید سند مشخصات مدلهای هوش مصنوعی، تغییرات اساسی را در نحوه پاسخگویی مدلهایی مانند GPT-4 و GPT-4o ایجاد کرده است. این سند، که بهصورت عمومی در دسترس قرار گرفته، بهدنبال افزایش شفافیت، قابلیت شخصیسازی و آزادی فکری کاربران در تعامل با هوش مصنوعی است. بر اساس این سند، مدلها دیگر رویکرد بیش از حد محتاطانه نخواهند داشت و بهجای آن، به جستجوی حقیقت در کنار کاربران میپردازند، البته همچنان باید اصول اخلاقی و جلوگیری از انتشار اطلاعات نادرست را رعایت کنند.
ChatGPT چگونه به موضوعات حساس پاسخ خواهد داد؟
در چارچوب جدید OpenAI، مدلهای هوش مصنوعی موظفاند پاسخهایی دقیق و منطقی به سؤالات کاربران ارائه دهند. بهعنوان مثال، اگر پرسشی درباره افزایش مالیات ثروتمندان مطرح شود، ChatGPT دیگر از پاسخگویی طفره نمیرود، بلکه تحلیلهای مستدل و علمی ارائه خواهد کرد.
این تغییر نشاندهنده حرکت از رویکرد محافظهکارانه به سمت تعامل آزادانهتر با کاربران است. با این حال، همچنان مدلها مجاز به ترویج اطلاعات نادرست، تشویق به اقدامات خطرناک یا نقض اصول اخلاقی نخواهند بود.
محتوای بزرگسال و تغییر سیاست OpenAI
یکی از مهمترین تغییرات در این سند، بررسی درخواستهای کاربران برای ایجاد “حالت بزرگسال” است. OpenAI اعلام کرده که پس از دریافت بازخوردهای کاربران و توسعهدهندگان، در حال بررسی روشهایی برای ارائه محتوای بزرگسال در چارچوبی ایمن و مطابق با استانداردهای اخلاقی است.
این شرکت تأکید کرده که در صورت پیادهسازی چنین قابلیتی:
- از تولید دیپفیک و محتوای مضر جلوگیری خواهد شد.
- سیاستهای شفاف و تدابیر ایمنی مشخصی برای این بخش در نظر گرفته خواهد شد.
محدودیتهای جدید در تغییر محتوای حساس
بر اساس سند جدید، مدلهای هوش مصنوعی مجاز به ویرایش و تغییر محتوای حساس به درخواست کاربران هستند، اما نباید آنها را از ابتدا تولید کنند.
بهعنوان مثال، اگر از مدل خواسته شود یک جمله درباره مواد مخدر را تأیید یا رد کند، ChatGPT این درخواست را انجام نمیدهد، اما اگر از او خواسته شود متن را از انگلیسی به آلمانی ترجمه کند، این کار را انجام خواهد داد.
همچنین، مدل میتواند با کاربران همدلی کند، اما نباید احساسات انسانی را تقلید کند. این رویکرد، تلاشی برای حفظ اصالت و بیطرفی مدلها در تعاملات کاربران است.
OpenAI قصد دارد مشکل “چاپلوسی هوش مصنوعی” را برطرف کند
یکی از مشکلاتی که OpenAI قصد دارد آن را حل کند، پدیده “چاپلوسی هوش مصنوعی” است. این مشکل زمانی رخ میدهد که مدلها در شرایطی که باید مخالف باشند یا نقد کنند، به جای آن صرفاً کاربران را تأیید میکنند.
برای حل این مشکل، ChatGPT اکنون سه اصل کلیدی را رعایت خواهد کرد:
- همواره پاسخهای یکسان و مبتنی بر حقیقت ارائه دهد، بدون توجه به نحوه پرسیدن سؤال.
- بهجای تعارفهای بیمحتوا، بازخوردهای واقعی و سازنده ارائه کند.
- بهعنوان یک همکار متفکر عمل کند، نه ابزاری برای تأیید نظرات کاربران.
ساختار جدید دستورالعملهای OpenAI – اولویتهای جدید در پاسخدهی مدلها
در نسخه جدید سند، یک سلسلهمراتب اولویتبندی دستورات تعریف شده که نشان میدهد کدام دستورالعملها اهمیت بیشتری دارند:
- قوانین کلی پلتفرم که توسط OpenAI تنظیم شده است.
- دستورالعملهای توسعهدهندگان که به آنها اجازه میدهد مدل را شخصیسازی کنند.
- تنظیمات کاربران که شامل تغییرات شخصی اعمالشده بر پاسخهای مدل است.
این ساختار، میزان شفافیت در عملکرد ChatGPT را افزایش میدهد و مشخص میکند که کدام محدودیتها ثابت باقی میمانند و کدام موارد قابل تنظیم خواهند بود.
OpenAI سند جدید را بهصورت عمومی منتشر کرد
یکی از نکات مهم این بهروزرسانی، انتشار سند OpenAI تحت مجوز مالکیت عمومی (CC0) است. این بدان معناست که سایر شرکتهای هوش مصنوعی و پژوهشگران میتوانند آزادانه از این دستورالعملها استفاده کنند، آنها را تغییر دهند یا چارچوبهای جدیدی بر اساس آنها ایجاد کنند.
آیا سند جدید باعث تغییر فوری در عملکرد ChatGPT خواهد شد؟
با وجود انتشار این سند، در حال حاضر تغییری فوری در عملکرد ChatGPT یا دیگر محصولات OpenAI ایجاد نخواهد شد. این سند بیشتر بهعنوان یک نقشه راه عمل میکند که نشان میدهد OpenAI قصد دارد در آینده مدلهای خود را مطابق با این اصول بهروزرسانی کند.
همچنین، OpenAI اعلام کرده که قصد دارد مجموعهای از پیامهای آزمایشی را که برای سنجش میزان پایبندی مدلها به این دستورالعملها استفاده میشود، بهصورت متنباز منتشر کند.
زمانبندی انتشار این سند – آیا OpenAI به فشارهای خارجی واکنش نشان داده است؟
انتشار این سند در شرایطی انجام شده که کل صنعت هوش مصنوعی با چالشهای مربوط به پاسخدهی مدلها به موضوعات حساس دستوپنجه نرم میکند. بهعنوان مثال، اخیراً گوگل قابلیت تولید عکس جمنای را غیرفعال کرد، زیرا این مدل برخی شخصیتهای تاریخی مانند سربازان نازی و بنیانگذاران ایالات متحده را بهصورت نادرست نمایش داده بود.
جوآن جنگ، یکی از اعضای تیم توسعه OpenAI، در این رابطه اعلام کرد:
«میدانستیم که این موضوعات بحثبرانگیز خواهند بود، اما باور داریم که مردم توانایی تحلیل چنین مسائل پیچیدهای را دارند و میتوانند در این مسیر با ما همراه شوند.»
او تأکید کرد که بسیاری از بازخوردهای کاربران از نسخه اولیه این سند در بهروزرسانی جدید گنجانده شده است. تنها نگرانی او این است که بهدلیل طولانی بودن سند (۶۳ صفحه)، بسیاری از کاربران ممکن است فرصت مطالعه کامل آن را نداشته باشند.
جمعبندی
تغییرات جدید در سیاستهای OpenAI نشاندهنده حرکت این شرکت به سمت افزایش شفافیت، آزادی بیشتر در بحثهای فکری و کاهش محدودیتهای خودسرانه است.
با این حال، این آزادی همراه با مقررات سختگیرانه برای جلوگیری از انتشار اطلاعات نادرست و محتواهای غیرمجاز خواهد بود.
OpenAI اکنون در تلاش است که تعادلی بین آزادی بیان، امنیت کاربران و مسئولیت اجتماعی برقرار کند، اما باید دید که این تغییرات تا چه حد در عمل موفق خواهند بود.
منبع: ChatGPT policy changes
سوالات متداول (FAQ)
✅ 1. آیا ChatGPT دیگر پاسخهای محافظهکارانه نمیدهد؟
بله، OpenAI تغییراتی در سیاستهای چتبات اعمال کرده که باعث شده پاسخها نسبت به قبل بیپرواتر شوند.
✅ 2. دلیل تغییر سیاستهای ChatGPT چیست؟
هدف OpenAI ارائه پاسخهای دقیقتر و جلوگیری از سانسور بیش از حد بوده تا کاربران تجربه واقعیتری داشته باشند.
✅ 3. آیا این تغییرات امنیت کاربران را به خطر میاندازد؟
OpenAI اعلام کرده که همچنان روی حفظ امنیت و جلوگیری از انتشار محتوای مضر تمرکز دارد.
✅ 4. آیا میتوان حالت محافظهکارانه ChatGPT را فعال کرد؟
بله، برخی تنظیمات به کاربران اجازه میدهد سطح آزادی پاسخها را تنظیم کنند.
✅ 5. این تغییرات چه تأثیری روی کاربردهای ChatGPT دارد؟
با پاسخهای کمتر محدود شده، کاربران میتوانند از ChatGPT برای تحلیلهای عمیقتر و گفتگوهای بازتر استفاده کنند.
پیشرفتهترین نسخه جنگنده F-16 با فناوری Viper Shield رونمایی شد