علت توهم هوش مصنوعی چیست؟ محققان OpenAI پاسخ می‌دهند

علت توهم هوش مصنوعی چیست؟ محققان OpenAI پاسخ می‌دهند

محققان OpenAI در مقاله‌ای جدید به یکی از چالش‌های اصلی هوش مصنوعی پرداخته‌اند: توهم مدل‌های زبانی. آن‌ها معتقدند روش‌های کنونی آموزش و ارزیابی، مدل‌ها را به حدس زدن پاسخ‌ها به جای اعتراف به ندانستن تشویق می‌کند، که منجر به ارائه اطلاعات نادرست با اطمینان می‌شود.

توهم چیست؟ توهم (Hallucination) زمانی رخ می‌دهد که مدل زبانی اطلاعاتی نادرست را با قاطعیت به‌عنوان واقعیت ارائه دهد. این مشکل حتی در مدل‌های پیشرفته‌ای مانند GPT-5 یا Claude نیز دیده می‌شود. پژوهشگران OpenAI علت این پدیده را بررسی کرده‌اند.

آن‌ها توضیح می‌دهند که در سیستم‌های ارزیابی فعلی، مدل‌ها برای ارائه پاسخ، حتی اگر نادرست باشد، امتیاز می‌گیرند، اما گفتن «نمی‌دانم» امتیازی ندارد. این موضوع باعث می‌شود مدل‌هایی مانند GPT-5 و Claude به جای پذیرش عدم قطعیت، حدس بزنند، که اعتماد کاربران به چت‌بات‌ها را کاهش می‌دهد.

چرا توهم رخ می‌دهد؟
محققان این مسئله را به آزمون چندگزینه‌ای تشبیه می‌کنند: حدس زدن ممکن است امتیازی به همراه داشته باشد، اما خالی گذاشتن پاسخ قطعاً امتیازی ندارد. وقتی مدل‌ها فقط بر اساس «دقت» (درصد پاسخ‌های صحیح) ارزیابی می‌شوند، به حدس زدن تشویق می‌شوند. آن‌ها می‌گویند: «انسان‌ها در دنیای واقعی ارزش عدم قطعیت را می‌آموزند، اما مدل‌های زبانی در آزمون‌هایی ارزیابی می‌شوند که عدم قطعیت را جریمه می‌کنند.»

OpenAI برای نشان دادن این مشکل، دو مدل خود را مقایسه کرده است:

  • gpt-5-thinking-mini (مدل جدیدتر): ۵۲٪ امتناع از پاسخ، ۲۲٪ دقت، ۲۶٪ خطا (توهم).
  • o4-mini (مدل قدیمی‌تر): ۱٪ امتناع، ۲۴٪ دقت، ۷۵٪ خطا (توهم).
توهم‌های هوش مصنوعی

این مقایسه نشان می‌دهد که مدل جدیدتر با امتناع بیشتر از پاسخ، نرخ توهم کمتری دارد، در حالی که مدل قدیمی‌تر با حدس زدن مداوم، خطاهای بیشتری تولید می‌کند.

راه‌حل چیست؟
محققان پیشنهاد می‌دهند که معیارهای ارزیابی باید بازطراحی شوند تا خطاهای با اطمینان بالا بیش از ابراز عدم قطعیت جریمه شوند. این تغییر می‌تواند مدل‌ها را به پذیرش ندانستن تشویق کند.

ریشه توهم‌ها کجاست؟
در مرحله پیش‌آموزش، مدل‌های زبانی با پیش‌بینی کلمه بعدی در متون اینترنتی آموزش می‌بینند. الگوهای ثابت مانند گرامر یا املا به راحتی آموخته می‌شوند، اما اطلاعات خاص و کم‌تکرار (مانند تاریخ تولد یک فرد) الگوی مشخصی ندارند. در نتیجه، مدل‌ها در مواجهه با چنین سؤالاتی، محتمل‌ترین ترکیب کلمات را حدس می‌زنند، که منجر به توهم می‌شود.

برچسب ها :
Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

ایجنت ‌ChatGPT حالا می‌تواند کپچاها را حل کند

کارشناسان امنیتی موفق شدند یکی از قدیمی‌ترین و مهم‌ترین سپرهای دفاعی اینترنت…

1404-07-04

آروان آخرین دستاوردهای AI and Cloud  و راهکارهای ابری مقابله با حادثه‌ را به الکامپ می‌آورد

آروان‌کلاد با مجموعه‌ به‌روزی از محصولات و خدمات و با تمرکز بر…

1404-07-03

گوگل انتشار هوش مصنوعی جمینای برای Google TV را آغاز کرد

چند روز پس از انتشار جمینای برای مرورگر کروم، حالا گوگل اعلام…

1404-07-01