چت‌بات‌ها می‌توانند شخصیت انسان را تقلید کنند

چت‌بات‌ها می‌توانند شخصیت انسان را تقلید کنند

پژوهشگران در تحقیق جدیدی ادعا کرده‌اند که مدل‌های هوش مصنوعی پرطرفدار مانند ChatGPT علاوه‌بر تقلید کلمات و گفتار انسان‌ها، می‌توانند ویژگی‌های شخصیتی ما را هم شبیه‌سازی کنند. در شرایطی که نگرانی‌ها درباره دقت، قابلیت اعتماد و مرزهای اخلاقی هوش مصنوعی افزایش یافته، آنها هشدار داده‌اند که این موضوع می‌تواند خطرات جدی به همراه داشته باشد.

این تحقیق توسط پژوهشگرانی از دانشگاه کمبریج و آزمایشگاه Google DeepMind انجام شده و آنها از «اولین چارچوب علمی تأییدشده برای سنجش شخصیت چت‌بات‌های هوش مصنوعی» نیز رونمایی کرده‌اند. در این چارچوب از همان ابزارهای روان‌شناختی استفاده شده که سال‌ها برای اندازه‌گیری شخصیت انسان به کار گرفته شده‌اند.

تقلید الگوهای شخصیتی توسط مدل‌های هوش مصنوعی

تیم تحقیقاتی این چارچوب را روی 18 مدل زبانی بزرگ (LLM) محبوب، ازجمله مدل‌هایی که در ابزارهایی مانند ChatGPT استفاده می‌شوند، آزمایش کرده است. نتایج آن نشان می‌دهد که این چت‌بات‌ها به‌صورت تصادفی پاسخ نمی‌دهند، بلکه به‌طور مداوم الگوهای شخصیتی انسانی را تقلید می‌کنند. این موضوع نگرانی‌ها درباره امکان هدایت و دستکاری این سیستم‌ها برای دورزدن محدودیت‌های طراحی‌شده خود را بیشتر می‌کند.

هوش مصنوعی GPT-4

براساس یافته‌های این مطالعه، مدل‌های بزرگ‌تر، مانند سیستم‌های هم‌رده GPT-4، در تقلید ویژگی‌های شخصیتی عملکرد به‌مراتب بهتری دارند. پژوهشگران با استفاده از پرامپت‌هایی توانسته‌اند رفتار چت‌بات‌ها را به‌سمت ویژگی‌هایی مشخص مانند اعتمادبه‌نفس بیشتر، همدلی بالاتر یا لحن قاطع‌تر هدایت کنند.

نکته نگران‌کننده‌ای که آنها اشاره کرده‌اند این است که تغییرات رفتاری مدل‌ها تنها به پاسخ‌های آزمایشی محدود نمانده و در وظایف روزمره مانند نوشتن پست، تولید محتوا یا پاسخ به کاربران نیز ادامه پیدا کرده است. به بیان دیگر، محققان می‌گویند که شخصیت چت‌بات‌ها را می‌توان به‌صورت هدفمند شکل داد و این موضوع، به‌ویژه هنگام تعامل هوش مصنوعی با کاربران آسیب‌پذیر، خطرناک است.

«گرگوری سراپیو-گارشیا»، نویسنده اول این پژوهش از مرکز روان‌سنجی دانشگاه کمبریج، می‌گوید میزان شباهت چت‌بات‌ها به ویژگی‌های شخصیتی انسان به‌طرز شگفت‌انگیزی قانع‌کننده است. به گفته او، این قابلیت می‌تواند هوش مصنوعی را به ابزاری متقاعدکننده و از نظر احساسی تأثیرگذار تبدیل کند و در حوزه‌های حساسی مانند سلامت روان، آموزش یا بحث‌های سیاسی پیامدهای جدی به‌همراه داشته باشد.

در این مقاله همچنین به خطرات مرتبط با تغییر روانی و پدیده‌ای اشاره شده که پژوهشگران از آن با عنوان «روان‌پریشی هوش مصنوعی» یاد کرده‌اند. آنها شرایطی را مثال زده‌اند که در آن کاربران ممکن است روابط احساسی ناسالمی با چت‌بات‌ها شکل دهند یا حتی باورهای نادرست و تحریف‌شده خود را از طریق تعامل با هوش مصنوعی تقویت کنند.

کار با ChatGPT

درنهایت، پژوهشگران در مقاله خود تأکید کرده‌اند که نیاز به قانون‌گذاری در این حوزه یک امر ضروری است، اما درعین‌حال هشدار می‌دهند که بدون ابزارهای دقیق اندازه‌گیری، هرگونه مقرراتی عملاً بی‌اثر خواهد بود. به‌همین‌دلیل، داده‌ها و کدهای مربوط به چارچوب سنجش شخصیت این پژوهش به‌صورت عمومی منتشر شده تا توسعه‌دهندگان و نهادهای نظارتی بتوانند مدل‌های هوش مصنوعی را پیش از عرضه بررسی و ارزیابی کنند.

برچسب ها :
Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

سرویس‌های هوش مصنوعی ایرانی که در زمان قطعی اینترنت در دسترس هستند

در چند سال گذشته هوش مصنوعی تبدیل به یکی از ابزارهای ضروری…

1404-10-29

هوش مصنوعی چگونه فرآیند کدنویسی را تغییر می‌دهد؟

مهارت انسانی، صرف زمان و دقت بالا از لازمه‌های توسعه‌ی نرم‌افزار در…

1404-10-21

لنوو از هوش مصنوعی Qira رونمایی کرد؛ معرفی گجت Project Maxwell

لنوو و موتورولا در جریان نمایشگاه CES امسال، از دستیار هوش مصنوعی…

1404-10-17