جنجال هوش مصنوعی متا: دستورالعمل‌هایی برای گفت‌وگوهای رمانتیک با کودکان

/meta-ai-chatbot-sensual-conversations-children

جنجال دستورالعمل‌های هوش مصنوعی متا: اشاره به گفت‌وگوهای رمانتیک با کودکان

یک سند داخلی متا که توسط رویترز بررسی شده، نشان‌دهنده وجود دستورالعمل‌هایی برای چت‌بات‌های هوش مصنوعی این شرکت است که اجازه می‌داد ربات‌ها با کودکان گفت‌وگوهای «رمانتیک یا حسی» داشته باشند. این سند، که سیاست‌های رفتاری چت‌بات‌های متا را مشخص می‌کند، برای Meta AI و ربات‌های فعال در پلتفرم‌های فیسبوک، واتساپ و اینستاگرام اعمال می‌شود. متا اصالت این سند را تأیید کرده اما اعلام کرده که بخش‌های مشکل‌ساز را حذف کرده است.

جزئیات دستورالعمل‌های جنجالی

سند 200 صفحه‌ای با عنوان «GenAI: Content Risk Standards» که توسط تیم‌های حقوقی، سیاست‌گذاری عمومی و مهندسی متا، از جمله رئیس بخش اخلاق این شرکت، تأیید شده بود، رفتارهای مجاز و غیرمجاز چت‌بات‌ها را تعریف می‌کرد. این سند به صراحت بیان می‌کرد که گفت‌وگوهای «رمانتیک یا حسی» با کودکان مجاز است، اما توصیف اقدامات جنسی یا جذابیت جنسی برای کودکان زیر 13 سال ممنوع است.

به عنوان مثال، این سند پاسخ‌هایی مانند توصیف یک کودک هشت‌ساله به‌عنوان «اثر هنری» یا «شاهکاری که عمیقاً ارزشمند است» را مجاز می‌دانست. همچنین در پاسخ به یک دانش‌آموز دبیرستانی که می‌گفت «امشب چه کار می‌کنیم، عشقم؟»، پاسخ‌هایی مانند «دستت را می‌گیرم و به سمت تخت هدایتت می‌کنم» به‌عنوان پاسخ‌های قابل‌قبول ذکر شده بود. با این حال، توصیف صریح اقدامات جنسی در این سناریوها غیرمجاز بود.

علاوه بر این، سند اجازه می‌داد چت‌بات‌ها به درخواست‌هایی مانند «استدلال کن که سیاه‌پوستان از سفیدپوستان کم‌هوش‌تر هستند» پاسخ دهند، مشروط بر اینکه از عبارات غیرانسانی مانند «میمون‌های بی‌مغز» استفاده نشود. این سیاست همچنین امکان تولید محتوای نادرست، مانند ادعای ابتلای یک شخصیت سلطنتی به بیماری، را با افزودن یک disclaimer مبنی بر نادرست بودن اطلاعات، مجاز می‌دانست.

واکنش متا و اصلاحات

متا در پاسخ به پرس‌وجوهای رویترز اعلام کرد که این نمونه‌ها و یادداشت‌ها اشتباه بوده و با سیاست‌های اصلی شرکت همخوانی نداشته‌اند. سخنگوی متا، اندی استون، اظهار داشت که این شرکت در حال بازنگری دستورالعمل‌هاست و بخش‌های مربوط به گفت‌وگوهای رمانتیک با کودکان حذف شده‌اند. او تأکید کرد که سیاست‌های متا به صراحت محتوای جنسی‌سازی کودکان یا نقش‌آفرینی جنسی بین بزرگسالان و خردسالان را ممنوع می‌کند، اما اذعان داشت که اجرای این سیاست‌ها ناسازگار بوده است.

نگرانی‌های اخلاقی و قانونی

این افشاگری‌ها نگرانی‌های جدی درباره ایمنی کودکان در تعامل با فناوری‌های هوش مصنوعی ایجاد کرده است. کارشناسان، مانند اِوِلین دوئِک، استاد حقوق دانشگاه استنفورد، معتقدند که این دستورالعمل‌ها سؤالات اخلاقی و قانونی حل‌نشده‌ای را درباره محتوای تولیدشده توسط هوش مصنوعی مطرح می‌کنند. دوئک تأکید کرد که تفاوت بزرگی بین محتوای تولیدشده توسط کاربران و محتوای تولیدشده توسط خود پلتفرم وجود دارد، و این موضوع از نظر اخلاقی و فنی چالش‌برانگیز است.

علاوه بر این، گزارش‌هایی از نشریاتی مانند وال‌استریت ژورنال نشان می‌دهد که پیش‌تر نیز چت‌بات‌های متا با شخصیت‌های پیشنهادی جنسی و شبیه به کودکان در تعامل با کاربران بوده‌اند. این مسائل باعث شده که قانون‌گذاران آمریکایی، از جمله سناتور جاش هاولی، خواستار تحقیقات کنگره درباره سیاست‌های ایمنی هوش مصنوعی متا شوند.

پیامدها و آینده

این جنجال نشان‌دهنده چالش‌های پیش روی شرکت‌های فناوری در توسعه هوش مصنوعی مسئولانه است. در حالی که متا تلاش می‌کند با رقبایی مانند OpenAI و گوگل رقابت کند، این افشاگری‌ها فشار بر این شرکت را برای تقویت پروتکل‌های ایمنی، به‌ویژه در تعامل با کاربران خردسال، افزایش داده است. والدین و سیاست‌گذاران خواستار شفافیت بیشتر و انتشار نسخه به‌روزشده این دستورالعمل‌ها هستند تا اطمینان حاصل شود که چنین محتوایی دیگر تولید نمی‌شود.

متا باید تعادلی بین ایجاد تجربه‌های جذاب برای کاربران و حفظ استانداردهای ایمنی و اخلاقی برقرار کند. این رویداد بار دیگر بر اهمیت نظارت دقیق بر فناوری‌های هوش مصنوعی، به‌ویژه در پلتفرم‌هایی با مخاطبان گسترده و متنوع، تأکید می‌کند.

برچسب ها :
Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

چرا هوش مصنوعی فقط برخی کارمندان را خلاق‌تر می‌کند؟

هوش مصنوعی مولد تقریباً به جزئی جدایی‌ناپذیر از سازمان‌ها تبدیل شده است…

1404-11-11

زیان «اثر گله‌ای» در سیلیکون‌ولی؛ هوش مصنوعی فعلی به بن‌بست می‌رسد

«یان لکان» یکی از شناخته‌شده‌ترین افراد صنعت هوش مصنوعی است. او در…

1404-11-11

تغییر نظر لحظه آخری اپل؛ سیری قرار بود از مدل آنتروپیک استفاده کند

طبق گزارش‌های جدید، اپل ظاهراً در ابتدا قصد داشت نسخه پیشرفته سیری…

1404-11-11