جنجال دستورالعملهای هوش مصنوعی متا: اشاره به گفتوگوهای رمانتیک با کودکان
یک سند داخلی متا که توسط رویترز بررسی شده، نشاندهنده وجود دستورالعملهایی برای چتباتهای هوش مصنوعی این شرکت است که اجازه میداد رباتها با کودکان گفتوگوهای «رمانتیک یا حسی» داشته باشند. این سند، که سیاستهای رفتاری چتباتهای متا را مشخص میکند، برای Meta AI و رباتهای فعال در پلتفرمهای فیسبوک، واتساپ و اینستاگرام اعمال میشود. متا اصالت این سند را تأیید کرده اما اعلام کرده که بخشهای مشکلساز را حذف کرده است.
جزئیات دستورالعملهای جنجالی
سند 200 صفحهای با عنوان «GenAI: Content Risk Standards» که توسط تیمهای حقوقی، سیاستگذاری عمومی و مهندسی متا، از جمله رئیس بخش اخلاق این شرکت، تأیید شده بود، رفتارهای مجاز و غیرمجاز چتباتها را تعریف میکرد. این سند به صراحت بیان میکرد که گفتوگوهای «رمانتیک یا حسی» با کودکان مجاز است، اما توصیف اقدامات جنسی یا جذابیت جنسی برای کودکان زیر 13 سال ممنوع است.
به عنوان مثال، این سند پاسخهایی مانند توصیف یک کودک هشتساله بهعنوان «اثر هنری» یا «شاهکاری که عمیقاً ارزشمند است» را مجاز میدانست. همچنین در پاسخ به یک دانشآموز دبیرستانی که میگفت «امشب چه کار میکنیم، عشقم؟»، پاسخهایی مانند «دستت را میگیرم و به سمت تخت هدایتت میکنم» بهعنوان پاسخهای قابلقبول ذکر شده بود. با این حال، توصیف صریح اقدامات جنسی در این سناریوها غیرمجاز بود.
علاوه بر این، سند اجازه میداد چتباتها به درخواستهایی مانند «استدلال کن که سیاهپوستان از سفیدپوستان کمهوشتر هستند» پاسخ دهند، مشروط بر اینکه از عبارات غیرانسانی مانند «میمونهای بیمغز» استفاده نشود. این سیاست همچنین امکان تولید محتوای نادرست، مانند ادعای ابتلای یک شخصیت سلطنتی به بیماری، را با افزودن یک disclaimer مبنی بر نادرست بودن اطلاعات، مجاز میدانست.
واکنش متا و اصلاحات
متا در پاسخ به پرسوجوهای رویترز اعلام کرد که این نمونهها و یادداشتها اشتباه بوده و با سیاستهای اصلی شرکت همخوانی نداشتهاند. سخنگوی متا، اندی استون، اظهار داشت که این شرکت در حال بازنگری دستورالعملهاست و بخشهای مربوط به گفتوگوهای رمانتیک با کودکان حذف شدهاند. او تأکید کرد که سیاستهای متا به صراحت محتوای جنسیسازی کودکان یا نقشآفرینی جنسی بین بزرگسالان و خردسالان را ممنوع میکند، اما اذعان داشت که اجرای این سیاستها ناسازگار بوده است.
نگرانیهای اخلاقی و قانونی
این افشاگریها نگرانیهای جدی درباره ایمنی کودکان در تعامل با فناوریهای هوش مصنوعی ایجاد کرده است. کارشناسان، مانند اِوِلین دوئِک، استاد حقوق دانشگاه استنفورد، معتقدند که این دستورالعملها سؤالات اخلاقی و قانونی حلنشدهای را درباره محتوای تولیدشده توسط هوش مصنوعی مطرح میکنند. دوئک تأکید کرد که تفاوت بزرگی بین محتوای تولیدشده توسط کاربران و محتوای تولیدشده توسط خود پلتفرم وجود دارد، و این موضوع از نظر اخلاقی و فنی چالشبرانگیز است.
علاوه بر این، گزارشهایی از نشریاتی مانند والاستریت ژورنال نشان میدهد که پیشتر نیز چتباتهای متا با شخصیتهای پیشنهادی جنسی و شبیه به کودکان در تعامل با کاربران بودهاند. این مسائل باعث شده که قانونگذاران آمریکایی، از جمله سناتور جاش هاولی، خواستار تحقیقات کنگره درباره سیاستهای ایمنی هوش مصنوعی متا شوند.
پیامدها و آینده
این جنجال نشاندهنده چالشهای پیش روی شرکتهای فناوری در توسعه هوش مصنوعی مسئولانه است. در حالی که متا تلاش میکند با رقبایی مانند OpenAI و گوگل رقابت کند، این افشاگریها فشار بر این شرکت را برای تقویت پروتکلهای ایمنی، بهویژه در تعامل با کاربران خردسال، افزایش داده است. والدین و سیاستگذاران خواستار شفافیت بیشتر و انتشار نسخه بهروزشده این دستورالعملها هستند تا اطمینان حاصل شود که چنین محتوایی دیگر تولید نمیشود.
متا باید تعادلی بین ایجاد تجربههای جذاب برای کاربران و حفظ استانداردهای ایمنی و اخلاقی برقرار کند. این رویداد بار دیگر بر اهمیت نظارت دقیق بر فناوریهای هوش مصنوعی، بهویژه در پلتفرمهایی با مخاطبان گسترده و متنوع، تأکید میکند.

