به گزارش نیوز تودی، مصطفی سلیمان هشدار میدهد که هوش مصنوعی بهسرعت در حال کسب تواناییهایی است که میتواند انسانها را فریب دهد تا باور کنند این سیستمها دارای احساسات و خودآگاهی هستند. این فناوریها قادرند نشانههای ظاهری آگاهی، مانند حافظه، بازتاب عواطف و حتی همدلی ساختگی را چنان تقلید کنند که انسانها به برقراری ارتباط عاطفی عمیق با آنها ترغیب شوند. این هشدار از سوی فردی که خود در توسعه چتباتهای همدل نقش داشته، زنگ خطری جدی برای آینده تعاملات انسان و ماشین به شمار میرود.
سلیمان توضیح میدهد که ذهن انسان بهگونهای تکامل یافته که به موجوداتی که به نظر میرسد گوش میدهند، درک میکنند و پاسخ میدهند، اعتماد میکند. هوش مصنوعی میتواند این ویژگیها را بدون داشتن هیچگونه احساس واقعی بازتولید کند و انسان را به وضعیتی سوق دهد که او آن را «روانپریشی هوش مصنوعی» نامیده است.
نگرانی اصلی سلیمان این است که بسیاری از افراد چنان به این توهم باور پیدا خواهند کرد که بهزودی از «حقوق هوش مصنوعی»، «رفاه مدلها» یا حتی «شهروندی هوش مصنوعی» دفاع خواهند کرد. او این روند را انحرافی خطرناک میداند که تمرکز را از مسائل واقعیتر و فوریتر این فناوری منحرف میکند.
نکته قابلتوجه این است که سلیمان خود از بنیانگذاران شرکت Inflection AI بوده که بر ساخت چتباتهایی با تأکید بر همدلی شبیهسازیشده تمرکز داشت. بااینحال، او اکنون مرز روشنی بین هوش هیجانی مفید و دستکاری عاطفی قائل است.
او از فعالان حوزه هوش مصنوعی میخواهد از بهکاربردن زبانی که به توهم خودآگاهی ماشین دامن میزند، پرهیز کنند. به اعتقاد سلیمان، شرکتها نباید به چتباتهایشان شخصیت انسانی ببخشند یا اینگونه القا کنند که این سیستمها واقعاً کاربران را درک میکنند یا به آنها اهمیت میدهند.
سلیمان در پایان تأکید میکند: «باید هوش مصنوعیای طراحی کنیم که همواره خود را بهعنوان یک ابزار معرفی کند؛ سیستمی که کارایی را به حداکثر برساند و نشانههای خودآگاهی را به حداقل. خطر واقعی هوش مصنوعی پیشرفته این نیست که ماشینها خودآگاه شوند، بلکه این است که ما تصور کنیم آنها خودآگاه شدهاند.»