انتقاد هینتون از ایلان ماسک و زاکربرگ: الیگارشهای فناوری و خطرات هوش مصنوعی
جفری هینتون، که به عنوان پدرخوانده هوش مصنوعی شناخته میشود، با اظهاراتی صریح و تند، شمشیر انتقاد خود را به سمت رهبران بزرگ فناوری نشانه رفته است. او در پادکست One Decision که در ۶ مرداد ۱۴۰۴ (۲۸ جولای ۲۰۲۵) منتشر شد، افرادی مانند ایلان ماسک، مالک xAI، و مارک زاکربرگ، مدیرعامل متا، را «الیگارش» خواند و گفت که به توانایی آنها برای مدیریت ایمن هوش مصنوعی اعتمادی ندارد. هینتون، که چند سال پیش به دلیل محدودیتهای گوگل در صحبت آزادانه درباره خطرات هوش مصنوعی از این شرکت استعفا داد، تنها یک نفر را از این انتقادها مستثنا کرد: دمیس هاسابیس، مدیرعامل گوگل دیپمایند و برنده نوبل شیمی ۲۰۲۴. این اظهارات، که بازتاب گستردهای در رسانهها و شبکههای اجتماعی مانند X داشته، بار دیگر بحثهای داغ درباره خطرات هوش مصنوعی و مسئولیت شرکتهای فناوری را به جریان انداخته است. در این مقاله، نگاهی عمیقتر به انتقادات هینتون، دیدگاههای او درباره فرهنگ شرکتهای فناوری و آینده نظارت بر هوش مصنوعی میاندازیم.
هینتون، که سالها در توسعه الگوریتمهای یادگیری عمیق نقش کلیدی داشته، معتقد است که خطرات هوش مصنوعی، از سوءاستفادههای اخلاقی گرفته تا پیامدهای فاجعهبار در مقیاس جهانی، به اندازه کافی توسط رهبران فناوری جدی گرفته نمیشود. او در پادکست One Decision گفت: «افرادی که هوش مصنوعی را کنترل میکنند، مانند ماسک و زاکربرگ، الیگارش هستند.» وقتی از او پرسیده شد که آیا به این افراد برای مدیریت مسئولانه این فناوری اعتماد دارد، با طنزی تلخ پاسخ داد: «فکر میکنم وقتی آنها را الیگارش خواندم، پاسخ این سؤال را دادم.» این اظهارات، که به سرعت در پلتفرم X و رسانههایی مانند TechCrunch و The Verge بازتاب یافت، نشاندهنده نگرانی عمیق هینتون از تمرکز قدرت در دستان تعداد محدودی از مدیران فناوری است که اولویتهای تجاری را بر ایمنی ترجیح میدهند.
تنها استثنای هینتون در این میان، دمیس هاسابیس است، کسی که به گفته او «خطرات را واقعاً درک میکند و میخواهد کاری در این مورد انجام دهد.» هاسابیس، که دیپمایند را در سال ۲۰۱۴ به گوگل فروخت، شرط ایجاد یک هیئت نظارت بر اخلاق هوش مصنوعی را برای این معامله گذاشت. او بارها درباره نیاز به قانونگذاری بینالمللی برای کنترل هوش مصنوعی سخن گفته و حتی پیشنهاد تأسیس نهادی مشابه سازمان بینالمللی انرژی اتمی را برای نظارت بر این فناوری مطرح کرده است. این دیدگاه با رویکرد هینتون همخوانی دارد، که معتقد است هوش مصنوعی، به دلیل پتانسیل عظیم و خطراتش، نیازمند نظارت جهانی است. هاسابیس، که اخیراً به دلیل پیشرفتهایش در مدلسازی پروتئینها با AlphaFold برنده نوبل شد، بهعنوان یک دانشمند متعهد به اخلاق، در تضاد با فرهنگ تجاری برخی شرکتهای فناوری قرار میگیرد.
هینتون انتقادات خود را به فرهنگ حاکم بر شرکتهای فناوری نیز گسترش داد. او گفت: «بسیاری از افراد در شرکتهای بزرگ بهطور علنی خطرات هوش مصنوعی را کماهمیت جلوه میدهند.» این موضوع حتی در زمان حضورش در گوگل نیز وجود داشت، جایی که اگرچه تشویق به کار روی مسائل ایمنی میشد، اما محدودیتهایی برای صحبت آزادانه درباره خطرات بنیادی این فناوری وجود داشت. این محدودیتها در نهایت او را به استعفا سوق داد تا بتواند بدون سانسور درباره خطراتی مانند سوگیریهای الگوریتمی، استفاده نظامی از هوش مصنوعی و حتی سناریوهای آخرالزمانی مانند خودمختاری ماشینها هشدار دهد. هینتون در مصاحبههای قبلی، مانند گفتوگو با BBC، احتمال اینکه هوش مصنوعی پیشرفته کنترل را از انسانها بگیرد را ۱۰ درصد تخمین زده و خواستار اقدام فوری برای کاهش این ریسکها شده است.
اظهارات هینتون در X واکنشهای متفاوتی به دنبال داشت. برخی کاربران، مانند @AIRebelX، از شجاعت او برای انتقاد از غولهای فناوری تمجید کردند و معتقدند که هوش مصنوعی باید توسط دانشمندان مستقل و نه مدیران تجاری هدایت شود. دیگران، مانند @TechFanatic22، این انتقادات را بیشازحد تند خواندند و گفتند که ماسک و زاکربرگ با پروژههایی مانند xAI و Llama در حال پیشبرد نوآوری هستند. با این حال، حتی این کاربران نیز اذعان کردند که نگرانیهای هینتون درباره نبود نظارت کافی بر هوش مصنوعی قابلتوجه است. این بحثها نشاندهنده دوگانگی در جامعه فناوری است: از یک سو، اشتیاق برای پیشرفت سریع هوش مصنوعی، و از سوی دیگر، ترس از پیامدهای کنترلنشده آن.
نگرانیهای هینتون تنها به اظهارات محدود نمیشود. او و دیگر پیشگامان هوش مصنوعی، مانند یوشوا بنجیو، در سال ۲۰۲۳ بیانیهای مشترک منتشر کردند که در آن هوش مصنوعی را با خطراتی مانند بیماریهای همهگیر یا جنگ هستهای مقایسه کردند. این بیانیه خواستار همکاری جهانی برای تدوین قوانین سختگیرانه بود. در همین حال، شرکتهایی مانند متا و xAI با عرضه مدلهای متنباز مانند Llama 3 و Grok 3، دسترسی به هوش مصنوعی را دموکراتیکتر کردهاند، اما هینتون معتقد است که این آزادی بدون نظارت کافی میتواند به سوءاستفاده منجر شود، مثلاً در تولید محتوای جعلی یا سلاحهای خودکار.
آینده هوش مصنوعی به تعادل بین نوآوری و ایمنی بستگی دارد. هینتون پیشنهاد میکند که دولتها و سازمانهای بینالمللی باید نقش فعالتری در قانونگذاری داشته باشند، مشابه آنچه در صنایع دارویی یا هوانوردی دیده میشود. او همچنین خواستار سرمایهگذاری بیشتر در تحقیقات ایمنی هوش مصنوعی است، حوزهای که به گفته او در مقایسه با توسعه مدلهای جدید، بودجه ناچیزی دریافت میکند. در این میان، دمیس هاسابیس و دیپمایند بهعنوان نمونهای از رویکرد مسئولانه برجسته شدهاند، اما هینتون تأکید میکند که یک نفر یا یک شرکت بهتنهایی نمیتواند این چالش را حل کند.
اظهارات هینتون هشداری جدی به صنعت فناوری و جامعه جهانی است. در حالی که هوش مصنوعی پتانسیل تغییر جهان را دارد، مدیریت نادرست آن میتواند به عواقب غیرقابلجبران منجر شود. این انتقادات، اگرچه تند، دعوتی به بازنگری در نحوه توسعه و نظارت بر این فناوری هستند. آیا رهبران فناوری مانند ماسک و زاکربرگ به این هشدارها توجه خواهند کرد؟ یا همانطور که هینتون میگوید، منافع تجاری بر ایمنی اولویت پیدا خواهد کرد؟ پاسخ این سؤالات در سالهای آینده، مسیر هوش مصنوعی را تعیین خواهد کرد.