انتقاد تند پدرخوانده AI جفری هینتون از ایلان ماسک و زاکربرگ

انتقاد تند پدرخوانده AI جفری هینتون از ایلان ماسک و زاکربرگ

انتقاد  هینتون از ایلان ماسک و زاکربرگ: الیگارش‌های فناوری و خطرات هوش مصنوعی

جفری هینتون، که به‌ عنوان پدرخوانده هوش مصنوعی  شناخته می‌شود، با اظهاراتی صریح و تند، شمشیر انتقاد خود را به سمت رهبران بزرگ فناوری نشانه رفته است. او در پادکست One Decision که در ۶ مرداد ۱۴۰۴ (۲۸ جولای ۲۰۲۵) منتشر شد، افرادی مانند ایلان ماسک، مالک xAI، و مارک زاکربرگ، مدیرعامل متا، را «الیگارش» خواند و گفت که به توانایی آن‌ها برای مدیریت ایمن هوش مصنوعی اعتمادی ندارد. هینتون، که چند سال پیش به دلیل محدودیت‌های گوگل در صحبت آزادانه درباره خطرات هوش مصنوعی از این شرکت استعفا داد، تنها یک نفر را از این انتقادها مستثنا کرد: دمیس هاسابیس، مدیرعامل گوگل دیپ‌مایند و برنده نوبل شیمی ۲۰۲۴. این اظهارات، که بازتاب گسترده‌ای در رسانه‌ها و شبکه‌های اجتماعی مانند X داشته، بار دیگر بحث‌های داغ درباره خطرات هوش مصنوعی و مسئولیت شرکت‌های فناوری را به جریان انداخته است. در این مقاله، نگاهی عمیق‌تر به انتقادات هینتون، دیدگاه‌های او درباره فرهنگ شرکت‌های فناوری و آینده نظارت بر هوش مصنوعی می‌اندازیم.

هینتون، که سال‌ها در توسعه الگوریتم‌های یادگیری عمیق نقش کلیدی داشته، معتقد است که خطرات هوش مصنوعی، از سوءاستفاده‌های اخلاقی گرفته تا پیامدهای فاجعه‌بار در مقیاس جهانی، به اندازه کافی توسط رهبران فناوری جدی گرفته نمی‌شود. او در پادکست One Decision گفت: «افرادی که هوش مصنوعی را کنترل می‌کنند، مانند ماسک و زاکربرگ، الیگارش هستند.» وقتی از او پرسیده شد که آیا به این افراد برای مدیریت مسئولانه این فناوری اعتماد دارد، با طنزی تلخ پاسخ داد: «فکر می‌کنم وقتی آن‌ها را الیگارش خواندم، پاسخ این سؤال را دادم.» این اظهارات، که به سرعت در پلتفرم X و رسانه‌هایی مانند TechCrunch و The Verge بازتاب یافت، نشان‌دهنده نگرانی عمیق هینتون از تمرکز قدرت در دستان تعداد محدودی از مدیران فناوری است که اولویت‌های تجاری را بر ایمنی ترجیح می‌دهند.

تنها استثنای هینتون در این میان، دمیس هاسابیس است، کسی که به گفته او «خطرات را واقعاً درک می‌کند و می‌خواهد کاری در این مورد انجام دهد.» هاسابیس، که دیپ‌مایند را در سال ۲۰۱۴ به گوگل فروخت، شرط ایجاد یک هیئت نظارت بر اخلاق هوش مصنوعی را برای این معامله گذاشت. او بارها درباره نیاز به قانون‌گذاری بین‌المللی برای کنترل هوش مصنوعی سخن گفته و حتی پیشنهاد تأسیس نهادی مشابه سازمان بین‌المللی انرژی اتمی را برای نظارت بر این فناوری مطرح کرده است. این دیدگاه با رویکرد هینتون همخوانی دارد، که معتقد است هوش مصنوعی، به دلیل پتانسیل عظیم و خطراتش، نیازمند نظارت جهانی است. هاسابیس، که اخیراً به دلیل پیشرفت‌هایش در مدل‌سازی پروتئین‌ها با AlphaFold برنده نوبل شد، به‌عنوان یک دانشمند متعهد به اخلاق، در تضاد با فرهنگ تجاری برخی شرکت‌های فناوری قرار می‌گیرد.

zuckerberg-musk

هینتون انتقادات خود را به فرهنگ حاکم بر شرکت‌های فناوری نیز گسترش داد. او گفت: «بسیاری از افراد در شرکت‌های بزرگ به‌طور علنی خطرات هوش مصنوعی را کم‌اهمیت جلوه می‌دهند.» این موضوع حتی در زمان حضورش در گوگل نیز وجود داشت، جایی که اگرچه تشویق به کار روی مسائل ایمنی می‌شد، اما محدودیت‌هایی برای صحبت آزادانه درباره خطرات بنیادی این فناوری وجود داشت. این محدودیت‌ها در نهایت او را به استعفا سوق داد تا بتواند بدون سانسور درباره خطراتی مانند سوگیری‌های الگوریتمی، استفاده نظامی از هوش مصنوعی و حتی سناریوهای آخرالزمانی مانند خودمختاری ماشین‌ها هشدار دهد. هینتون در مصاحبه‌های قبلی، مانند گفت‌وگو با BBC، احتمال اینکه هوش مصنوعی پیشرفته کنترل را از انسان‌ها بگیرد را ۱۰ درصد تخمین زده و خواستار اقدام فوری برای کاهش این ریسک‌ها شده است.

اظهارات هینتون در X واکنش‌های متفاوتی به دنبال داشت. برخی کاربران، مانند @AIRebelX، از شجاعت او برای انتقاد از غول‌های فناوری تمجید کردند و معتقدند که هوش مصنوعی باید توسط دانشمندان مستقل و نه مدیران تجاری هدایت شود. دیگران، مانند @TechFanatic22، این انتقادات را بیش‌ازحد تند خواندند و گفتند که ماسک و زاکربرگ با پروژه‌هایی مانند xAI و Llama در حال پیشبرد نوآوری هستند. با این حال، حتی این کاربران نیز اذعان کردند که نگرانی‌های هینتون درباره نبود نظارت کافی بر هوش مصنوعی قابل‌توجه است. این بحث‌ها نشان‌دهنده دوگانگی در جامعه فناوری است: از یک سو، اشتیاق برای پیشرفت سریع هوش مصنوعی، و از سوی دیگر، ترس از پیامدهای کنترل‌نشده آن.

نگرانی‌های هینتون تنها به اظهارات محدود نمی‌شود. او و دیگر پیشگامان هوش مصنوعی، مانند یوشوا بنجیو، در سال ۲۰۲۳ بیانیه‌ای مشترک منتشر کردند که در آن هوش مصنوعی را با خطراتی مانند بیماری‌های همه‌گیر یا جنگ هسته‌ای مقایسه کردند. این بیانیه خواستار همکاری جهانی برای تدوین قوانین سخت‌گیرانه بود. در همین حال، شرکت‌هایی مانند متا و xAI با عرضه مدل‌های متن‌باز مانند Llama 3 و Grok 3، دسترسی به هوش مصنوعی را دموکراتیک‌تر کرده‌اند، اما هینتون معتقد است که این آزادی بدون نظارت کافی می‌تواند به سوءاستفاده منجر شود، مثلاً در تولید محتوای جعلی یا سلاح‌های خودکار.

آینده هوش مصنوعی به تعادل بین نوآوری و ایمنی بستگی دارد. هینتون پیشنهاد می‌کند که دولت‌ها و سازمان‌های بین‌المللی باید نقش فعال‌تری در قانون‌گذاری داشته باشند، مشابه آنچه در صنایع دارویی یا هوانوردی دیده می‌شود. او همچنین خواستار سرمایه‌گذاری بیشتر در تحقیقات ایمنی هوش مصنوعی است، حوزه‌ای که به گفته او در مقایسه با توسعه مدل‌های جدید، بودجه ناچیزی دریافت می‌کند. در این میان، دمیس هاسابیس و دیپ‌مایند به‌عنوان نمونه‌ای از رویکرد مسئولانه برجسته شده‌اند، اما هینتون تأکید می‌کند که یک نفر یا یک شرکت به‌تنهایی نمی‌تواند این چالش را حل کند.

اظهارات هینتون هشداری جدی به صنعت فناوری و جامعه جهانی است. در حالی که هوش مصنوعی پتانسیل تغییر جهان را دارد، مدیریت نادرست آن می‌تواند به عواقب غیرقابل‌جبران منجر شود. این انتقادات، اگرچه تند، دعوتی به بازنگری در نحوه توسعه و نظارت بر این فناوری هستند. آیا رهبران فناوری مانند ماسک و زاکربرگ به این هشدارها توجه خواهند کرد؟ یا همان‌طور که هینتون می‌گوید، منافع تجاری بر ایمنی اولویت پیدا خواهد کرد؟ پاسخ این سؤالات در سال‌های آینده، مسیر هوش مصنوعی را تعیین خواهد کرد.

منبع

Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

هشدار: مکالمات خصوصی ChatGPT در نتایج جست‌وجوی گوگل ظاهر می‌شوند

 مکالمات خصوصی ChatGPT در نتایج جست‌وجوی گوگل اخیراً گزارش‌هایی منتشر شده که…

1404-05-10

هوش مصنوعی NOVA؛ پخش زنده با آواتارهای دیجیتال

هوش مصنوعی NOVA بایدو؛ انقلابی در جایگزینی مجری‌های انسانی با آواتارهای دیجیتال…

1404-05-10

هوش مصنوعی چگونه نظام آموزشی سنتی را متحول می‌کند؟

هوش مصنوعی و پایان نظام آموزشی سنتی؛ انقلابی در راه است! هوش…

1404-05-09

متا همچنان متخصصان هوش مصنوعی اپل را جذب می‌کند

اپل در رقابت AI عقب ماند؛ متا یارگیری کرد اپل در میدان…

1404-05-08

هوش مصنوعی ChatGPT با حالت مطالعه جدید، یادگیری را متحول می‌کند

حالت مطالعه ChatGPT ؛ ابزار جدید برای آموزش هوشمند شرکت OpenAI با…

1404-05-08

اتحاد شرکت‌های هوش مصنوعی چین برای مقابله با تحریم‌های آمریکا

شرکت‌های  هوش مصنوعی چینی در برابر تحریم‌های فناوری آمریکا متحد شدند شرکت‌های…

1404-05-07

هوش مصنوعی در گوگل ادز | وقتی گوگل مشتری را بهتر از خودتان می‌شناسد!

استفاده گوگل از هوش مصنوعی در تبلیغات چیز جدیدی نیست. سال‌ها قبل‌تر…

1404-05-07

هشدار سم آلتمن: دیپ‌ فیک‌ها امنیت مالی و اجتماعی را تهدید می‌کنند

هشدار سم آلتمن: هوش مصنوعی در آستانه ایجاد بحران عظیم کلاهبرداری در…

1404-05-06

جنجال ChatGPT: راهنمایی برای آیین‌های شیطانی و خودآزاری

وقتی هوش مصنوعی خودآزاری را ترویج می‌کند: هشدار درباره ChatGPT نشریه آتلانتیک…

1404-05-06

سم آلتمن: ساخت هوش مصنوعی مانند تولید بمب اتم است

OpenAI و نگرانی‌های آلتمن: هوش مصنوعی در مسیر پروژه منهتن سم آلتمن،…

1404-05-06

HRM: معماری هوش مصنوعی با ۱۰۰ برابر سرعت استدلال

مدل استدلال سلسله‌مراتبی: انقلابی در هوش مصنوعی با سرعت ۱۰۰ برابر استارتاپ…

1404-05-06

سازمان همکاری هوش مصنوعی چین: پاسخ به رقابت با آمریکا

چین و پیشنهاد سازمان جهانی همکاری هوش مصنوعی: پاسخی به رقابت جهانی…

1404-05-05