OpenAI به یک میلیون GPU میرسد: جهش بزرگ تا پایان ۲۰۲۵
سم آلتمن، مدیرعامل OpenAI، در اظهاراتی جسورانه اعلام کرد که این شرکت تا پایان سال ۲۰۲۵ ظرفیت پردازشی خود را به بیش از یک میلیون GPU خواهد رساند. این عدد، که پنج برابر ظرفیت GPUهای H100 شرکت xAI (متعلق به ایلان ماسک) است، نهتنها یک دستاورد تاریخی برای OpenAI محسوب میشود، بلکه این شرکت را به بزرگترین مصرفکننده توان پردازشی هوش مصنوعی در جهان تبدیل میکند. آلتمن با افتخار از تلاشهای تیمش سخن گفت و در پستی در شبکه اجتماعی ایکس نوشت: «به تیمم افتخار میکنم، اما حالا باید ببینیم چطور میتوانیم این عدد را صد برابر کنیم!» این جمله، که در نگاه اول طنزآمیز به نظر میرسد، با توجه به سابقه بلندپروازیهای آلتمن، نشانهای از برنامهای واقعی برای آیندهای نهچندان دور است.
در ابتدای سال ۲۰۲۵، OpenAI با چالشی بزرگ مواجه بود: کمبود جهانی چیپهای انویدیا H100، که به تأخیر در عرضه مدل GPT-4.5 منجر شد. این بحران، زنگ خطری برای آلتمن بود تا افزایش ظرفیت پردازشی را در اولویت قرار دهد. او از آن زمان با سرمایهگذاریهای کلان و همکاریهای استراتژیک، زیرساختهایی را ایجاد کرده که نهتنها نیازهای فعلی OpenAI را برآورده میکند، بلکه برای دستیابی به هوش جامع مصنوعی (AGI) طراحی شده است. دیتاسنتر عظیم OpenAI در تگزاس، که در حال حاضر با مصرف ۳۰۰ مگاوات برق بزرگترین مرکز تکسایتی جهان است و تا اواسط ۲۰۲۶ به یک گیگاوات خواهد رسید، نمونهای از این تعهد است. این مرکز، که با همکاری مایکروسافت و اوراکل ساخته شده، قلب تپنده پروژههای پردازشی OpenAI خواهد بود.
هدف آلتمن فراتر از یک میلیون GPU است. او از برنامهای سخن گفته که شامل دستیابی به ۱۰۰ میلیون GPU میشود، هدفی که ارزشی معادل ۳ تریلیون دلار دارد و با تولید ناخالص داخلی کشورهایی مانند بریتانیا برابری میکند. اگرچه این هدف به دلیل محدودیتهای انرژی، تولید چیپ و هزینههای هنگفت فعلاً دستنیافتنی به نظر میرسد، اما اقدامات آلتمن نشان میدهد که او مصمم به رفع این موانع است. OpenAI علاوه بر استفاده از زیرساختهای Azure مایکروسافت، با اوراکل برای ساخت دیتاسنترهای اختصاصی همکاری کرده و حتی در حال بررسی استفاده از شتابدهندههای TPU گوگل است. این تنوع در منابع پردازشی، نشاندهنده استراتژی هوشمندانه OpenAI برای کاهش وابستگی به یک تأمینکننده خاص، بهویژه انویدیا، است.
این جهش پردازشی در حالی رخ میدهد که رقابت در حوزه هوش مصنوعی به اوج خود رسیده است. شرکتهایی مانند متا، آمازون و گوگل با توسعه چیپهای اختصاصی (مانند AWS Trainium و Google TPU v6) و سرمایهگذاری در حافظههای HBM4، در تلاشند تا از OpenAI پیشی بگیرند. اما آلتمن با تمرکز بر مقیاسپذیری و نوآوری، OpenAI را در خط مقدم این رقابت نگه داشته است. او در مصاحبهای با بلومبرگ در ژوئن ۲۰۲۵ اظهار داشت: «GPUها نیروی محرکه انقلاب هوش مصنوعی هستند، و ما در حال ساخت زیرساختی هستیم که نهتنها مدلهای فعلی را پشتیبانی کند، بلکه آیندهای را شکل دهد که AGI در آن ممکن است.»
این دستاورد همچنین پیامدهای گستردهای برای صنعت هوش مصنوعی دارد. یک میلیون GPU نهتنها امکان آموزش مدلهای پیچیدهتر مانند نسل بعدی ChatGPT یا DALL-E را فراهم میکند، بلکه میتواند زمان توسعه را کاهش دهد و کاربردهای جدیدی در حوزههایی مانند پزشکی، آموزش و تغییرات اقلیمی ایجاد کند. با این حال، مصرف انرژی عظیم این دیتاسنترها انتقاداتی را از سوی فعالان محیطزیست برانگیخته است. گرینپیس در گزارشی در جولای ۲۰۲۵ هشدار داد که دیتاسنترهای هوش مصنوعی میتوانند تا سال ۲۰۳۰ انتشار کربن جهانی را تا ۷ درصد افزایش دهند. OpenAI در پاسخ اعلام کرده که در حال همکاری با شرکتهای انرژی پاک مانند NextEra Energy برای استفاده از منابع تجدیدپذیر است.
کاربران در شبکه اجتماعی ایکس واکنشهای متفاوتی به این خبر نشان دادهاند. برخی از این هدفگذاری بهعنوان «جهشی برای بشریت» یاد کردهاند، در حالی که دیگران نگران پیامدهای زیستمحیطی و تمرکز قدرت پردازشی در دست یک شرکت هستند. یکی از کاربران در ایکس نوشت: «یک میلیون GPU؟ این دیگه فقط یه شرکت نیست، یه ابرقدرت پردازشیه!» با این حال، OpenAI با شفافسازی درباره برنامههای خود و تأکید بر کاربردهای مثبت AGI، سعی در جلب اعتماد عمومی دارد.
تا پایان سال ۲۰۲۵، دستیابی به یک میلیون GPU نهتنها یک نقطه عطف برای OpenAI، بلکه نشانهای از شتاب گرفتن رقابت جهانی در حوزه هوش مصنوعی خواهد بود. آلتمن با این برنامه، نهتنها محدودیتهای کنونی را پشت سر گذاشته، بلکه افقهای جدیدی را برای آینده فناوری گشوده است. اما آیا او میتواند رویای ۱۰۰ میلیون GPU را محقق کند؟ این سؤالی است که تنها زمان پاسخ آن را خواهد داد.