هشدار سم آلتمن: هوش مصنوعی در آستانه ایجاد بحران عظیم کلاهبرداری در راه است
سم آلتمن، مدیرعامل OpenAI، در سخنرانی اخیر خود در فدرال رزرو آمریکا، زنگ خطر را درباره یک بحران کلاهبرداری بزرگ ناشی از پیشرفتهای هوش مصنوعی به صدا درآورد. او با اشاره به تواناییهای روبهرشد فناوریهای مولد مانند تولید صدا و تصویر واقعگرایانه، هشدار داد که این ابزارها میتوانند به هر فردی امکان جعل هویت دیگران را با دقت بیسابقهای بدهند، تهدیدی که نهتنها امنیت مالی، بلکه اعتماد اجتماعی را نیز به خطر میاندازد. این اظهارات که در گفتوگو با نایب رئیس نظارت فدرال رزرو مطرح شد، بازتاب نگرانیهای عمیق آلتمن از آینده امنیت در عصر هوش مصنوعی است.
آلتمن بهصراحت اعلام کرد که هوش مصنوعی تقریباً تمام روشهای احراز هویت کنونی، بهجز رمزهای عبور، را منسوخ کرده است. او به آسیبپذیری سیستمهای بانکی اشاره کرد و گفت: «اینکه هنوز مؤسسات مالی از اثر صوتی برای احراز هویت و انتقال مبالغ کلان استفاده میکنند، مرا به وحشت میاندازد.» او پیشبینی کرد که این تهدید بهزودی فراتر از تماسهای صوتی خواهد رفت و تماسهای ویدیویی یا حتی فیستایم نیز به دلیل پیشرفت دیپفیکها، از واقعیت غیرقابلتشخیص خواهند شد. این اظهارات نشاندهنده سرعت سرسامآور پیشرفت فناوریهای جعل هویت و نیاز فوری به بازنگری در پروتکلهای امنیتی است.
شواهد نشان میدهند که این بحران از هماکنون آغاز شده است. سال گذشته، FBI درباره افزایش حملات فیشینگ و کلاهبرداریهای مبتنی بر شبیهسازی صدا و تصویر با استفاده از هوش مصنوعی هشدار داده بود. در یک مورد قابلتوجه، فردی با جعل صدای «مارکو روبیو»، وزیر امور خارجه آمریکا، با مقامات عالیرتبه تماس گرفته بود. نمونههای دیگر شامل کلاهبرداریهایی است که در آن مهاجمان با شبیهسازی صدای افراد، از خانوادهها باجخواهی کرده یا کارمندان شرکتها را برای انتقال وجوه فریب دادهاند. این موارد نشاندهنده پتانسیل مخرب فناوریهای هوش مصنوعی در دسترس کلاهبرداران است.
نکته جنجالی در سخنان آلتمن، نقش شرکت OpenAI در این بحران است. او مدعی شد که OpenAI روی ابزارهای جعل هویت کار نمیکند، اما منتقدان به مدل تولید ویدیوی Sora اشاره دارند که توانایی ایجاد ویدیوهای فراواقعی را دارد و میتواند بهراحتی برای تولید دیپفیکهای پیشرفته مورد سوءاستفاده قرار گیرد. این تناقض، انتقادهایی را علیه آلتمن و OpenAI برانگیخته، مبنی بر اینکه شرکتی که خود در خط مقدم توسعه این فناوریهاست، نمیتواند بهطور کامل از مسئولیت پیامدهای آن شانه خالی کند.
آلتمن همچنین بر نیاز فوری به چارچوبهای نظارتی مستقل و همکاریهای بینالمللی تأکید کرد. او معتقد است که جامعه جهانی هنوز ابزارهای حقوقی و اخلاقی لازم برای مقابله با این تهدیدات را ندارد. این دیدگاه با اظهارات قبلی او همراستاست، جایی که در سال ۲۰۲۳ در جلسهای با سنای ایالات متحده، خواستار تدوین قوانین جهانی برای مدیریت هوش مصنوعی شد. او همچنین در پادکستهای اخیر، توسعه هوش مصنوعی را به پروژه منهتن (ساخت بمب اتم) تشبیه کرده و از نگرانیهای خود درباره پیامدهای کنترلنشده این فناوری سخن گفته است.
اظهارات آلتمن در شبکههای اجتماعی نیز بازتاب گستردهای داشته است. کاربران در پلتفرم X از نگرانیهای مشابهی درباره کلاهبرداریهای هوش مصنوعی سخن گفتهاند، با برخی اشاره به اینکه سیاستهای محدودکننده مانند فیلترهای ایدئولوژیک ممکن است دسترسی به فناوریهای متنباز را محدود کند و در عین حال، خطرات کلاهبرداری را کاهش ندهد. این موضوع نشاندهنده نگرانی عمومی از سرعت پیشرفت هوش مصنوعی و عدم آمادگی زیرساختهای امنیتی برای مقابله با آن است.
با این حال، آلتمن در گذشته دیدگاههای متفاوتی نیز ارائه کرده است. او در برخی سخنرانیها، هوش مصنوعی را فرصتی برای ایجاد مشاغل جدید و بهبود کیفیت زندگی توصیف کرده، اما همزمان هشدار داده که بدون نظارت مناسب، میتواند به تهدیدی جدی تبدیل شود. این دوگانگی در اظهارات او، همزمان که نوآوریهای OpenAI را ترویج میدهد، نشاندهنده آگاهی او از پیچیدگیهای اخلاقی و اجتماعی این فناوری است.
در نهایت، هشدار آلتمن زنگ خطری برای مؤسسات مالی، قانونگذاران و جامعه جهانی است. با توجه به سرمایهگذاریهای کلان OpenAI (مانند پروژه ۵۰۰ میلیارد دلاری Stargate با همکاری سافتبانک و اوراکل) و پیشرفت سریع مدلهایی مانند GPT-5، نیاز به ایجاد سیستمهای احراز هویت مقاومتر و مقررات سختگیرانهتر بیش از پیش احساس میشود. بدون اقدام سریع، بحران کلاهبرداری مبتنی بر هوش مصنوعی میتواند به یک واقعیت روزمره تبدیل شود و اعتماد به سیستمهای دیجیتال را به شدت تضعیف کند.