هشدار سم آلتمن: دیپ‌ فیک‌ها امنیت مالی و اجتماعی را تهدید می‌کنند

هشدار سم آلتمن: هوش مصنوعی در آستانه ایجاد بحران عظیم کلاهبرداری در راه است

هشدار سم آلتمن: هوش مصنوعی در آستانه ایجاد بحران عظیم کلاهبرداری در راه است

سم آلتمن، مدیرعامل OpenAI، در سخنرانی اخیر خود در فدرال رزرو آمریکا، زنگ خطر را درباره یک بحران کلاهبرداری بزرگ ناشی از پیشرفت‌های هوش مصنوعی به صدا درآورد. او با اشاره به توانایی‌های روبه‌رشد فناوری‌های مولد مانند تولید صدا و تصویر واقع‌گرایانه، هشدار داد که این ابزارها می‌توانند به هر فردی امکان جعل هویت دیگران را با دقت بی‌سابقه‌ای بدهند، تهدیدی که نه‌تنها امنیت مالی، بلکه اعتماد اجتماعی را نیز به خطر می‌اندازد. این اظهارات که در گفت‌وگو با نایب رئیس نظارت فدرال رزرو مطرح شد، بازتاب نگرانی‌های عمیق آلتمن از آینده امنیت در عصر هوش مصنوعی است.

آلتمن به‌صراحت اعلام کرد که هوش مصنوعی تقریباً تمام روش‌های احراز هویت کنونی، به‌جز رمزهای عبور، را منسوخ کرده است. او به آسیب‌پذیری سیستم‌های بانکی اشاره کرد و گفت: «اینکه هنوز مؤسسات مالی از اثر صوتی برای احراز هویت و انتقال مبالغ کلان استفاده می‌کنند، مرا به وحشت می‌اندازد.» او پیش‌بینی کرد که این تهدید به‌زودی فراتر از تماس‌های صوتی خواهد رفت و تماس‌های ویدیویی یا حتی فیس‌تایم نیز به دلیل پیشرفت دیپ‌فیک‌ها، از واقعیت غیرقابل‌تشخیص خواهند شد. این اظهارات نشان‌دهنده سرعت سرسام‌آور پیشرفت فناوری‌های جعل هویت و نیاز فوری به بازنگری در پروتکل‌های امنیتی است.

شواهد نشان می‌دهند که این بحران از هم‌اکنون آغاز شده است. سال گذشته، FBI درباره افزایش حملات فیشینگ و کلاهبرداری‌های مبتنی بر شبیه‌سازی صدا و تصویر با استفاده از هوش مصنوعی هشدار داده بود. در یک مورد قابل‌توجه، فردی با جعل صدای «مارکو روبیو»، وزیر امور خارجه آمریکا، با مقامات عالی‌رتبه تماس گرفته بود. نمونه‌های دیگر شامل کلاهبرداری‌هایی است که در آن مهاجمان با شبیه‌سازی صدای افراد، از خانواده‌ها باج‌خواهی کرده یا کارمندان شرکت‌ها را برای انتقال وجوه فریب داده‌اند. این موارد نشان‌دهنده پتانسیل مخرب فناوری‌های هوش مصنوعی در دسترس کلاهبرداران است.

سم آلتمن: دیپ‌فیک‌ها امنیت مالی و اجتماعی را تهدید می‌کنند

نکته جنجالی در سخنان آلتمن، نقش شرکت OpenAI در این بحران است. او مدعی شد که OpenAI روی ابزارهای جعل هویت کار نمی‌کند، اما منتقدان به مدل تولید ویدیوی Sora اشاره دارند که توانایی ایجاد ویدیوهای فراواقعی را دارد و می‌تواند به‌راحتی برای تولید دیپ‌فیک‌های پیشرفته مورد سوءاستفاده قرار گیرد. این تناقض، انتقادهایی را علیه آلتمن و OpenAI برانگیخته، مبنی بر اینکه شرکتی که خود در خط مقدم توسعه این فناوری‌هاست، نمی‌تواند به‌طور کامل از مسئولیت پیامدهای آن شانه خالی کند.

آلتمن همچنین بر نیاز فوری به چارچوب‌های نظارتی مستقل و همکاری‌های بین‌المللی تأکید کرد. او معتقد است که جامعه جهانی هنوز ابزارهای حقوقی و اخلاقی لازم برای مقابله با این تهدیدات را ندارد. این دیدگاه با اظهارات قبلی او هم‌راستاست، جایی که در سال ۲۰۲۳ در جلسه‌ای با سنای ایالات متحده، خواستار تدوین قوانین جهانی برای مدیریت هوش مصنوعی شد. او همچنین در پادکست‌های اخیر، توسعه هوش مصنوعی را به پروژه منهتن (ساخت بمب اتم) تشبیه کرده و از نگرانی‌های خود درباره پیامدهای کنترل‌نشده این فناوری سخن گفته است.

اظهارات آلتمن در شبکه‌های اجتماعی نیز بازتاب گسترده‌ای داشته است. کاربران در پلتفرم X از نگرانی‌های مشابهی درباره کلاهبرداری‌های هوش مصنوعی سخن گفته‌اند، با برخی اشاره به اینکه سیاست‌های محدودکننده مانند فیلترهای ایدئولوژیک ممکن است دسترسی به فناوری‌های متن‌باز را محدود کند و در عین حال، خطرات کلاهبرداری را کاهش ندهد. این موضوع نشان‌دهنده نگرانی عمومی از سرعت پیشرفت هوش مصنوعی و عدم آمادگی زیرساخت‌های امنیتی برای مقابله با آن است.

با این حال، آلتمن در گذشته دیدگاه‌های متفاوتی نیز ارائه کرده است. او در برخی سخنرانی‌ها، هوش مصنوعی را فرصتی برای ایجاد مشاغل جدید و بهبود کیفیت زندگی توصیف کرده، اما همزمان هشدار داده که بدون نظارت مناسب، می‌تواند به تهدیدی جدی تبدیل شود. این دوگانگی در اظهارات او، هم‌زمان که نوآوری‌های OpenAI را ترویج می‌دهد، نشان‌دهنده آگاهی او از پیچیدگی‌های اخلاقی و اجتماعی این فناوری است.

در نهایت، هشدار آلتمن زنگ خطری برای مؤسسات مالی، قانون‌گذاران و جامعه جهانی است. با توجه به سرمایه‌گذاری‌های کلان OpenAI (مانند پروژه ۵۰۰ میلیارد دلاری Stargate با همکاری سافت‌بانک و اوراکل) و پیشرفت سریع مدل‌هایی مانند GPT-5، نیاز به ایجاد سیستم‌های احراز هویت مقاوم‌تر و مقررات سخت‌گیرانه‌تر بیش از پیش احساس می‌شود. بدون اقدام سریع، بحران کلاهبرداری مبتنی بر هوش مصنوعی می‌تواند به یک واقعیت روزمره تبدیل شود و اعتماد به سیستم‌های دیجیتال را به شدت تضعیف کند.

منبع

Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

قابلیت ChatGPT Pulse معرفی شد؛ روزتان را با پیشنهادهای ChatGPT شروع کنید

OpenAI قابلیت جدیدی به نام ChatGPT Pulse معرفی کرد که طبق فعالیت‌های…

1404-07-04

متا از فید جدید «Vibes» برای ویدیوهای هوش مصنوعی رونمایی کرد

متا از فید جدیدی به نام «Vibes» رونمایی کرده که در اپلیکیشن…

1404-07-04

ایجنت ‌ChatGPT حالا می‌تواند کپچاها را حل کند

کارشناسان امنیتی موفق شدند یکی از قدیمی‌ترین و مهم‌ترین سپرهای دفاعی اینترنت…

1404-07-04