«وایب هکینگ»؛ گزارش آنتروپیک درباره تهدید نوظهور عامل‌های هوش مصنوعی

«وایب هکینگ»؛ گزارش آنتروپیک درباره تهدید نوظهور عامل‌های هوش مصنوعی

گزارش جدید شرکت آنتروپیک پدیده‌ای به نام «وایب هکینگ» را به‌عنوان یک تهدید جدی در حوزه هوش مصنوعی معرفی کرده است. این روش، مشابه وایب کدن، با توصیف درخواست‌ها کاربران را به اهدافشان می‌رساند.

گزارش Threat Intelligence این شرکت جزئیات جامعی از سوءاستفاده مجرمان سایبری از ایجنت هوش مصنوعی کلود و دیگر سیستم‌های مشابه ارائه می‌دهد. طبق این گزارش، سیستم‌های هوش مصنوعی عامل‌محور اکنون به ابزاری برای انجام حملات سایبری پیچیده تبدیل شده‌اند.

بر اساس گزارش، یک گروه جرایم سایبری در مدت یک ماه با استفاده از Claude Code داده‌های حساس 17 سازمان در بخش‌های درمانی، خدمات اضطراری، نهادهای مذهبی و دولتی را سرقت کرده و از آنها باج‌خواهی کرده است. نکته قابل‌توجه این است که چنین عملیاتی پیش‌تر به تیمی از متخصصان نیاز داشت، اما حالا یک نفر با کمک سیستم‌های عامل‌محور می‌تواند به‌تنهایی آن را اجرا کند.

کلود در این مورد حتی نقش اپراتور را بر عهده داشته و با استفاده از تکنیک‌های روان‌شناختی، درخواست‌های باج‌خواهی هدفمندی تولید کرده است. مجرمان ارزش داده‌های سرقتی، شامل اطلاعات درمانی، مالی و دولتی، را در دارک وب ارزیابی کرده و مبالغی بیش از 500 هزار دلار مطالبه کرده‌اند.

Vibe-hacking؛ تهدید نوظهور در حوزه هوش مصنوعی

در نمونه دیگری، کلود به مأموران فناوری اطلاعات کره شمالی کمک کرده تا با هویت‌های جعلی در شرکت‌های برتر آمریکایی (Fortune 500) استخدام شوند و درآمد حاصل را برای برنامه‌های تسلیحاتی استفاده کنند. جیکوب کلاین، مدیر تیم تهدیدات آنتروپیک، توضیح می‌دهد که بسیاری از این افراد فاقد دانش برنامه‌نویسی یا تسلط کافی به زبان انگلیسی بودند و کلود عملاً وظایف آنها را انجام داده است.

مورد دیگر به یک کلاهبرداری عاشقانه مربوط می‌شود. رباتی در تلگرام با بیش از 10 هزار کاربر ماهانه، کلود را به‌عنوان مدلی با هوش هیجانی بالا معرفی کرده و از آن برای تولید پیام‌های احساسی و فریبنده برای قربانیان در آمریکا، ژاپن و کره جنوبی استفاده کرده است. در یک نمونه، کاربری تصویر مردی با کروات را بارگذاری کرده و از کلود خواسته بهترین روش برای تعریف از او را پیشنهاد دهد.

آنتروپیک اذعان دارد که با وجود توسعه سیستم‌های امنیتی پیشرفته، مجرمان همچنان راه‌هایی برای دور زدن این محدودیت‌ها پیدا می‌کنند. این فناوری موانع ورود به جرایم سایبری را کاهش داده و به مجرمان امکان داده تا پروفایل قربانیان را تهیه کنند، داده‌ها را سرقت و تحلیل کنند، هویت‌های جعلی ایجاد کنند و حتی اطلاعات کارت اعتباری را بدزدند.

گزارش تأکید می‌کند که اگرچه این موارد به کلود مربوط است، اما الگوهای مشابهی در دیگر مدل‌های پیشرفته هوش مصنوعی نیز دیده می‌شود. آنتروپیک حساب‌های مرتبط را مسدود کرده، ابزارهای جدیدی برای شناسایی حملات توسعه داده و اطلاعات را با نهادهای دولتی و امنیتی به اشتراک گذاشته است. کلاین می‌گوید ریسک‌های هوش مصنوعی در حال تحول است، زیرا این سیستم‌ها دیگر صرفاً چت‌بات نیستند، بلکه قادر به اجرای اقدامات چندمرحله‌ای و عملیاتی هستند.

Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

قابلیت ChatGPT Pulse معرفی شد؛ روزتان را با پیشنهادهای ChatGPT شروع کنید

OpenAI قابلیت جدیدی به نام ChatGPT Pulse معرفی کرد که طبق فعالیت‌های…

1404-07-04

متا از فید جدید «Vibes» برای ویدیوهای هوش مصنوعی رونمایی کرد

متا از فید جدیدی به نام «Vibes» رونمایی کرده که در اپلیکیشن…

1404-07-04

ایجنت ‌ChatGPT حالا می‌تواند کپچاها را حل کند

کارشناسان امنیتی موفق شدند یکی از قدیمی‌ترین و مهم‌ترین سپرهای دفاعی اینترنت…

1404-07-04