مدل جدید دیپ‌سیک معرفی شد؛ کاهش نیمی از هزینه‌ها با معماری جدید

مدل جدید دیپ‌سیک معرفی شد؛ کاهش نیمی از هزینه‌ها با معماری جدید

استارتاپ چینی دیپ‌سیک از یک مدل هوش مصنوعی آزمایشی جدید به نام DeepSeek-V3.2-Exp رونمایی کرده است که با یک معماری جدید به نام «توجه پراکنده» وعده می‌دهد هزینه استفاده از هوش مصنوعی برای تحلیل متون طولانی را تا نصف کاهش دهد. این پیشرفت می‌تواند دسترسی به مدل‌های هوش مصنوعی قدرتمند را برای شرکت‌های کوچک‌تر ممکن کند.

مدل‌های هوش مصنوعی امروزی برای درک یک متن، باید به تمام کلمات و جملات آن «توجه» کنند. این فرایند، به خصوص در متون بسیار طولانی، به قدرت محاسباتی و هزینه سرور بسیار زیادی نیاز دارد. اما رویکرد جدید DeepSeek که «توجه پراکنده» (DSA) نام دارد، این معادله را تغییر می‌دهد.

این سیستم به جای پردازش تمام اطلاعات، به صورت هوشمند و گزیده عمل می‌کند. تصور کنید یک شرکت هواپیمایی می‌خواهد بهترین مسیر را پیدا کند؛ پس به‌جای بررسی تمام مسیرهای ممکن در جهان، فقط گزینه‌های منطقی را فیلتر می‌کند. «توجه پراکنده» نیز دقیقاً همین کار را با داده‌ها انجام می‌دهد. این سیستم ابتدا با یک ماژول هوشمند، مهم‌ترین بخش‌های متن را شناسایی و سپس فقط کلمات (یا توکن‌های) مهم را برای تحلیل نهایی انتخاب می‌کند. این فرایند بار محاسباتی را به شدت کاهش می‌دهد و به گفته دیپ‌سیک، می‌تواند هزینه استفاده از API را در سناریوهای دارای متن طولانی تا ۵۰ درصد کاهش دهد.

معماری جدید دیپ‌سیک برای کاهش هزینه‌ها

به گزارش CNBC، این پیشرفت یک خبر عالی برای کل اکوسیستم فناوری است. کاهش چشمگیر هزینه‌ها به این معناست که توسعه‌دهندگان، محققان و شرکت‌های کوچک‌تر که توانایی پرداخت هزینه‌های زیاد سرور را ندارند، اکنون می‌توانند از مدل‌های قدرتمند هوش مصنوعی برای ساخت اپلیکیشن‌های خود استفاده کنند. این اتفاق می‌تواند به موج جدیدی از خلاقیت و رقابت در بازار منجر شود.

معماری جدید هوش مصنوعی دیپ‌سیک

با وجود تمام مزایا، این رویکرد یک نگرانی اساسی نیز دارد: اطمینان‌پذیری. سؤال اصلی این است که هوش مصنوعی چگونه تصمیم می‌گیرد که کدام داده‌ها مهم و کدام غیرمهم هستند؟

«اکاترینا آلماسک» (Ekaterina Almasque)، یکی از سرمایه‌گذاران برجسته در حوزه هوش مصنوعی، می‌گوید: «واقعیت این است که این مدل‌ها بسیاری از ظرافت‌ها را از دست می‌دهند. سؤال واقعی این است که آیا آ‌نها مکانیسم درستی برای حذف داده‌های غیرمهم دارند؟»

این موضوع به‌ویژه از نظر ایمنی و فراگیری هوش مصنوعی می‌تواند مشکل‌ساز باشد. اگر یک مدل به‌طور سیستماتیک داده‌های مربوط به یک گروه خاص یا یک دیدگاه خاص را «غیرمهم» تشخیص دهد، خروجی آن می‌تواند به شدت مغرضانه، غیرقابل اعتماد و حتی خطرناک باشد.

برچسب ها :
Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

چت‌جی‌پی‌تی و رؤیای سوپر اپ غربی

«ایوب ویسمرادی»، کارشناس مدیریت محصول، در یادداشتی برای هاریکا، احتمال تحقق رویای…

1404-07-09

جستجوی تصویر با AI Mode گوگل حالا درک بهتری از پرامپت‌های طبیعی دارد

به لطف به‌روزرسانی جدید AI Mode گوگل، جستجو در میان تصاویر، حتی…

1404-07-09

OpenAI اپلیکیشن اجتماعی Sora را برپایه مدل Sora 2 معرفی کرد

OpenAI امشب علاوه‌بر معرفی مدل هوش مصنوعی ویدیوساز جدید خود که Sora…

1404-07-09