هوش مصنوعی لاوندر و واتس‌اپ؛ ابزارهای نظامی علیه غیرنظامیان غزه

هوش مصنوعی لاوندر و واتس‌اپ؛ ابزارهای نظامی علیه غیرنظامیان غزه

هوش مصنوعی لاوندر و واتس‌اپ؛ ابزارهایی برای هدف‌گیری غیرنظامیان در غزه

چند هفته پیش، پائول بیگار، مهندس ایرلندی، فاش کرد که رژیم صهیونیستی با استفاده از سیستم هوش مصنوعی «لاوندر» و داده‌های استخراج‌شده از کاربران واتس‌اپ، اهداف بمباران در غزه را شناسایی می‌کند.

به گزارش خبرنگار اجتماعی خبرگزاری تسنیم، جنگ میان حماس و اسرائیل دیگر تنها به درگیری‌های فیزیکی محدود نمی‌شود. اکنون این جنگ وارد عرصه جدیدی شده است که در آن داده‌های کاربران پلتفرم‌های اجتماعی و هوش مصنوعی به ابزارهای نظامی برای هدف‌گیری غیرنظامیان تبدیل شده‌اند. در این میان، واتس‌اپ به عنوان یکی از محصولات شرکت متا در کانون اتهامات سنگینی قرار گرفته است که از همکاری با رژیم صهیونیستی در کشتار غیرنظامیان غزه و استفاده از داده‌های کاربران به عنوان ورودی سیستم‌های هوش مصنوعی پرده برداشته است.

واتس‌اپ و هوش مصنوعی در خدمت اهداف نظامی

پائول بیگار، مهندس ایرلندی، فاش کرد که رژیم صهیونیستی با کمک سیستم هوش مصنوعی «لاوندر» و داده‌های استخراج‌شده از کاربران واتس‌اپ، مکان‌های تجمع ساکنان غزه را شناسایی و به‌عنوان اهداف بالقوه بمباران معرفی می‌کند. این سیستم با تحلیل داده‌های شخصی کاربران و بررسی اطلاعات موجود در گروه‌های واتس‌اپ، مکان‌هایی را که احتمالاً محل حضور غیرنظامیان است، شناسایی می‌کند.

این افشاگری، ادعای متا مبنی بر «امنیت اطلاعات» و «رمزگذاری سرتاسری» در واتس‌اپ را زیر سوال برده است. در حالی که این پلتفرم بارها از حریم خصوصی کاربران دفاع کرده، اکنون متهم است که داده‌های کاربران فلسطینی را در اختیار رژیم صهیونیستی قرار داده تا با کمک هوش مصنوعی، کشتار غیرنظامیان در غزه را تسهیل کند.

هوش مصنوعی لاوندر و واتس‌اپ؛ ابزارهای نظامی علیه غیرنظامیان غزه

مطالب پیشنهادی:

  1. پروژه GREENBat: باتری‌هایی با دوام بالا برای خودروهای برقی
  2. سند معماری هوش مصنوعی به دستگاه‌های اجرایی ابلاغ شد
  3. کاهش دانلود اپلیکیشن‌ها و افزایش هزینه‌های مصرف‌کنندگان در سال 2024

بیگار در این خصوص گفت: «رژیم صهیونیستی از داده‌های کاربران فلسطینی به‌عنوان ورودی سیستم هوش مصنوعی لاوندر استفاده کرده است و بنابراین، متا، مالک واتس‌اپ، شریک کشتار غیرنظامیان است.» این ادعا به این معناست که متا در عمل به تعهدات خود در خصوص حقوق بشر پایبند نبوده است.

بیگار همچنین به روابط نزدیک سه مقام ارشد متا با اسرائیل اشاره کرد و افزود که گای روزن، مدیر ارشد امنیت اطلاعات متا، مارک زاکربرگ، مؤسس و مدیرعامل متا، و شِریل سندبرگ، مدیرعامل سابق و عضو فعلی هیئت مدیره متا، ارتباطات نزدیک با اسرائیل دارند.

الگوریتم‌ها علیه فلسطینیان: تصویرسازی مغرضانه در پلتفرم‌های اجتماعی

پس از عملیات طوفان الاقصی و حملات وحشیانه رژیم صهیونیستی به غزه، گزارش‌هایی منتشر شده که نشان می‌دهد تصویرسازی مبتنی بر هوش مصنوعی در واتس‌اپ نیز دارای سوگیری آشکاری علیه فلسطینیان است. بر اساس گزارش‌های تاییدشده توسط روزنامه گاردین، جست‌وجوی عباراتی مانند «فلسطینی» یا «پسر مسلمان فلسطینی» تصاویر افراد مسلح یا کودکانی با اسلحه به دست را نشان می‌دهد. در حالی که جست‌وجوی مشابه برای عباراتی مانند «پسر اسرائیلی» یا «نیروهای نظامی اسرائیل» تصاویری مثبت و بدون اسلحه را ارائه می‌دهد.

این رویکرد مغرضانه در حالی انجام می‌شود که سیاست‌های محتوایی متا همواره مورد انتقاد فعالان حقوق بشر و روزنامه‌نگاران بوده است. سانسور محتوای حامی فلسطین و نمایش تصاویر مغرضانه، به عنوان ابزاری برای تضعیف روایت‌های فلسطینی و تقویت تصویری مثبت از اسرائیل عمل می‌کند.

هوش مصنوعی لاوندر؛ ابزاری برای نسل‌کشی

سیستم هوش مصنوعی لاوندر، که به‌عنوان ابزار نظامی عمل می‌کند، براساس داده‌های جمع‌آوری‌شده از گروه‌ها و کاربران واتس‌اپ، مکان‌هایی با تراکم جمعیتی بالا را برای حملات هوایی و موشکی شناسایی می‌کند. گزارش‌ها نشان می‌دهند که این سیستم به‌طور خاص از داده‌های فلسطینیان برای افزایش دقت حملات علیه ساکنان غزه استفاده کرده است.

از آغاز حملات رژیم صهیونیستی در اکتبر 2023 تاکنون، بیش از 45 هزار فلسطینی کشته شده‌اند که بخش زیادی از این قربانیان را زنان و کودکان تشکیل می‌دهند. افشای ارتباط میان واتس‌اپ و سیستم هوش مصنوعی لاوندر نگرانی‌های جدی را در مورد نقش شرکت‌های فناوری در این کشتار به وجود آورده است.

نقض حریم خصوصی و همدستی در جنایت‌ها

استفاده از داده‌های واتس‌اپ برای اهداف نظامی، ماهیت خطرناک پلتفرم‌های اجتماعی در دوران جنگ را آشکار می‌کند. شرکتی که ادعای رمزگذاری سرتاسری و امنیت اطلاعات کاربران را دارد، اکنون به همدستی در نقض حقوق بشر و استفاده از اطلاعات برای تسهیل نسل‌کشی متهم شده است.

این موضوع نه‌تنها اعتبار متا را زیر سوال می‌برد، بلکه بر ضرورت وجود قوانین سخت‌گیرانه برای نظارت بر عملکرد پلتفرم‌های فناوری تأکید می‌کند. پلتفرم‌هایی مانند واتس‌اپ و سیستم‌های هوش مصنوعی به سلاح‌هایی پنهان در جنگ‌های مدرن تبدیل شده‌اند که نقشی کلیدی در تشدید بحران انسانی ایفا می‌کنند.

از این رو، ضروری است که نهادهای بین‌المللی با وضع قوانین و نظارت‌های جدی‌تر، پلتفرم‌های فناوری را به پاسخگویی وادار کنند تا از سوءاستفاده از داده‌های کاربران برای اهداف نظامی و نقض حقوق بشر جلوگیری شود. در غیر این صورت، دنیای دیجیتال به میدان جنگی خطرناک‌تر از گذشته تبدیل خواهد شد.

Picture of هاریکا

هاریکا

هاریکا، به‌عنوان مجله‌ای نوآوری و مدرن در دنیای تکنولوژی، فعالیت خود را با هدف ارائه دقیق‌ترین و به‌روزترین اخبار، تحلیل‌ها و بررسی‌های فناوری آغاز کرده است. ما باور داریم که تکنولوژی فراتر از یک ابزار است؛ این یک سبک زندگی است که هر روز، جنبه‌های مختلف زندگی ما را دگرگون می‌کند. هاریکا، از ترکیب شور و تخصص در دنیای دیجیتال متولد شده است. تیم ما شامل گروهی از نویسندگان، تحلیل‌گران و علاقه‌مندان به فناوری است که هدفشان ارائه محتوایی جذاب، قابل اعتماد و کاربرپسند به شماست.

مقالات مرتبط

گوگل سیاست‌های هوش مصنوعی را تغییر داد؛ حذف تنوع و انصاف از برنامه‌ها

گوگل تغییراتی در سیاست‌های هوش مصنوعی خود ایجاد کرد؛ حذف «تنوع» و…

مشاور املاک هوش مصنوعی؛ تحولی 100 میلیون دلاری در املاک

تحول صنعت املاک با هوش مصنوعی؛ شرکت پرتغالی با کمک مشاور املاک…

Manus معرفی شد؛ ایجنت هوش مصنوعی که رقیب DeepSeek شده است

Manus؛ ایجنت هوش مصنوعی جدیدی که کاربران را شگفت‌زده کرده است دنیای…

1403-12-19

دراگون کوپایلت؛ دستیار هوش مصنوعی مایکروسافت برای پزشکان

مایکروسافت از دراگون کوپایلت رونمایی کرد؛ دستیار هوش مصنوعی ویژه پزشکان مایکروسافت…

1403-12-14

الکامپ ۱۴۰۴؛ بزرگ‌ترین نمایشگاه فناوری ایران با محوریت هوش مصنوعی

الکامپ ۱۴۰۴ با تمرکز بر هوش مصنوعی برگزار می‌شود؛ آغاز پیش‌ثبت‌نام از…

جمینای با ویجت‌های جدید در iOS، تجربه هوش مصنوعی را متحول می‌کند

دسترسی آسان‌تر به جمینای در آیفون با ویجت‌های جدید؛ رقابت با سیری…

1403-12-14

دیدگاهتان را بنویسید