تغییرات سیاست هوش مصنوعی گوگل؛ پایان محدودیتهای گذشته
گوگل اخیراً تغییرات عمدهای در سیاستهای مرتبط با استفاده از هوش مصنوعی خود اعمال کرده است. این شرکت بهطور رسمی بندهایی را که به عدم استفاده از هوش مصنوعی در تسلیحات و فناوریهای نظارتی اشاره داشتند، از وبسایت خود حذف کرده است.
تغییر رویکرد گوگل در هوش مصنوعی
بر اساس گزارشهایی که ابتدا توسط واشنگتن پست و بلومبرگ منتشر شد، این تغییر نشان میدهد که گوگل در حال اتخاذ مسیر جدیدی در توسعه و کاربرد هوش مصنوعی است. این اقدام میتواند به معنای گسترش همکاریهای این شرکت با نهادهای نظامی و امنیتی باشد.
سیاستهای جدید هوش مصنوعی گوگل چیست؟
در نسخه بهروزرسانیشده سیاستهای هوش مصنوعی، دیگر خبری از تعهد صریح گوگل به عدم توسعه هوش مصنوعی برای تسلیحات یا نظارت نیست. در عوض، این شرکت بر توسعه و استقرار مسئولانه هوش مصنوعی تأکید دارد. در سند جدید، گوگل اعلام کرده است که از نظارت انسانی، ارزیابیهای دقیق و سازوکارهای بازخوردی برای همسوسازی فناوریهای خود با نیازهای کاربران و اصول بینالمللی حقوق بشر استفاده خواهد کرد.
در نسخه قبلی این سیاستها، گوگل بهطور واضح تأکید کرده بود که ابزارهای هوش مصنوعی را برای استفاده در سلاحها یا فناوریهایی که بهطور مستقیم به انسان آسیب میزنند، توسعه نمیدهد. همچنین، این شرکت اعلام کرده بود که از مشارکت در فناوریهای نظارتی که مغایر با استانداردهای بینالمللی باشد، خودداری میکند. حذف این تعهدات، تغییر مهمی در رویکرد گوگل به شمار میرود.
مطالب پیشنهادی:
موضع گوگل درباره این تغییرات
در پستی که توسط دمیس هسابیس، مدیرعامل دیپمایند، و جیمز مانیکا، معاون ارشد تحقیقات و فناوری گوگل، منتشر شد، این شرکت اعلام کرد که گسترش هوش مصنوعی بهعنوان یک فناوری با کاربرد عمومی، نیاز به بازنگری در سیاستهای پیشین را ضروری ساخته است.
مدیران گوگل در این بیانیه تأکید کردند که کشورها و شرکتهایی که دارای ارزشهای مشترک هستند، باید در راستای توسعه هوش مصنوعیای همکاری کنند که علاوه بر حفظ امنیت ملی، از کاربران محافظت کرده و موجب رشد جهانی شود.
همکاریهای پیشین گوگل با نهادهای نظامی
این تغییر سیاست در حالی رخ میدهد که گوگل در سال 2018، پس از اعتراضات گسترده کارکنانش، از پروژه ماون (Project Maven) خارج شد. این پروژه مربوط به توسعه نرمافزار هوش مصنوعی برای وزارت دفاع ایالات متحده بود که به تحلیل ویدئوهای پهپادهای نظامی کمک میکرد. در آن زمان، دهها کارمند گوگل در اعتراض به این همکاری استعفا دادند و هزاران نفر دیگر در یک طومار اعتراضی شرکت کردند.
با این حال، در سال 2021، گوگل بار دیگر به دنبال قراردادهای نظامی رفت و در پروژه JWCC که به پردازش ابری وزارت دفاع ایالات متحده مربوط میشد، پیشنهاد همکاری ارائه کرد.
آینده هوش مصنوعی در گوگل: تغییرات مثبت یا چالشی اخلاقی؟
حذف محدودیتهای قبلی گوگل درباره عدم استفاده از هوش مصنوعی در تسلیحات و فناوریهای نظارتی میتواند نشاندهنده یک تغییر اساسی در رویکرد این شرکت باشد.
احتمال دارد که این تغییرات تحت تأثیر فشارهای رقابتی، نیاز به همکاریهای دولتی و نظامی، و نقش روزافزون هوش مصنوعی در امنیت جهانی صورت گرفته باشد.
اما پرسش مهمی که باقی میماند این است که آیا این تصمیم باعث تضعیف ارزشهای اخلاقی در توسعه هوش مصنوعی خواهد شد یا گوگل همچنان میتواند به تعهدات خود در زمینه حقوق بشر پایبند بماند؟
منبع: Google AI Ethics
سوالات متداول (FAQ):
- چرا گوگل سیاستهای هوش مصنوعی خود را تغییر داده است؟
گوگل اعلام کرده که به دلیل گسترش نقش هوش مصنوعی، نیاز به رویکردی جدید دارد که بر توسعه مسئولانه تمرکز کند. - آیا گوگل از این پس در پروژههای نظامی همکاری خواهد کرد؟
هنوز بهطور رسمی تأیید نشده، اما حذف محدودیتهای قبلی میتواند نشاندهنده تمایل این شرکت به همکاریهای دولتی و امنیتی باشد. - چه تفاوتی بین سیاستهای جدید و قبلی هوش مصنوعی گوگل وجود دارد؟
در نسخه قبلی، گوگل اعلام کرده بود که هوش مصنوعی را برای تسلیحات و فناوریهای نظارتی توسعه نمیدهد، اما اکنون این تعهدات حذف شده است. - آیا این تغییرات ممکن است بر ارزشهای اخلاقی توسعه هوش مصنوعی تأثیر بگذارد؟
برخی کارشناسان معتقدند که حذف این محدودیتها میتواند باعث کاهش شفافیت و افزایش نگرانیهای اخلاقی در استفاده از AI شود. - واکنش جامعه فناوری به تغییر سیاستهای گوگل چیست؟
این تغییرات با واکنشهای متفاوتی روبهرو شده است. برخی آن را یک ضرورت در دنیای رقابتی میدانند، در حالی که دیگران نگران پیامدهای آن هستند.