اتحادیه اروپا شرکتهای هوش مصنوعی را ملزم به افشای دادههای آموزشی کرد
در چارچوب جدیدترین مقررات هوش مصنوعی در اتحادیه اروپا، شرکتهای فعال در این حوزه از جمله OpenAI، گوگل و مایکروسافت، موظف شدهاند تا دادههای آموزشی مدلهای زبانی بزرگ (LLM) خود را بهصورت شفاف افشا کنند. این اقدام، بخشی از تلاش گسترده اروپا برای تنظیم مقررات جامع و پیشرو در زمینه فناوری هوش مصنوعی است که بهعنوان اولین چارچوب قانونی جامع در این زمینه در جهان شناخته میشود.
طبق اعلام مقامات اروپایی، اجرای این دستورالعملها از ۲ آگوست ۲۰۲۵ (۱۱ مرداد ۱۴۰۴) آغاز میشود. مدلهای هوش مصنوعی جدید یک سال و مدلهای فعلی تا دو سال فرصت خواهند داشت تا خود را با این الزامات تطبیق دهند. این قوانین در سه حوزه اصلی شفافیت، رعایت حق نشر و تضمین ایمنی تدوین شدهاند و هدف اصلی آنها ایجاد تعادل بین نوآوری فناورانه و حفاظت از حقوق کاربران و تولیدکنندگان محتوا است.
شفافیت: افشای اطلاعات آموزشی مدلهای زبانی بزرگ
یکی از مهمترین بخشهای این دستورالعمل، شفافسازی کامل فرآیند آموزش مدلهاست. شرکتهای توسعهدهنده مدلهای زبانی باید اطلاعاتی از جمله:
منابع دادههای آموزشی
حجم دادههای استفادهشده
میزان مصرف انرژی
توان پردازشی مورد نیاز
را بهصورت عمومی اعلام کنند. این الزام، احتمالاً با مقاومت شدید شرکتهای بزرگ فناوری مواجه خواهد شد؛ چرا که بسیاری از آنها اطلاعات آموزش مدلهای خود را محرمانه تلقی میکنند.
رعایت حق نشر: احترام به محتوای دارای مالکیت معنوی
در بخش دوم، مقررات بهطور خاص به رعایت حق نشر (Copyright) پرداختهاند. بر اساس این قوانین، مدلهای هوش مصنوعی نباید از محتواهای دارای محدودیت دسترسی مانند سایتهای paywall یا دادههایی که خزیدن (Crawling) آنها ممنوع است، استفاده کنند.
این بخش از مقررات پیشاپیش باعث مناقشات حقوقی جدی شده است؛ برای مثال، برخی ناشران اروپایی از گوگل به دلیل استفاده از محتوای آنها در ابزارهای خلاصهسازی هوش مصنوعی شکایت کردهاند. همچنین، کشور دانمارک قانونی را پیشنهاد داده که به افراد اجازه میدهد مالکیت معنوی تصویر چهره خود را داشته باشند تا از تولید محتوای جعلی مانند دیپفیک جلوگیری شود.
دغدغههای ایمنی: مقابله با تهدیدهای نوظهور فناوری
بخش سوم مقررات، بر تأمین ایمنی کاربران و جامعه در برابر تهدیدات احتمالی هوش مصنوعی متمرکز شده است. تهدیداتی مانند:
- نظارت گسترده و نقض حریم خصوصی
- کلاهبرداری و انتشار اطلاعات جعلی
- تولید محتوای خطرناک یا خشونتآمیز
- استفاده در سیستمهای تسلیحاتی
در این چارچوب بهعنوان موارد حساس و نیازمند نظارت ویژه در نظر گرفته شدهاند.
براساس گزارش خبرگزاری بلومبرگ، نقض قوانین جدید میتواند برای شرکتها جریمههایی سنگین تا سقف ۷ درصد از درآمد سالانه در پی داشته باشد؛ جریمهای که بهوضوح میتواند بازدارندگی جدی برای تخلفات بالقوه ایجاد کند.
آیا آینده توسعه مدلهای هوش مصنوعی در خطر است؟
برخی از مدیران ارشد شرکتهای فناوری هشدار دادهاند که اجرای کامل این مقررات، بهویژه در زمینه کسب اجازه برای استفاده از تمام منابع دارای حق نشر، میتواند روند توسعه مدلهای زبانی را بهطور جدی مختل یا متوقف کند. از سوی دیگر، قانونگذاران اروپایی تأکید دارند که حفظ حقوق کاربران و تولیدکنندگان محتوا، باید اولویت اصلی توسعه هوش مصنوعی باشد.