مقررات هوش مصنوعی اروپا
زاویه؛ اتحادیه اروپا به توافق تاریخی در مورد مقررات پیشنهادی برای سیستمهای هوش مصنوعی دست یافته است. هدف اصلی این است که اطمینان حاصل شود هوش مصنوعی توسعهیافته در بازار اتحادیه اروپا از حقوق اساسی شهروندان حمایت میکند و برای آنها ایمن است. با این چارچوب قانونی، اتحادیه اروپا در نظر دارد الگویی جهانی برای نظارت بر هوش مصنوعی تعیین کند، مشابه نقشی که در ایجاد استانداردهای حریم خصوصی دادهها بهوسیله قانون GDPR ایفا کرد. به گفته کارمه آرتگاس[1]، معاون وزیر دیجیتالی سازی و هوش مصنوعی اسپانیا، این توافق تاریخی تعادلی تاریخی را بین حمایت از نوآوری و حفاظت از عموم مردم برقرار میکند. محوریت اصلی و مبنایی این قانونرویکرد مبتنی بر ریسک است که الزامات سختگیرانهتری را برای برنامههای کاربردی هوش مصنوعی با پتانسیل بیشتر برای ایجاد آسیب اعمال میکند.
سیستمهایی که در حوزههای پرخطر مانند مراقبتهای بهداشتی و خدمات عمومی استفاده میشوند، با فرآیندهای ارزیابی دقیق مواجه خواهند شد؛ از جمله حسابرسی سیستماتیک ریسک، آزمایش آسیبپذیری خصمانه، گزارش اجباری حوادث، انطباق با استانداردهای امنیت سایبری و ارزیابیهای بهرهوری انرژی. یکی از نکات مهم این است که شهروندان همچنان حق شکایت و دریافت توضیح در مورد خروجیهای سیستمهای هوش مصنوعی که بر آزادیهای اساسی آنها تأثیر میگذارد را حفظ میکنند. همچنین عوامل هوش مصنوعی عمومی مانند ChatGPT نیازمند به کارگیری و ارائه اسناد فنی شفاف، تأیید رعایت حقوق مالکیت فکری و اطلاعات دقیق در مورد منابع دادههای آموزشی خود خواهند بود. مجازاتهای عدم رعایت این مقررات از جریمههای سنگین تا درصدهایی از درآمد جهانی شرکتها بسته بهشدت تخلف و ویژگیهای شرکت متخلف متغیر خواهد بود. این توافق موقت نشان میدهد که تنظیمکنندهها بهطور پیشگیرانه در حال مقابله با تهدیدهای نوظهور هوش مصنوعی هستند.
بااینحال، این چارچوب مفهومی باید قبل از تصویب رسمی، مراحل گستردهای از توسعه و بازنگری توسط کشورهای عضو را طی کند. در غیاب رعایت داوطلبانه توسط شرکتها، امکان ادامه توسعه بدون محدودیت هوش مصنوعی وجود دارد؛ البته همچنان این سؤال نیز باقی میماند که آیا این مقررات میتوانند در برابر آسیبهای پیشبینینشده ناشی از فناوریهای متحولکننده، بهطور کافی آیندهنگر باشند یا خیر.
از سوی دیگر، باید توجه داشت که این مقررات محدودیتهایی نیز دارند و تمرکز آنها بر حوزههایی است که خطرات شناخته شدهای در آن وجود دارد و به تجربه مورد شناسایی قرار گرفته است، شبیه گشتن به دنبال کلید گمشده تنها زیر نزدیکترین چراغبرق، اما پیشرفتهای ناگهانی و غیرقابل پیشبینی در هوش مصنوعی ممکن است خطرات وجودی را در بخشهای غیرمنتظره ایجاد کند. بر همین اساس، برای اطمینان از ایمنی و مسئولیتپذیری در دنیای هوش مصنوعی در حال تحول، رویکردی منعطف و قابل انطباق ضروری است.
[1] Carme Artigas