زاویه؛ اتحادیه اروپا به توافق تاریخی در مورد مقررات پیشنهادی برای سیستم‌های هوش مصنوعی دست یافته است. هدف اصلی این است که اطمینان حاصل شود هوش مصنوعی توسعه‌یافته در بازار اتحادیه اروپا از حقوق اساسی شهروندان حمایت می‌کند و برای‌ آن‌ها ایمن است. با این چارچوب قانونی، اتحادیه اروپا در نظر دارد الگویی جهانی برای نظارت بر هوش مصنوعی تعیین کند، مشابه نقشی که در ایجاد استانداردهای حریم خصوصی داده‌ها به‌وسیله قانون GDPR ایفا کرد. به گفته کارمه آرتگاس[1]، معاون وزیر دیجیتالی سازی و هوش مصنوعی اسپانیا، این توافق تاریخی تعادلی تاریخی را بین حمایت از نوآوری و حفاظت از عموم مردم برقرار می‌کند. محوریت اصلی و مبنایی این قانونرویکرد مبتنی بر ریسک است که الزامات سخت‌گیرانه‌تری را برای برنامه‌‌های کاربردی هوش مصنوعی با پتانسیل بیشتر برای ایجاد آسیب اعمال می‌کند.

سیستم‌‌‌‌هایی که در حوزه‌‌های پرخطر مانند مراقبت‌‌های بهداشتی و خدمات عمومی استفاده می‌شوند، با فرآیندهای ارزیابی دقیق مواجه خواهند شد؛ از جمله حسابرسی سیستماتیک ریسک، آزمایش آسیب‌پذیری خصمانه، گزارش اجباری حوادث، انطباق با استانداردهای امنیت سایبری و ارزیابی‌‌های بهره‌وری انرژی. یکی از نکات مهم این است که شهروندان همچنان حق شکایت و دریافت توضیح در مورد خروجی‌های سیستم‌های هوش مصنوعی که بر آزادی‌های اساسی‌ آن‌ها تأثیر می‌گذارد را حفظ می‌کنند. همچنین عوامل هوش مصنوعی عمومی مانند ChatGPT نیازمند به کارگیری و ارائه اسناد فنی شفاف، تأیید رعایت حقوق مالکیت فکری و اطلاعات دقیق در مورد منابع داده‌های آموزشی خود خواهند بود. مجازات‌های عدم رعایت این مقررات از جریمه‌های سنگین تا درصدهایی از درآمد جهانی شرکت‌ها بسته به‌شدت تخلف و ویژگی‌های شرکت متخلف متغیر خواهد بود. این توافق موقت نشان می‌دهد که تنظیم‌کننده‌ها به‌طور پیشگیرانه در حال مقابله با تهدیدهای نوظهور هوش مصنوعی هستند.

بااین‌حال، این چارچوب مفهومی باید قبل از تصویب رسمی، مراحل گسترده‌ای از توسعه و بازنگری توسط کشورهای عضو را طی کند. در غیاب رعایت داوطلبانه توسط شرکت‌ها، امکان ادامه توسعه بدون محدودیت هوش مصنوعی وجود دارد؛ البته همچنان این سؤال نیز باقی می‌ماند که آیا این مقررات می‌توانند در برابر آسیب‌های پیش‌بینی‌نشده ناشی از فناوری‌های متحول‌کننده، به‌طور کافی آینده‌نگر باشند یا خیر.

از سوی دیگر، باید توجه داشت که این مقررات محدودیت‌هایی نیز دارند و تمرکز‌ آن‌ها بر حوزه‌هایی است که خطرات شناخته شده‌ای در آن وجود دارد و به تجربه مورد شناسایی قرار گرفته است، شبیه گشتن به دنبال کلید گم‌شده تنها زیر نزدیک‌ترین چراغ‌برق، اما پیشرفت‌های ناگهانی و غیرقابل پیش‌بینی در هوش مصنوعی ممکن است خطرات وجودی را در بخش‌های غیرمنتظره ایجاد کند. بر همین اساس، برای اطمینان از ایمنی و مسئولیت‌پذیری در دنیای هوش مصنوعی در حال تحول، رویکردی منعطف و قابل انطباق ضروری است.

 


[1] Carme Artigas