مختصات حکمرانی هوش مصنوعی در سال 2024
زاویه؛ جهان در سال ۲۰۲۳ با هوش مصنوعی مولد آشنا شد و ابزارهای مبتنی بر این فناوری نوظهور در بسیاری از ابعاد زیست بشر حضوری تحول آفرین یافتند. تحولات بدیع ناشی از رشد انفجاری این فناوری طی ماههای اخیر، پرسشی بنیادین را در میان متخصصان مطرح کرده است: «آیا دولتها در سال ۲۰۲۴ به صورت جدی به مسئله حکمرانی هوش مصنوعی میپردازند؟»
این پرسشی است که مجمع جهانی اقتصاد در یکی از قسمتهای پادکست خود با عنوان «رادیو داووس» (Radio Davos) طی گفتگو با کارشناسان این فناوری، مطرح ساخته است. نوشتار پیشرو به بررسی اهم محورها و مباحث مطرح شده در این گفتگوی صوتی، خواهد پرداخت. حاضران در این برنامه، عبارتاند از:
-
الکساندرا ریو گیونز، مدیر مرکز دموکراسی و فناوری (Center for Democracy & Technology)
-
آیدان گومز، بنیانگذار و مدیرعامل شرکت هوش مصنوعی «Cohere»
-
آنا ماکانجو، معاون امور جهانی شرکت هوش مصنوعی «OpenAI»
انگیزه برای حکمرانی هوش مصنوعی
شاخص هوش مصنوعی دانشگاه استنفورد نشان میدهد که علاقه سیاستگذاران به این فناوری در حال افزایش است. بر اساس دادههای آماری، تعداد لوایح مرتبط با هوش مصنوعی در ۱۲۷ کشور جهان از ۱ مورد در سال ۲۰۱۶ به ۳۷ مورد در سال ۲۰۲۲ رسیده و به طور خاص اتحادیه اروپا قانون هوش مصنوعی خود را تصویب کرده است؛ قانونی که نخستین قانون جامع فناوری مذکور به شمار میرود.
آیدان گومز طی اظهارات خود در این نشست کوتاه اعلام کرد که موافق لزوم حکمرانی است؛ اما راه و مسیر رسیدن به آن را بسیار مهم و حیاتی میداند. وی در این خصوص گفت: «تنظیمگری یک فناوری افقی مانند زبان بسیار دشوار است؛ زبان بر تک تک عمودها (صنایع منفرد) تأثیر میگذارد؛ زیرا هر جا که بیش از یک نفر حضور داشته باشد، پدیده زبان نیز جریان دارد.»
گومز همچنین معتقد است که فرایند تنظیمگری باید در لایه عمودی طی و به سیاستگذاران و تنظیمگران کمک شود، تا قدرت هوش مصنوعی مولد و تأثیر آن در حوزه تخصصی خود را محقق کنند. آنها با این اقدام میتوانند، خطرات موجود در حوزه تخصصی خود را کاهش دهند.
به زعم بسیاری از کارشناسان تنظیمگری جهانی نیازمند اجماع و هماهنگی بینالمللی است؛ به نحوی که به جای سرکوب نوآوری به ویژه در شرکتهای کوچک به توانمندشدن آنها در توسعه فناوری کمک شود. در چنین شرایطی اولویت اصلی تنظیمگران برای مواجهه با فناوری عظیم و قدرتمند هوش مصنوعی باید برخورداری از ایدهها و نسل جدیدی از متفکران باشد که سازوکارها را بسازند و در زمینه استقرار آنها مشارکت کنند.
انتقال تنظیمگری به مرحله اقدام
دادهها و گزارشهای منتشر شده در طول سال گذشته، حکایت از آن دارد که با پیشرفت هوش مصنوعی، احتمال سوءاستفاده از این فناوری نیز افزایش مییابد. به عنوان مثال، در سال ۲۰۲۴، بیش از ۲ میلیارد نفر در سراسر جهان به پای صندوقهای رأی میروند و در انتخابات سیاسی کشور خود شرکت میکنند. بیشک در چنین شرایطی تمرکز باید بر خطراتی مانند اطلاعات نادرست و دیپفیک معطوف بوده و افزایش یابد.
بسیاری از شرکتهای بزرگ و شاخص فعال در حوزه هوش مصنوعی، به توافقنامهای مبنی بر مبارزه با استفاده فریبنده از هوش مصنوعی در انتخاباتهای ۲۰۲۴ پیوستهاند. این توافق جهانی شامل مجموعهای از تعهدات برای مبارزه با انتشار تصاویر، ویدیوها و صداهای جعلی نامزدهای سیاسی است.
به گفته الکساندرا ریو گیونز برخورد با دیپفیکها تنها یکی از مجموعه اقدامات فوری و ضروری است. وی معتقد است که در بلند مدت، اهمیت توجه به نقش نابرابری اقتصادی در بقای دموکراسی افزایش خواهد یافت.
مدیر مرکز دموکراسی و فناوری در ادامه افزود: «در حوزه هوش مصنوعی، موضوع صرفاً به تحولات ناشی از توسعه این فناوری در بخش اشتغال محدود نمیشود. مدلها قادر هستند که درباره اعتبار افراد جهت دریافت وام بانکی تصمیمگیری کنند یا از انسانها مصاحبه شغلی بگیرند.»
وی باور دارد که هوش مصنوعی به شیوههای گوناگون در همه این سیستمها نفوذ میکند و قاعدتاً شناسایی و تنظیمگری این بخشها، توجه یکسان سیاستگذاران و شرکتهای فناوری را میطلبد.
گیونز در ادامه گفت: «شرکتها، دولتها و جامعه مدنی در حال حاضر درگیر بحث درباره نحوه برخورد با چنین مسائلی هستند و 2024 سالی است که آنها باید وارد عمل شوند. ما باید از بحثهای پیچیده عبور کنیم و به واقعیت نزدیک شویم. یکی از معضلات بزرگ سال 2023، عدم قطعیت تنظیمگران برای تمرکز بر مخاطرات بلندمدت و کوتاهمدت این حوزه بود. به نظر من اکنون به مدل بلوغ رسیدهایم و مردم متوجه شدهاند که میتوانیم و باید هر دو این اقدامات را همزمان با هم انجام دهیم.»
ایجاد گفتمان مشترک
آنا ماکانجو، معاون امور جهانی شرکت هوش مصنوعی «OpenAI»، مهمان دیگر حاضر در این پادکست بود که به ارائه دیدگاههای خود درباره حکمرانی هوش مصنوعی پرداخت. وی در سخنان خود اعلام کرد که به خطر فاجعهبار هوش مصنوعی و نقش مؤثر خودتنظیمگری در شرکتها باور دارد.
وی در ادامه از تیم قرمز (Red Team) به عنوان مصداقی رایج از خودتنظیمگری کارآمد در این صنعت یاد کرد و افزود این فرآیندی است که در توسعه نرمافزار و امنیت سایبری برای تجزیه و تحلیل خطرات و ارزیابی قابلیتهای مضر سیستمهای جدید مورد استفاده قرار میگیرد.
وی به عنوان نماینده شرکت «OpenAI» گفت: «این کاری است که ما با مدلهای خود انجام دادهایم تا مطمئن شویم که میتوانیم خطرات فوری، چگونگی سوءاستفاده از آنها و نحوه مدیریت تهدیدات را دریابیم.»
علاوه بر مسئله ارزیابی امنیتی مداوم، شرکتهای «انتروپیک»، «گوگل»، «مایکروسافت» و «OpenAI»، به عنوان چهار شرکت بزرگ جهان در حوزه هوش مصنوعی، جهت همرسانی بینش و تخصص خود در زمینه ایمنی، تشکلی موسوم به «Frontier Model Forum» تشکیل دادهاند. شرکتها از طریق این انجمن متعهد شدهاند که تحقیقات بخش ایمنی هوش مصنوعی را پیش برده و همکاریهای چندجانبهای برای اطمینان از توسعه مسئولانه این فناوری ایجاد کنند.
ماکانجو در ادامه افزود: «مسئله شناسایی مجموعهای از شیوههای مشترک است. در نهایت، شرکتهایی که این مدلها را میسازند، بیشتر از سایرین درباره آنها میدانند. آنها دقیقترین درک را از ابعاد مختلف دارند. من فکر نمیکنم کسی به خودتنظیمگری شرکتها اعتماد داشته باشد؛ اما معتقدم که لازم است این گفتمان در راستای حصول تنظیمگری قدرتمند شکل بگیرد.»