زاویه؛ جهان در سال ۲۰۲۳ با هوش مصنوعی مولد آشنا شد و ابزارهای مبتنی بر این فناوری نوظهور در بسیاری از ابعاد زیست بشر حضوری تحول آفرین یافتند. تحولات بدیع ناشی از رشد انفجاری این فناوری طی ماه‌های اخیر، پرسشی بنیادین را در میان متخصصان مطرح کرده است: «آیا دولت‌ها در سال ۲۰۲۴ به صورت جدی به مسئله حکمرانی هوش مصنوعی می‌پردازند؟»

این پرسشی است که مجمع جهانی اقتصاد در یکی از قسمت‌های پادکست خود با عنوان «رادیو داووس» (Radio Davos) طی گفتگو با کارشناسان این فناوری، مطرح ساخته است. نوشتار پیش‌رو به بررسی اهم محورها و مباحث مطرح شده در این گفتگوی صوتی، خواهد پرداخت. حاضران در این برنامه، عبارت‌اند از:

  • الکساندرا ریو گیونز، مدیر مرکز دموکراسی و فناوری (Center for Democracy & Technology)

  • آیدان گومز، بنیان‌گذار و مدیرعامل شرکت هوش مصنوعی «Cohere»

  • آنا ماکانجو، معاون امور جهانی شرکت هوش مصنوعی «OpenAI»

انگیزه برای حکمرانی هوش مصنوعی

شاخص هوش مصنوعی دانشگاه استنفورد نشان می‌دهد که علاقه سیاست‌گذاران به این فناوری در حال افزایش است. بر اساس داده‌های آماری، تعداد لوایح مرتبط با هوش مصنوعی در ۱۲۷ کشور جهان از ۱ مورد در سال ۲۰۱۶ به ۳۷ مورد در سال ۲۰۲۲ رسیده و به طور خاص اتحادیه اروپا قانون هوش مصنوعی خود را تصویب کرده است؛ قانونی که نخستین قانون جامع فناوری مذکور به شمار می‌رود.

آیدان گومز طی اظهارات خود در این نشست کوتاه اعلام کرد که موافق لزوم حکمرانی است؛ اما راه و مسیر رسیدن به آن را بسیار مهم و حیاتی می‌داند. وی در این خصوص گفت: «تنظیم‌گری یک فناوری افقی مانند زبان بسیار دشوار است؛ زبان بر تک تک عمودها (صنایع منفرد) تأثیر می‌گذارد؛ زیرا هر جا که بیش از یک نفر حضور داشته باشد، پدیده زبان نیز جریان دارد.»

گومز همچنین معتقد است که فرایند تنظیم‌گری باید در لایه‌ عمودی طی و به سیاست‌گذاران و تنظیم‌گران کمک شود، تا قدرت هوش مصنوعی مولد و تأثیر آن در حوزه تخصصی خود را محقق کنند. آن‌ها با این اقدام می‌توانند، خطرات موجود در حوزه تخصصی خود را کاهش دهند.

به زعم بسیاری از کارشناسان تنظیم‌گری جهانی نیازمند اجماع و هماهنگی بین‌المللی است؛ به نحوی که به جای سرکوب نوآوری به ویژه در شرکت‌های کوچک به توانمندشدن آن‌ها در توسعه فناوری کمک شود. در چنین شرایطی اولویت اصلی تنظیم‌گران برای مواجهه با فناوری عظیم و قدرتمند هوش مصنوعی باید برخورداری از ایده‌ها و نسل جدیدی از متفکران باشد که سازوکارها را بسازند و در زمینه استقرار آن‌ها مشارکت کنند.

انتقال تنظیم‌گری به مرحله اقدام

داده‌ها و گزارش‌های منتشر شده در طول سال گذشته، حکایت از آن دارد که با پیشرفت هوش مصنوعی، احتمال سوءاستفاده از این فناوری نیز افزایش می‌یابد. به عنوان مثال، در سال ۲۰۲۴، بیش از ۲ میلیارد نفر در سراسر جهان به پای صندوق‌های رأی می‌روند و در انتخابات سیاسی کشور خود شرکت می‌کنند. بی‌شک در چنین شرایطی تمرکز باید بر خطراتی مانند اطلاعات نادرست و دیپ‌فیک معطوف بوده و افزایش یابد.

بسیاری از شرکت‌های بزرگ و شاخص فعال در حوزه هوش مصنوعی، به توافق‌نامه‌ای مبنی بر مبارزه با استفاده فریبنده از هوش مصنوعی در انتخابات‌های ۲۰۲۴ پیوسته‌اند. این توافق جهانی شامل مجموعه‌ای از تعهدات برای مبارزه با انتشار تصاویر، ویدیوها و صداهای جعلی نامزدهای سیاسی است.

به گفته الکساندرا ریو گیونز برخورد با دیپ‌فیک‌ها تنها یکی از مجموعه اقدامات فوری و ضروری است. وی معتقد است که در بلند مدت، اهمیت توجه به نقش نابرابری اقتصادی در بقای دموکراسی افزایش خواهد یافت.

مدیر مرکز دموکراسی و فناوری در ادامه افزود: «در حوزه هوش مصنوعی، موضوع صرفاً به تحولات ناشی از توسعه این فناوری در بخش اشتغال محدود نمی‌شود. مدل‌ها قادر هستند که درباره اعتبار افراد جهت دریافت وام بانکی تصمیم‌گیری کنند یا از انسان‌ها مصاحبه شغلی بگیرند.»

وی باور دارد که هوش مصنوعی به شیوه‌‌های گوناگون در همه این سیستم‌ها نفوذ می‌کند و قاعدتاً شناسایی و تنظیم‌گری این بخش‌ها، توجه یکسان سیاست‌گذاران و شرکت‌های فناوری را می‌طلبد.

گیونز در ادامه گفت: «شرکت‌ها، دولت‌ها و جامعه مدنی در حال حاضر درگیر بحث درباره نحوه برخورد با چنین مسائلی هستند و 2024 سالی است که آن‌ها باید وارد عمل شوند. ما باید از بحث‌های پیچیده عبور کنیم و به واقعیت نزدیک شویم. یکی از معضلات بزرگ سال 2023، عدم قطعیت تنظیم‌گران برای تمرکز بر مخاطرات بلندمدت و کوتاه‌مدت این حوزه بود. به نظر من اکنون به مدل بلوغ رسیده‌ایم و مردم متوجه شده‌اند که می‌توانیم و باید هر دو این اقدامات را هم‌زمان با هم انجام دهیم.»

ایجاد گفتمان مشترک

آنا ماکانجو، معاون امور جهانی شرکت هوش مصنوعی «OpenAI»، مهمان دیگر حاضر در این پادکست بود که به ارائه دیدگاه‌های خود درباره حکمرانی هوش مصنوعی پرداخت. وی در سخنان خود اعلام کرد که به خطر فاجعه‌بار هوش مصنوعی و نقش مؤثر خودتنظیم‌گری در شرکت‌ها باور دارد.

وی در ادامه از تیم قرمز (Red Team) به عنوان مصداقی رایج از خودتنظیم‌گری کارآمد در این صنعت یاد کرد و افزود این فرآیندی است که در توسعه نرم‌افزار و امنیت سایبری برای تجزیه و تحلیل خطرات و ارزیابی قابلیت‌های مضر سیستم‌های جدید مورد استفاده قرار می‌گیرد.

وی به عنوان نماینده شرکت «OpenAI» گفت: «این کاری است که ما با مدل‌های خود انجام داده‌ایم تا مطمئن شویم که می‌توانیم خطرات فوری، چگونگی سوءاستفاده از آن‌ها و نحوه مدیریت تهدیدات را دریابیم.»

علاوه بر مسئله ارزیابی امنیتی مداوم، شرکت‌های «انتروپیک»، «گوگل»، «مایکروسافت» و «OpenAI»، به عنوان چهار شرکت بزرگ جهان در حوزه هوش مصنوعی، جهت همرسانی بینش و تخصص خود در زمینه ایمنی، تشکلی موسوم به «Frontier Model Forum» تشکیل داده‌اند. شرکت‌ها از طریق این انجمن متعهد شده‌اند که تحقیقات بخش ایمنی هوش مصنوعی را پیش برده و همکاری‌های چندجانبه‌ای برای اطمینان از توسعه مسئولانه این فناوری ایجاد کنند.

ماکانجو در ادامه افزود: «مسئله شناسایی مجموعه‌ای از شیوه‌های مشترک است. در نهایت، شرکت‌هایی که این مدل‌ها را می‌سازند، بیشتر از سایرین درباره آن‌ها می‌دانند. آن‌ها دقیق‌ترین درک را از ابعاد مختلف دارند. من فکر نمی‌کنم کسی به خودتنظیم‌گری شرکت‌ها اعتماد داشته باشد؛ اما معتقدم که لازم است این گفتمان در راستای حصول تنظیم‌گری قدرتمند شکل بگیرد.»

پیوند منبع