زاویه؛ سناتور سابق آمریکایی راب پورتمن[1] در بیانیه خود در «انجمن بینش هوش مصنوعی مجلس سنای ایالات‌متحده»[2] بر اهمیت فوق‌العاده هوش مصنوعی برای تقویت امنیت ملی و پیشبرد رقابت ملی تأکید کرد. او یک چارچوب مفهومی برای تدوین مسئولانه سیاست‌‌های هوش مصنوعی ارائه کرد که به دنبال ایجاد تعادل معقول بین ارتقای نوآوری، هدایت هوش مصنوعی به سمت موارد استفاده سازنده و کاهش آسیب‌‌های بالقوه است.

سناتور پورتمن سخنرانی خود را با اشاره به دوره ریاست مشترک خود بر گروه هوش مصنوعی مجلس سنا که در سال ۲۰۱۹ به همراه سناتور مارتین هاینریش[3] تأسیس کرد، آغاز نمود. هدف اصلی‌ آن‌ها پرورش تخصص و رهبری در کنگره در مورد مسائل مربوط به هوش مصنوعی بود تا ‌‌‌‌‌‌‌ایالات‌متحده آمریکا بتواند از پتانسیل تحول‌آفرین این فناوری استفاده کند و به رقبای جهانی مانند چین و روسیه میدان را واگذار نکند. او تأکید کرد که بخش قابل‌توجهی از سیاست‌های فعلی هوش مصنوعی فدرال، از جمله پیشنهادهایی که از گروه هوش مصنوعی سنا ناشی شده، از طریق قانون مجوز دفاع ملی سالانه[4] به تصویب رسیده است که گواهی بر پیوندهای ناگسستنی بین هوش مصنوعی و امنیت ملی است.

وزارت دفاع ‌‌‌‌‌‌‌ایالات‌متحده آمریکا به‌طور گسترده در تحقیقات هوش مصنوعی سرمایه‌گذاری کرده است و پتانسیل این فناوری را برای تقویت توانایی‌های جنگی از طریق افزایش کارایی عملیات در حوزه‌هایی مانند تعمیر و نگهداری، پشتیبانی لجستیکی، جمع‌آوری اطلاعات تقویت‌شده و کاهش تلفات غیرنظامیان به رسمیت شناخته است. از منظر گسترده‌تر، هوش مصنوعی می‌تواند با کمک به رقابت‌پذیری کلی ‌‌‌‌‌‌‌ایالات‌متحده آمریکا در برابر رقبای استراتژیک، امنیت ملی را تقویت کند. بااین‌حال، این امر به سه عامل کلیدی متکی است: نوآوری مداوم، استقرار گسترده کاربردهای مفید و ایجاد هنجارهایی برای استفاده ایمن از هوش مصنوعی. تابه‌حال، کنگره و گروه هوش مصنوعی سنا سابقه‌ای طولانی از قانون‌گذاری دوجانبه موفق در زمینه هوش مصنوعی داشته‌اند که باید برای حفظ امنیت ملی و اعتماد عمومی به‌طور مداوم ادامه یابد. سناتور پورتمن بر این باور است که سیاست‌های مربوط به هوش مصنوعی وارد فاز پیچیده‌تری شده‌اند که در آن بحث‌های مربوط به مقررات احتمالی فراتر از قوانین موجود جایگاه برجسته‌ای پیدا کرده است. بااین‌حال، مقررات گسترده با خطر خفگی نوآوری‌های مفید همراه است و بنابراین نیاز به رویکردی دقیق وجود دارد که از رفتار با هوش مصنوعی به‌عنوان یک فناوری یکپارچه اجتناب کند. او ایجاد یک «چرخه سیاست‌گذاری هوش مصنوعی»[5] را به‌عنوان یک چارچوب راهنما برای دستیابی به تعادل هماهنگ بین نوآوری، بهره‌وری و کاهش آسیب در توسعه سیاست‌های مسئولانه و متناسب پیشنهاد کرد.

این چرخه از سه عنصر اصلی تشکیل شده است:

  1. ترویج نوآوری در هوش مصنوعی: این بخش بر حمایت از تحقیقات و توسعه در حوزه هوش مصنوعی تمرکز دارد تا نوآوری‌‌های جدید و قدرتمندتر پدید بیاید.
  2. هدایت نوآوری‌ها به سمت کاربردهای سازنده: این بخش بر اطمینان از استفاده صحیح و مفید از نوآوری‌‌های هوش مصنوعی در بخش‌‌های مختلف جامعه مانند صنعت، پزشکی، حمل‌ونقل و غیره تأکید دارد.
  3. کاهش آسیب‌‌های بالقوه: این بخش بر شناسایی و پیشگیری از خطرات احتمالی ناشی از استفاده از هوش مصنوعی تمرکز دارد، مانند تبعیض الگوریتمی، نقض حریم خصوصی و امنیت داده‌ها.

در واقع، پیشرفت و نوآوری بیشتر منجر به ظهور تعداد زیادی کاربردهای مفید خواهد شد، ولی با گسترش استفاده از این فناوری‌ها، جامعه ممکن است با آسیب‌های جدیدی مواجه شود؛ بنابراین، تدوین سیاست‌های هدفمند که مانع پیشرفت در حوزه هوش مصنوعی نشوند، امری ضروری به شمار می‌رود. تا به امروز، تمرکز اصلی کنگره در زمینه هوش مصنوعی روی بخش اول این چرخه، یعنی «ترویج نوآوری» بوده است. این مسئله از طریق سرمایه‌گذاری در برنامه‌های تحقیقاتی مانند «منابع تحقیقات ملی هوش مصنوعی» صورت گرفته است. در مقایسه با تلاش‌های گسترده برای پیشبرد نوآوری در حوزه هوش مصنوعی، توجه کمتری به تسهیل استفاده از این فناوری در بخش‌های غیرفنی مانند تولید و مراقبت‌های بهداشتی شده است، جایی که هوش مصنوعی می‌تواند حداکثر تأثیر را بر بهزیستی انسان داشته باشد. سیاست‌گذاران باید موانع پذیرش هوش مصنوعی در این حوزه‌ها را شناسایی و با جدیت برای رفع‌ آن‌ها تلاش کنند، به شرطی که این اقدامات با حفظ ایمنی اجرا شوند. برخی چالش‌های هوش مصنوعی ممکن است نیازمند رویکردهای نظارتی جدید باشند، اما تنها در مواقعی که صلاحیت‌های موجود به وضوح ناکافی هستند، چنین رویکردهایی باید اتخاذ شوند. هرگونه مجوز جدید باید با دقت طراحی شود تا ضمن کاهش آسیب‌ها، مانع نوآوری نشود.

در حوزه امنیت ملی به‌طور خاص، ترویج نوآوری همچنان برای حفظ برتری بر رقبای استراتژیک مانند چین که به‌شدت در هوش مصنوعی سرمایه‌گذاری می‌کنند، ضروری است. تأسیس «منابع تحقیقات ملی هوش مصنوعی»[6] که توسط کنگره الزام شده است، می‌تواند به تقویت استعدادهای آمریکا و تثبیت رهبری آن در این حوزه کمک کند. هدایت هوش مصنوعی به سمت کاربردهای با ارزش بالا در حوزه دفاع، می‌تواند از طریق تعمیر و نگهداری پیش‌بینی‌کننده، امنیت سایبری پیشرفته، بهبود لجستیک و نظارت بر زنجیره تأمین، توانایی‌های انسانی و کارایی عملیاتی را افزایش دهد. از منظر رقابت‌پذیری، ‌‌‌‌‌‌‌ایالات‌متحده آمریکا باید به‌طور قاطعانه از قوانین حاکمیت جهانی هوش مصنوعی که با منافع و ارزش‌های آمریکایی همسو هستند، حمایت کند. این شامل مقاومت در برابر هنجارهای مضر و همچنین مذاکره در مورد استانداردهای تجارت دیجیتال است که از صنعت فناوری ‌‌‌‌‌‌‌ایالات‌متحده آمریکا در برابر رقبای استراتژیک حمایت می‌کند.

از سوی دیگر، برای کاهش آسیب‌ها ضروری است که پرسنل نظامی آموزش کافی در مورد هوش مصنوعی ببینند و افسران لجستیک نیز درک جامع از قراردادهای هوش مصنوعی داشته باشند. باید همچنین توجه داشت که هوش مصنوعی مولد تهدیدهای منحصربه‌فردی برای یکپارچگی اطلاعات ایجاد می‌کند، بنابراین ایجاد استانداردهای جدید تأیید صحت دیجیتال برای ردیابی و افشای محتوای جعلی ضروری است. علاوه بر این، سیاست‌های امنیت تحقیقات باید مانع انتقال فناوری به برنامه‌های جذب استعدادهای خارجی که توسط دشمنان حمایت می‌شوند، گردد. در تمامی این تلاش‌ها، تنظیم سیاست‌ها برای رفع شکاف‌های آشکار، به جای توسل به مقررات گسترده، برای حفاظت از امنیت ملی حیاتی است.

سناتور پورتمن در سخنان پایانی خود تأکید کرد که آیا ‌‌‌‌‌‌‌ایالات‌متحده آمریکا می‌تواند به‌طور مسئولانه از پتانسیل تحول‌آفرین هوش مصنوعی استفاده کند، هنوز سؤالی بدون پاسخ است. «چرخه سیاست‌گذاری هوش مصنوعی» چارچوبی راهنما برای ترویج نوآوری، هدایت هوش مصنوعی به سمت کاربردهای مفید و کاهش آسیب‌های واقعی در مواقعی که ابزارهای موجود کارآمد نیستند، ارائه می‌کند – همه این‌ها درعین‌حال از اعمال محدودیت‌های گسترده جلوگیری می‌کند. این رویکرد منظم امکان تدوین سیاست‌های متناسب را فراهم می‌کند که با منافع و ارزش‌های آمریکایی در حوزه امنیت ملی و فراتر از آن همسو باشد. رهبری ‌‌‌‌‌‌‌ایالات‌متحده آمریکا در هوش مصنوعی جنبه‌ای حیاتی از قدرت ملی را نشان می‌دهد که سیاست‌گذاری خردمندانه و دوحزبی باید همچنان از آن حفاظت کند.

 


[1] Rob Portman

[2] AI Insight Forum on National Security

[3] Martin Heinrich

[4] the annual National Defense Authorization Act

[5] AI policy cycle

[6] National AI Research Resource