بیانیهای خطاب به انجمن بینش هوش مصنوعی سنای ایالاتمتحده آمریکا در مورد امنیت ملی
زاویه؛ سناتور سابق آمریکایی راب پورتمن[1] در بیانیه خود در «انجمن بینش هوش مصنوعی مجلس سنای ایالاتمتحده»[2] بر اهمیت فوقالعاده هوش مصنوعی برای تقویت امنیت ملی و پیشبرد رقابت ملی تأکید کرد. او یک چارچوب مفهومی برای تدوین مسئولانه سیاستهای هوش مصنوعی ارائه کرد که به دنبال ایجاد تعادل معقول بین ارتقای نوآوری، هدایت هوش مصنوعی به سمت موارد استفاده سازنده و کاهش آسیبهای بالقوه است.
سناتور پورتمن سخنرانی خود را با اشاره به دوره ریاست مشترک خود بر گروه هوش مصنوعی مجلس سنا که در سال ۲۰۱۹ به همراه سناتور مارتین هاینریش[3] تأسیس کرد، آغاز نمود. هدف اصلی آنها پرورش تخصص و رهبری در کنگره در مورد مسائل مربوط به هوش مصنوعی بود تا ایالاتمتحده آمریکا بتواند از پتانسیل تحولآفرین این فناوری استفاده کند و به رقبای جهانی مانند چین و روسیه میدان را واگذار نکند. او تأکید کرد که بخش قابلتوجهی از سیاستهای فعلی هوش مصنوعی فدرال، از جمله پیشنهادهایی که از گروه هوش مصنوعی سنا ناشی شده، از طریق قانون مجوز دفاع ملی سالانه[4] به تصویب رسیده است که گواهی بر پیوندهای ناگسستنی بین هوش مصنوعی و امنیت ملی است.
وزارت دفاع ایالاتمتحده آمریکا بهطور گسترده در تحقیقات هوش مصنوعی سرمایهگذاری کرده است و پتانسیل این فناوری را برای تقویت تواناییهای جنگی از طریق افزایش کارایی عملیات در حوزههایی مانند تعمیر و نگهداری، پشتیبانی لجستیکی، جمعآوری اطلاعات تقویتشده و کاهش تلفات غیرنظامیان به رسمیت شناخته است. از منظر گستردهتر، هوش مصنوعی میتواند با کمک به رقابتپذیری کلی ایالاتمتحده آمریکا در برابر رقبای استراتژیک، امنیت ملی را تقویت کند. بااینحال، این امر به سه عامل کلیدی متکی است: نوآوری مداوم، استقرار گسترده کاربردهای مفید و ایجاد هنجارهایی برای استفاده ایمن از هوش مصنوعی. تابهحال، کنگره و گروه هوش مصنوعی سنا سابقهای طولانی از قانونگذاری دوجانبه موفق در زمینه هوش مصنوعی داشتهاند که باید برای حفظ امنیت ملی و اعتماد عمومی بهطور مداوم ادامه یابد. سناتور پورتمن بر این باور است که سیاستهای مربوط به هوش مصنوعی وارد فاز پیچیدهتری شدهاند که در آن بحثهای مربوط به مقررات احتمالی فراتر از قوانین موجود جایگاه برجستهای پیدا کرده است. بااینحال، مقررات گسترده با خطر خفگی نوآوریهای مفید همراه است و بنابراین نیاز به رویکردی دقیق وجود دارد که از رفتار با هوش مصنوعی بهعنوان یک فناوری یکپارچه اجتناب کند. او ایجاد یک «چرخه سیاستگذاری هوش مصنوعی»[5] را بهعنوان یک چارچوب راهنما برای دستیابی به تعادل هماهنگ بین نوآوری، بهرهوری و کاهش آسیب در توسعه سیاستهای مسئولانه و متناسب پیشنهاد کرد.
این چرخه از سه عنصر اصلی تشکیل شده است:
- ترویج نوآوری در هوش مصنوعی: این بخش بر حمایت از تحقیقات و توسعه در حوزه هوش مصنوعی تمرکز دارد تا نوآوریهای جدید و قدرتمندتر پدید بیاید.
- هدایت نوآوریها به سمت کاربردهای سازنده: این بخش بر اطمینان از استفاده صحیح و مفید از نوآوریهای هوش مصنوعی در بخشهای مختلف جامعه مانند صنعت، پزشکی، حملونقل و غیره تأکید دارد.
- کاهش آسیبهای بالقوه: این بخش بر شناسایی و پیشگیری از خطرات احتمالی ناشی از استفاده از هوش مصنوعی تمرکز دارد، مانند تبعیض الگوریتمی، نقض حریم خصوصی و امنیت دادهها.
در واقع، پیشرفت و نوآوری بیشتر منجر به ظهور تعداد زیادی کاربردهای مفید خواهد شد، ولی با گسترش استفاده از این فناوریها، جامعه ممکن است با آسیبهای جدیدی مواجه شود؛ بنابراین، تدوین سیاستهای هدفمند که مانع پیشرفت در حوزه هوش مصنوعی نشوند، امری ضروری به شمار میرود. تا به امروز، تمرکز اصلی کنگره در زمینه هوش مصنوعی روی بخش اول این چرخه، یعنی «ترویج نوآوری» بوده است. این مسئله از طریق سرمایهگذاری در برنامههای تحقیقاتی مانند «منابع تحقیقات ملی هوش مصنوعی» صورت گرفته است. در مقایسه با تلاشهای گسترده برای پیشبرد نوآوری در حوزه هوش مصنوعی، توجه کمتری به تسهیل استفاده از این فناوری در بخشهای غیرفنی مانند تولید و مراقبتهای بهداشتی شده است، جایی که هوش مصنوعی میتواند حداکثر تأثیر را بر بهزیستی انسان داشته باشد. سیاستگذاران باید موانع پذیرش هوش مصنوعی در این حوزهها را شناسایی و با جدیت برای رفع آنها تلاش کنند، به شرطی که این اقدامات با حفظ ایمنی اجرا شوند. برخی چالشهای هوش مصنوعی ممکن است نیازمند رویکردهای نظارتی جدید باشند، اما تنها در مواقعی که صلاحیتهای موجود به وضوح ناکافی هستند، چنین رویکردهایی باید اتخاذ شوند. هرگونه مجوز جدید باید با دقت طراحی شود تا ضمن کاهش آسیبها، مانع نوآوری نشود.
در حوزه امنیت ملی بهطور خاص، ترویج نوآوری همچنان برای حفظ برتری بر رقبای استراتژیک مانند چین که بهشدت در هوش مصنوعی سرمایهگذاری میکنند، ضروری است. تأسیس «منابع تحقیقات ملی هوش مصنوعی»[6] که توسط کنگره الزام شده است، میتواند به تقویت استعدادهای آمریکا و تثبیت رهبری آن در این حوزه کمک کند. هدایت هوش مصنوعی به سمت کاربردهای با ارزش بالا در حوزه دفاع، میتواند از طریق تعمیر و نگهداری پیشبینیکننده، امنیت سایبری پیشرفته، بهبود لجستیک و نظارت بر زنجیره تأمین، تواناییهای انسانی و کارایی عملیاتی را افزایش دهد. از منظر رقابتپذیری، ایالاتمتحده آمریکا باید بهطور قاطعانه از قوانین حاکمیت جهانی هوش مصنوعی که با منافع و ارزشهای آمریکایی همسو هستند، حمایت کند. این شامل مقاومت در برابر هنجارهای مضر و همچنین مذاکره در مورد استانداردهای تجارت دیجیتال است که از صنعت فناوری ایالاتمتحده آمریکا در برابر رقبای استراتژیک حمایت میکند.
از سوی دیگر، برای کاهش آسیبها ضروری است که پرسنل نظامی آموزش کافی در مورد هوش مصنوعی ببینند و افسران لجستیک نیز درک جامع از قراردادهای هوش مصنوعی داشته باشند. باید همچنین توجه داشت که هوش مصنوعی مولد تهدیدهای منحصربهفردی برای یکپارچگی اطلاعات ایجاد میکند، بنابراین ایجاد استانداردهای جدید تأیید صحت دیجیتال برای ردیابی و افشای محتوای جعلی ضروری است. علاوه بر این، سیاستهای امنیت تحقیقات باید مانع انتقال فناوری به برنامههای جذب استعدادهای خارجی که توسط دشمنان حمایت میشوند، گردد. در تمامی این تلاشها، تنظیم سیاستها برای رفع شکافهای آشکار، به جای توسل به مقررات گسترده، برای حفاظت از امنیت ملی حیاتی است.
سناتور پورتمن در سخنان پایانی خود تأکید کرد که آیا ایالاتمتحده آمریکا میتواند بهطور مسئولانه از پتانسیل تحولآفرین هوش مصنوعی استفاده کند، هنوز سؤالی بدون پاسخ است. «چرخه سیاستگذاری هوش مصنوعی» چارچوبی راهنما برای ترویج نوآوری، هدایت هوش مصنوعی به سمت کاربردهای مفید و کاهش آسیبهای واقعی در مواقعی که ابزارهای موجود کارآمد نیستند، ارائه میکند – همه اینها درعینحال از اعمال محدودیتهای گسترده جلوگیری میکند. این رویکرد منظم امکان تدوین سیاستهای متناسب را فراهم میکند که با منافع و ارزشهای آمریکایی در حوزه امنیت ملی و فراتر از آن همسو باشد. رهبری ایالاتمتحده آمریکا در هوش مصنوعی جنبهای حیاتی از قدرت ملی را نشان میدهد که سیاستگذاری خردمندانه و دوحزبی باید همچنان از آن حفاظت کند.
[1] Rob Portman
[2] AI Insight Forum on National Security
[3] Martin Heinrich
[4] the annual National Defense Authorization Act
[5] AI policy cycle
[6] National AI Research Resource