زاویه؛ توسعه روزافزون هوش مصنوعی مستلزم تضمین یکپارچگی، ایمنی و امنیت این قبیل سیستم‌های فناورانه است. مجمع جهانی اقتصاد اخیراً طی یادداشتی کوتاه به این مسئله پرداخته است. صحبت‌ها و گمانه‌زنی‌های بسیاری درباره خطرات جدید هوش مصنوعی وجود دارد. پتانسیل وجود تبعیض یا سوگیری در سیستم‌هایی که از هوش مصنوعی استفاده می‌کنند، مصداق بارز این قبیل خطرات است. تبعیض در این سیستم‌ها از داده‌های آموزشی اولیه آن‌ها یا نحوه حفظ مدل هوش مصنوعی در حین تکامل و یادگیری از محیط نشأت می‌گیرد. فقدان توانایی بررسی دقیق، ارزیابی یکپارچگی سیستم‌ها و حفظ همسویی با ارزش‌ها که بر خروجی‌ مدل‌ها تأثیر می‌گذارد، از جمله دیگر نگرانی‌های مربوط به این سیستم‌ها محسوب می‌شود.

همچنین علاوه‌بر نقاط ضعفی که پیش‌تر ذکر شد، راه‌های جدیدی برای به خطر انداختن سازمان‌ها از طریق حمله به سیستم هوش مصنوعی نیز شناسایی شده است. یادگیری و تکامل مدل‌ها نیازمند و متأثر از مجموعه داده‌ها است و مجموعه داده‌ها می‌توانند از عوامل گوناگون تأثیر بپذیرند. بنابراین ممکن است طیف گسترده‌ای از مدل‌ها ساخته شوند که به طور بالقوه ناامن یا ناهماهنگ بوده و مطابق با اراده بازیگران مخرب عمل کنند.

با این حال، آسیب‌پذیری سیستم‌های هوش مصنوعی به خطرات دستکاری داده‌ها یا تغییر مدل‌ها محدود نمی‌شود، در زمان اجرا انواع مختلفی از خطاهای نرم‌افزاری به وجود می‌آیند که سیستم‌های محاسباتی را تضعیف می‌کنند. چنانچه محیط هوش مصنوعی به خطر بیفتد، این خطاها فرصت‌هایی را برای مهاجمان فراهم می‌کند تا کنترل رایانه محلی را در دست بگیرند و از آن به عنوان پلتفرمی برای نفوذ به زیرساخت‌های تجاری گسترده‌تر استفاده کنند.

در نهایت، مانند هر نوع سیستم دیجیتالی دیگری دامنه مضرات بالقوه این فناوری نوظهور نیز گسترش می‌یابد. این محدوده در حوزه هوش مصنوعی، بزرگ و در حال رشد است و سیستم‌های کلیدی مورد استفاده در زیرساخت‌های حیاتی را در برمی‌گیرد. وجود چنین مخاطراتی می‌تواند حتی جان انسان‌ها را به خطر اندازند. بی شک این تهدیدات بر عاملیت انسان، فرایندهای دموکراتیک و همچنین حکمرانی بخش‌های مختلف و تجارت تأثیر خواهند گذاشت.

تهدیدات سایبری رو به رشد

آسیب‌پذیری و خطرات هوش مصنوعی در حال افزایش است و حرفه امنیت سایبری در حال توسعه مدل‌هایی است که تکنیک‌های مورد نیاز برای مقابله با چنین تهدیداتی را کسترش دهد؛ اما این اقدامات کافی نیستند.
درگیری فزاینده‌ای بین ملت‌ها در راستای نوآوری و ظرفیت‌سازی در تهاجم سایبری و تکنیک‌های دفاعی در جریان است. انتظار می‌رود، این امر در آینده نزدیک به سایر حوزه‌ها مانند جرائم سایبری نیز تسری پیدا کند. این بدان معنی است که تهدیدات سایبری، بزرگ‌تر و حرفه‌ای‌تر و مخرب‌تر خواهند شد.

سرمایه‌گذاری جهانی در فناوری‌های نوظهور، مانند اینترنت اشیا و خدمات ابری، فرصت قابل توجهی را برای توسعه قابلیت هوش مصنوعی، از نظر دسترسی به الگوریتم‌ها، مدل‌ها و مجموعه داده‌های آموزشی به وجود می‌آورد و ارائه خدمات مبتنی‌بر هوش مصنوعی و سرویس‌هایی تسهیل کننده دسترسی و استفاده از فناوری را افزایش می‌دهد. این بدان معناست که هوش مصنوعی در اختیار کسانی قرار خواهد گرفت که به سیستم‌ها و اقتصاد جوامع حمله می‌کنند.

شاید هم اکنون مسائل مربوط به اطمینان از اینکه تصمیمات توصیه شده توسط سیستم با اخلاق یا قوانین ملل مطابقت دارند، از مسائل مربوط به محافظت از مدل‌های هوش مصنوعی در برابر دستکاری‌های عمدی و پنهان عوامل تهدید جدا تلقی شوند؛ اما با گذشت زمان می‌توان انتظار داشت که هدف حمله، مصالحه با سیستم هوش مصنوعی برای باج‌گیری یا انتشار یک مدل یا مجموعه داده آلوده باشد. چنین مخاطراتی نشان‌دهنده گسترش مستقیم انواع تهدیداتی هستند که می‌توانند فضای مجازی، مشاغل و سرتاسر زنجیره تأمین را تحت تأثیر قرار دهند. تولد هر فناوری جدیدی با ایجاد پتانسیل آسیب و تهدید قرین است.

نیاز به حمایت از نظارت مؤثر

سطح تهدیدات پیش رو در حال گسترش است و افزایش وابستگی به فناوری‌ها و خدمات دیجیتال باعث ایجاد ریسک سیستماتیک سایبری می‌شود. تجمیع این دو فاکتور و پیش‌بینی و تعیین کمیت آن دشوار است. استفاده از فناوری‌های هوش مصنوعی برای الهام‌بخشی و ارائه نسل جدیدی از سرویس‌ها مسئولیتی اخلاقی به وجود می‌آورد. در چنین شرایطی باید اطمینان حاصل شود که سرمایه‌گذاری‌های این فناوری در معرض موارد غیرقابل مدیریت از ریسک سایبری قرار نمی‌گیرند. می‌توان انتظار داشت که حرفه امنیت سایبری ایده‌ها، شیوه‌ها و ابزارهایی را برای حل این بحران ارائه دهد؛ اما باید توجه داشت که این امر مستلزم وجود تقاضا در بازار است.

برای حل این چالش‌ها به رهبرانی نیاز است که سکان حرکت به سمت آینده‌ای امن و ایمن مبتنی‌بر هوش مصنوعی را برعهده گیرند. این رهبری باید مخاطرات موجود را کنترل و از ابزارهای دارای عملکرد مثبت استفاده کند. ارائه‌دهندگان بیمه، سرمایه‌گذاران، مشتریان و تنظیم‌گران به دنبال چنین موقعیتی خواهند بود؛ اما به کنترل‌هایی نیاز است که هم اجازه نظارت را بدهد و هم بتواند برای دفاع مؤثر در برابر تهدیدها استفاده شود. فقدان سرویس‌های تخصصی هوش مصنوعی باعث می‌شود، خلأ موجود در عملکرد کنونی در قبال این فناوری تشدید شود.

فقدان سرویس‌های تخصصی امنیت سایبری هوش مصنوعی

نظارت و تشخیص تهدید همواره با چالش روبروست. هنوز کسی نتوانسته است از ورود همه تهدیدات به سیستم‌ها جلوگیری کند. حتی اگر اطمینان حاصل شود که هیچ فناوری آسیب‌پذیری وجود ندارد که فرصت حمله را برای تهدیدات خارجی فراهم کند، همیشه افرادی با دسترسی بالا خواهند بود که یا حمله می‌کنند یا اعتبار دسترسی را می‌فروشند. این بدان معنا است که ارائه توانایی شناسایی یک سیستم در معرض خطر ضروری است؛ زیرا در غیر این صورت ممکن است ناآگاهانه از هوش مصنوعی در معرض خطر استفاده و تصمیماتی گرفته شود که بر زندگی و معیشت مردم، اقتصاد و زیرساخت‌های حیاتی تأثیر بگذارد.

در حال حاضر امکان تشخیص درست تهدیدات سیستم‌های هوش مصنوعی وجود ندارد. این وضعیتی غیرقابل قبول است و رهبران کشورها، کسب‌وکارهای جهانی یا کوچک نمی‌توانند با ناآگاهی از وضعیت یکپارچگی سیستم‌هایشان در نظارت و استراتژی مؤثر باشند.

حتی زمانی که توانایی تشخیص حمله به سیستم هوش مصنوعی وجود داشته باشد، باید آن را در کنار سایر عملکردهای عملیاتی  حوزه امنیتی سایبری قرار داد. این امر مستلزم تصمیم‌گیری در مورد چگونگی اولویت‌بندی نگرانی‌های مطرح شده توسط ابزارها و تحلیلگران است. بشر به سادگی توانایی مقابله با هر تهدید احتمالی را ندارد. یکی از جنبه‌های کلیدی دفاع سایبری بالغ توانایی هدایت تهدید است. بنابراین باید برای مبارزه با خطراتی که مضرترین موارد شناخته شده هستند، از منابع محدود استفاده شود. از همین روی، باید در مواردی که از هوش مصنوعی استفاده می‌شود، تضمینی برای دسترسی به اطلاعات تهدیدات و عوامل تهدیدآفرین وجود داشته باشد. برای موفقیت در این امر، اشتراک تجربیات و بینش تهدیدات با سایر همتایان بسیار مهم است. برای تحقق این هدف، لازم است که آینده‌نگری‌ها توسعه یابند و بتوان تهدیدات را پیش‌بینی، وضعیت امنیتی را به‌سامان و انعطاف‌پذیری سایبری را حفظ کرد.

اهمیت رهبری

اصل دیگر برای اطمینان از حفظ امنیت سایبری، توجه به اهمیت رهبری است. در شرایط فعلی، باید فرهنگ‌های سازمانی ترویج یابند، تا نگرانی‌های موجود در خصوص استفاده از هوش مصنوعی مولد فرصت بروز پیدا کنند. وجود رویکرد مسئولانه، باز و شفاف در استفاده از این فناوری می‌تواند، از ارتباط با مشتریان و ذی‌نفعان پشتیبانی کند، مراقبت را ارتقا دهد و اطمینان حاصل کند که سیستم‌های هوش مصنوعی همسو با ارزش‌ها هستند. ممکن است، لازم باشد سرویس‌های پشتیبان نیز برای پیگیری این هدف مدنظر قرار گیرند.

رهبران مشاغلی که از هوش مصنوعی استفاده می‌کنند، باید بر استقرار قابلیت‌های امنیتی عملیاتی پافشاری کنند. ممکن است در مواردی که مخاطرات جدی هستند، به ارزیابی‌های تخصصی ریسک نیاز باشد.

در نهایت می‌توان نتیجه گرفت که تحقق توسعه سیستم‌های هوش مصنوعی و استقرار مشاغل امن سایبری، مستلزم سطوح بالایی از پویایی، سرعت و سازگاری است. وجود رهبری قوی در چنین شرایطی بسیار حیاتی است؛ زیرا بدون آن نمی‌توان به سرعت به سمت سازگاری و انعطاف‌پذیری حرکت کرد. توان چرخش و تکامل انعطاف‌پذیری سایبری کاملاً به قدرت هسته بستگی دارد، هسته‌ای که دی‌ای‌ان آن را رهبری پایه‌گذاری می‌کند و سپس تکامل می‌یابد.

پیوند منبع