اخلاق و نوآوری مسئولانه در سایه امنیت سایبری هوش مصنوعی
زاویه؛ توسعه روزافزون هوش مصنوعی مستلزم تضمین یکپارچگی، ایمنی و امنیت این قبیل سیستمهای فناورانه است. مجمع جهانی اقتصاد اخیراً طی یادداشتی کوتاه به این مسئله پرداخته است. صحبتها و گمانهزنیهای بسیاری درباره خطرات جدید هوش مصنوعی وجود دارد. پتانسیل وجود تبعیض یا سوگیری در سیستمهایی که از هوش مصنوعی استفاده میکنند، مصداق بارز این قبیل خطرات است. تبعیض در این سیستمها از دادههای آموزشی اولیه آنها یا نحوه حفظ مدل هوش مصنوعی در حین تکامل و یادگیری از محیط نشأت میگیرد. فقدان توانایی بررسی دقیق، ارزیابی یکپارچگی سیستمها و حفظ همسویی با ارزشها که بر خروجی مدلها تأثیر میگذارد، از جمله دیگر نگرانیهای مربوط به این سیستمها محسوب میشود.
همچنین علاوهبر نقاط ضعفی که پیشتر ذکر شد، راههای جدیدی برای به خطر انداختن سازمانها از طریق حمله به سیستم هوش مصنوعی نیز شناسایی شده است. یادگیری و تکامل مدلها نیازمند و متأثر از مجموعه دادهها است و مجموعه دادهها میتوانند از عوامل گوناگون تأثیر بپذیرند. بنابراین ممکن است طیف گستردهای از مدلها ساخته شوند که به طور بالقوه ناامن یا ناهماهنگ بوده و مطابق با اراده بازیگران مخرب عمل کنند.
با این حال، آسیبپذیری سیستمهای هوش مصنوعی به خطرات دستکاری دادهها یا تغییر مدلها محدود نمیشود، در زمان اجرا انواع مختلفی از خطاهای نرمافزاری به وجود میآیند که سیستمهای محاسباتی را تضعیف میکنند. چنانچه محیط هوش مصنوعی به خطر بیفتد، این خطاها فرصتهایی را برای مهاجمان فراهم میکند تا کنترل رایانه محلی را در دست بگیرند و از آن به عنوان پلتفرمی برای نفوذ به زیرساختهای تجاری گستردهتر استفاده کنند.
در نهایت، مانند هر نوع سیستم دیجیتالی دیگری دامنه مضرات بالقوه این فناوری نوظهور نیز گسترش مییابد. این محدوده در حوزه هوش مصنوعی، بزرگ و در حال رشد است و سیستمهای کلیدی مورد استفاده در زیرساختهای حیاتی را در برمیگیرد. وجود چنین مخاطراتی میتواند حتی جان انسانها را به خطر اندازند. بی شک این تهدیدات بر عاملیت انسان، فرایندهای دموکراتیک و همچنین حکمرانی بخشهای مختلف و تجارت تأثیر خواهند گذاشت.
تهدیدات سایبری رو به رشد
آسیبپذیری و خطرات هوش مصنوعی در حال افزایش است و حرفه امنیت سایبری در حال توسعه مدلهایی است که تکنیکهای مورد نیاز برای مقابله با چنین تهدیداتی را کسترش دهد؛ اما این اقدامات کافی نیستند.
درگیری فزایندهای بین ملتها در راستای نوآوری و ظرفیتسازی در تهاجم سایبری و تکنیکهای دفاعی در جریان است. انتظار میرود، این امر در آینده نزدیک به سایر حوزهها مانند جرائم سایبری نیز تسری پیدا کند. این بدان معنی است که تهدیدات سایبری، بزرگتر و حرفهایتر و مخربتر خواهند شد.
سرمایهگذاری جهانی در فناوریهای نوظهور، مانند اینترنت اشیا و خدمات ابری، فرصت قابل توجهی را برای توسعه قابلیت هوش مصنوعی، از نظر دسترسی به الگوریتمها، مدلها و مجموعه دادههای آموزشی به وجود میآورد و ارائه خدمات مبتنیبر هوش مصنوعی و سرویسهایی تسهیل کننده دسترسی و استفاده از فناوری را افزایش میدهد. این بدان معناست که هوش مصنوعی در اختیار کسانی قرار خواهد گرفت که به سیستمها و اقتصاد جوامع حمله میکنند.
شاید هم اکنون مسائل مربوط به اطمینان از اینکه تصمیمات توصیه شده توسط سیستم با اخلاق یا قوانین ملل مطابقت دارند، از مسائل مربوط به محافظت از مدلهای هوش مصنوعی در برابر دستکاریهای عمدی و پنهان عوامل تهدید جدا تلقی شوند؛ اما با گذشت زمان میتوان انتظار داشت که هدف حمله، مصالحه با سیستم هوش مصنوعی برای باجگیری یا انتشار یک مدل یا مجموعه داده آلوده باشد. چنین مخاطراتی نشاندهنده گسترش مستقیم انواع تهدیداتی هستند که میتوانند فضای مجازی، مشاغل و سرتاسر زنجیره تأمین را تحت تأثیر قرار دهند. تولد هر فناوری جدیدی با ایجاد پتانسیل آسیب و تهدید قرین است.
نیاز به حمایت از نظارت مؤثر
سطح تهدیدات پیش رو در حال گسترش است و افزایش وابستگی به فناوریها و خدمات دیجیتال باعث ایجاد ریسک سیستماتیک سایبری میشود. تجمیع این دو فاکتور و پیشبینی و تعیین کمیت آن دشوار است. استفاده از فناوریهای هوش مصنوعی برای الهامبخشی و ارائه نسل جدیدی از سرویسها مسئولیتی اخلاقی به وجود میآورد. در چنین شرایطی باید اطمینان حاصل شود که سرمایهگذاریهای این فناوری در معرض موارد غیرقابل مدیریت از ریسک سایبری قرار نمیگیرند. میتوان انتظار داشت که حرفه امنیت سایبری ایدهها، شیوهها و ابزارهایی را برای حل این بحران ارائه دهد؛ اما باید توجه داشت که این امر مستلزم وجود تقاضا در بازار است.
برای حل این چالشها به رهبرانی نیاز است که سکان حرکت به سمت آیندهای امن و ایمن مبتنیبر هوش مصنوعی را برعهده گیرند. این رهبری باید مخاطرات موجود را کنترل و از ابزارهای دارای عملکرد مثبت استفاده کند. ارائهدهندگان بیمه، سرمایهگذاران، مشتریان و تنظیمگران به دنبال چنین موقعیتی خواهند بود؛ اما به کنترلهایی نیاز است که هم اجازه نظارت را بدهد و هم بتواند برای دفاع مؤثر در برابر تهدیدها استفاده شود. فقدان سرویسهای تخصصی هوش مصنوعی باعث میشود، خلأ موجود در عملکرد کنونی در قبال این فناوری تشدید شود.
فقدان سرویسهای تخصصی امنیت سایبری هوش مصنوعی
نظارت و تشخیص تهدید همواره با چالش روبروست. هنوز کسی نتوانسته است از ورود همه تهدیدات به سیستمها جلوگیری کند. حتی اگر اطمینان حاصل شود که هیچ فناوری آسیبپذیری وجود ندارد که فرصت حمله را برای تهدیدات خارجی فراهم کند، همیشه افرادی با دسترسی بالا خواهند بود که یا حمله میکنند یا اعتبار دسترسی را میفروشند. این بدان معنا است که ارائه توانایی شناسایی یک سیستم در معرض خطر ضروری است؛ زیرا در غیر این صورت ممکن است ناآگاهانه از هوش مصنوعی در معرض خطر استفاده و تصمیماتی گرفته شود که بر زندگی و معیشت مردم، اقتصاد و زیرساختهای حیاتی تأثیر بگذارد.
در حال حاضر امکان تشخیص درست تهدیدات سیستمهای هوش مصنوعی وجود ندارد. این وضعیتی غیرقابل قبول است و رهبران کشورها، کسبوکارهای جهانی یا کوچک نمیتوانند با ناآگاهی از وضعیت یکپارچگی سیستمهایشان در نظارت و استراتژی مؤثر باشند.
حتی زمانی که توانایی تشخیص حمله به سیستم هوش مصنوعی وجود داشته باشد، باید آن را در کنار سایر عملکردهای عملیاتی حوزه امنیتی سایبری قرار داد. این امر مستلزم تصمیمگیری در مورد چگونگی اولویتبندی نگرانیهای مطرح شده توسط ابزارها و تحلیلگران است. بشر به سادگی توانایی مقابله با هر تهدید احتمالی را ندارد. یکی از جنبههای کلیدی دفاع سایبری بالغ توانایی هدایت تهدید است. بنابراین باید برای مبارزه با خطراتی که مضرترین موارد شناخته شده هستند، از منابع محدود استفاده شود. از همین روی، باید در مواردی که از هوش مصنوعی استفاده میشود، تضمینی برای دسترسی به اطلاعات تهدیدات و عوامل تهدیدآفرین وجود داشته باشد. برای موفقیت در این امر، اشتراک تجربیات و بینش تهدیدات با سایر همتایان بسیار مهم است. برای تحقق این هدف، لازم است که آیندهنگریها توسعه یابند و بتوان تهدیدات را پیشبینی، وضعیت امنیتی را بهسامان و انعطافپذیری سایبری را حفظ کرد.
اهمیت رهبری
اصل دیگر برای اطمینان از حفظ امنیت سایبری، توجه به اهمیت رهبری است. در شرایط فعلی، باید فرهنگهای سازمانی ترویج یابند، تا نگرانیهای موجود در خصوص استفاده از هوش مصنوعی مولد فرصت بروز پیدا کنند. وجود رویکرد مسئولانه، باز و شفاف در استفاده از این فناوری میتواند، از ارتباط با مشتریان و ذینفعان پشتیبانی کند، مراقبت را ارتقا دهد و اطمینان حاصل کند که سیستمهای هوش مصنوعی همسو با ارزشها هستند. ممکن است، لازم باشد سرویسهای پشتیبان نیز برای پیگیری این هدف مدنظر قرار گیرند.
رهبران مشاغلی که از هوش مصنوعی استفاده میکنند، باید بر استقرار قابلیتهای امنیتی عملیاتی پافشاری کنند. ممکن است در مواردی که مخاطرات جدی هستند، به ارزیابیهای تخصصی ریسک نیاز باشد.
در نهایت میتوان نتیجه گرفت که تحقق توسعه سیستمهای هوش مصنوعی و استقرار مشاغل امن سایبری، مستلزم سطوح بالایی از پویایی، سرعت و سازگاری است. وجود رهبری قوی در چنین شرایطی بسیار حیاتی است؛ زیرا بدون آن نمیتوان به سرعت به سمت سازگاری و انعطافپذیری حرکت کرد. توان چرخش و تکامل انعطافپذیری سایبری کاملاً به قدرت هسته بستگی دارد، هستهای که دیایان آن را رهبری پایهگذاری میکند و سپس تکامل مییابد.