چرا دستیابی بومی به دانش هوش مصنوعی و کوانتوم از نان شب برای هر ایرانی واجبتر است؟
«ما باید کاملاً به خود متکی باشیم و نوآوریهای تکنولوژیکی، توسعه صنعتی و تمام برنامههای کاربردی مبتنی بر هوش مصنوعی را به طور جامع پیش ببریم و در تمام فناوریهای اصلی هوش مصنوعی تسلط داشته باشیم.» توجه، چرا دستیابی بومی به دانش هوش مصنوعی و کوانتوم از نان شب برای هر ایرانی واجبتر است؟ — شی جین پینگ، رئیس جمهور چین
«از امروز به بعد، سیاست ایالات متحده این خواهد بود که هر کاری که لازم است برای رهبری جهان در هوش مصنوعی انجام دهد.» — دونالد ترامپ، رئیس جمهور ایالات متحده
ادغام هوش مصنوعی در دفاع و امنیت ملی در حال تبدیل شدن به یک اولویت جهانی است.
برای اهداف این گزارش، ما هوش مصنوعی را به عنوان سیستمهای دیجیتالی یا فیزیکی تعریف میکنیم که میتوانند وظایفی را انجام دهند که معمولاً به هوش انسانی نیاز دارند، مانند ادراک، یادگیری، استدلال و تصمیمگیری، و میتوانند در محیطهای پویا با درجات مختلفی از خودمختاری عمل کنند.
بر اساس منابع ارائه شده، استدلال شما مبنی بر شباهت مسیر هوش مصنوعی به انرژی هستهای و احتمال انحصار آن توسط قدرتهای بزرگ کاملاً قابل تایید است. اگرچه منابع موجود مشخصاً به «دانش کوانتوم» یا نام «ایران» اشاره نکردهاند، اما تحلیل پویاییهای ژئوپلیتیک و نظامی در متن گزارش، نشان میدهد که چرا دستیابی بومی و سریع به این فناوریها پیش از بسته شدن پنجرههای فرصت، امری حیاتی است.
در ادامه، دلایل این فوریت و ضرورت را بر اساس متون ارائه شده تشریح میکنم:
۱. تغییر منطق قدرت و بقا در نظام بینالملل منابع نشان میدهند که هوش مصنوعی صرفاً یک ابزار جانبی نیست، بلکه عاملی است که «منطق رقابت ژئوپلیتیک» را تغییر میدهد .
رهبران قدرتهای بزرگ صراحتاً اعلام کردهاند که هرکس در این حوزه پیشرو باشد، «حاکم جهان» خواهد شد (ولادیمیر پوتین) و یا اینکه هدفشان «رهبری جهان» در این زمینه است (دونالد ترامپ و شی جینپینگ).
بنابراین، عقب ماندن در این مسابقه به معنای از دست دادن جایگاه استراتژیک و قدرت چانهزنی در برابر کشورهایی است که این فناوری را در ساختارهای نظامی و دیپلماتیک خود ادغام کردهاند .
۲. خطر وابستگی و انحصار زیرساختها همانطور که اشاره کردید، خطر انحصار بسیار جدی است.
زنجیره تولید هوش مصنوعی، از طراحی و تولید سختافزارهای حیاتی (مانند GPUها) تا آموزش مدلهای پیشرفته، هماکنون تحت سلطه چند شرکت بزرگ و چند کشور محدود (عمدتاً آمریکا و چین) قرار دارد .
موانع دسترسی: هزینههای بالای سرمایهگذاری و «کنترلهای صادراتی» بر سختافزارهای پیشرفته، دسترسی کشورهای دیگر را دشوار کرده است.
اگر کشوری نتواند مدلهای ملی خود را بسازد، مجبور به استفاده از مدلهای خارجی خواهد بود که باعث ایجاد «وابستگیهای نهادی» به شرکتها و کشورهای خارجی میشود و امنیت ملی را به تصمیمات تجاری و سیاسی آنها گره میزند.
۳. پنجره زمانی پیش از تصویب قوانین محدودکننده (مشابه NPT) در حال حاضر، جهان در یک وضعیت «خلاء قانونی» یا مقررات پراکنده به سر میبرد، اما تلاشهای گستردهای برای ایجاد قوانین الزامآور بینالمللی در جریان است:
شکلگیری بلوکهای ممنوعیت: قدرتهای غربی (گروه G7، ناتو و اتحادیه اروپا) در حال تدوین اصول و کدهای رفتاری برای توسعه هوش مصنوعی هستند.
فشار برای معاهدات الزامآور: بسیاری از کشورها (۱۲۹ کشور) و سازمانهای بینالمللی خواهان توافقنامههای الزامآور قانونی برای محدود کردن استفاده از سیستمهای خودمختار مرگبار (LAWS) هستند.
حکمرانی پیشگیرانه: پیشنهادهایی برای «حکمرانی امنیتی پیشگیرانه» مطرح شده است که هدف آن تدوین هنجارهای بینالمللی قبل از وقوع آسیب است.
این روند نشان میدهد که مشابه پرونده هستهای، ممکن است در آیندهای نزدیک قوانینی تصویب شود که توسعه مستقل نظامی این فناوریها را برای کشورهایی که هنوز به آن دست نیافتهاند، ممنوع یا محدود کرده و آن را تحت نظارت شدید بینالمللی قرار دهد.
۴. برتری نظامی و بازدارندگی ارزان دستیابی به این فناوری امکان «نمایش قدرت» با هزینه پایین و دقت بالا را فراهم میکند .
سیستمهای هوشمند میتوانند بدون نیاز به بسیج گسترده نیروها، اعتبار تهدیدات نظامی را افزایش دهند.
در مقابل، کشورهایی که فاقد این فناوری باشند، در برابر سیستمهای تسلیحاتی خودمختار، پردازش سریع اطلاعات میدان نبرد و حملات دقیق طرف مقابل، بسیار آسیبپذیر خواهند بود.
جمعبندی و تمثیل بر اساس منابع، تلاش برای دستیابی سریع به این فناوری پیش از آنکه انحصار کامل شود یا قوانین بازدارنده بینالمللی تصویب گردد، برای حفظ استقلال استراتژیک ضروری است.
به عنوان یک تمثیل برای شفافسازی این وضعیت: دنیای هوش مصنوعی و فناوریهای نوین نظامی در حال حاضر شبیه به دوران «کشف قارههای جدید» در قرنهای گذشته است. در آن زمان، هر کشوری که زودتر به کشتیهای اقیانوسپیما و نقشههای دریانوردی دست یافت، توانست بخشهای بزرگی از جهان را تحت نفوذ خود درآورد و قوانین تجارت جهانی را بنویسد. کشورهایی که در ساحل ماندند و منتظر ماندند تا دیگران برایشان کشتی بسازند، در نهایت مستعمره شدند یا مجبور شدند طبق قوانینی که قدرتمندان نوشته بودند، زندگی کنند. تلاش برای دستیابی به این فناوری پیش از انحصار، تلاشی برای نشستن پشت میز قانونگذاران آینده است، نه ماندن در جایگاه کسانی که قانون بر آنها تحمیل میشود.
تخمین زده میشود که هزینههای نظامی جهانی در حوزه هوش مصنوعی بین سالهای ۲۰۲۲ و ۲۰۲۳ از ۴.۶ میلیارد دلار به ۹.۲ میلیارد دلار آمریکا دو برابر شده باشد و انتظار میرود تا سال ۲۰۲۸ به ۳۸.۸ میلیارد دلار برسد.
ارتشها از هوش مصنوعی برای دستیابی به کارایی و دقت عملیاتی بیشتر برای برتری استراتژیک در برابر دشمنان استفاده میکنند.
با این حال، این تلاشها جدید نیستند. بین سالهای ۱۹۶۶ تا ۱۹۷۲، مؤسسه تحقیقاتی استنفورد، Shakey را توسعه داد، رباتی که از بینایی کامپیوتر و پردازش زبان برای درک و استدلال در مورد محیط اطراف خود، تصمیمگیری و انجام وظایف استفاده میکرد.
در اواخر دهه ۱۹۸۰، ایالات متحده ابزار تحلیل پویا و برنامهریزی مجدد (DART) را توسعه داد – یک نرمافزار هوش مصنوعی که برای بهینهسازی حمل و نقل پرسنل و تدارکات طراحی شده بود.
در همان زمان، سیستمهای تسلیحاتی بدون سرنشین مانند رباتهای خودمختار و پهپادها نیز در حال توسعه بودند.
با این حال، پیش از سال ۲۰۱۷، هوش مصنوعی به هیچ وجه یک اولویت نظامی استراتژیک نبود.
در آوریل ۲۰۱۷، وزارت دفاع ایالات متحده (DoD) تیم چندمنظوره جنگ الگوریتمی (معروف به پروژه Maven) را برای تسریع ادغام کلانداده و یادگیری ماشینی در وزارت دفاع تأسیس کرد.
در ژوئیه همان سال، چین از طرح توسعه هوش مصنوعی نسل جدید خود رونمایی کرد و طرحی سطح بالا برای ادغام هوش مصنوعی در الگوی اجتماعی، اقتصادی و امنیت ملی این کشور ارائه داد.
چند ماه بعد، ولادیمیر پوتین، رئیس جمهور روسیه، پیشبینی کرد که رهبری در هوش مصنوعی کلید تسلط جهانی در آینده خواهد بود.
چرا دستیابی بومی به دانش هوش مصنوعی و کوانتوم از نان شب برای هر ایرانی واجبتر است؟
شاید مهمترین پیشرفت، سیاسی نبود. در ژوئن ۲۰۱۷، گوگل مقالهای مهم با عنوان «توجه، تمام چیزی است که نیاز دارید» منتشر کرد که در آن به معرفی ترانسفورماتورها، یک معماری یادگیری عمیق که صنعت هوش مصنوعی را متحول کرد، پرداخت.
این مقاله امکان ایجاد مدلهای زبانی همه منظوره به نام مدلهای بنیادی را فراهم کرد. برخلاف مدلهای سنتی هوش مصنوعی که برای یک کار خاص و واحد (مانند تشخیص تصویر یا پیشبینی قیمت سهام) طراحی و آموزش داده میشوند، مدلهای بنیادی برای اهداف عمومی ساخته شدهاند.
این بدان معناست که آنها درک گستردهای از الگوها، ساختارها و روابط درون دادههایی که بر اساس آنها آموزش دیدهاند، یاد میگیرند.
برجستهترین نمونههای مدلهای بنیادی، Claude از شرکت Anthropic، Gemini از شرکت Google و ChatGPT از شرکت OpenAI هستند.
مدلهای بنیادی را میتوان برای موارد استفاده متنوعی، از جمله کاربردهای نظامی، سفارشیسازی کرد. این توسعه سه پیامد گسترده داشته است. اول، توانایی پردازش حجم عظیمی از دادهها با سرعت و دقت، دنیایی از کاربردهای نظامی جدید را گشود.
کمتر از ده سال پس از انتشار کتاب «توجه، تمام چیزی است که نیاز دارید»، راهکارهای مبتنی بر هوش مصنوعی مانند سیستمهای Lavender و Gospel اسرائیل یا پلتفرم MetaConstellation پالانتیر در درگیریهای فعال برای هدفگیری دقیق به کار گرفته شدهاند.
سایر موارد استفاده هوش مصنوعی شامل بازیهای جنگی و تولید استراتژیهای محتمل، پیشبینی الزامات برای نگهداری تجهیزات و برنامهریزی لجستیکی است.
دوم، مدلهای بنیادی، مانع ورود به ادغام نظامی هوش مصنوعی را برای کشورهایی با اقتصادهای کوچکتر کاهش دادند.
ساخت مدلهای هوش مصنوعی قابل استفاده نیازمند سرمایه انسانی قابل توجه، محاسبات تحقیقاتی و دادههای باکیفیت است.
این هزینه اولیه بالا، همراه با کنترل صادرات بر سختافزارهای پیشرفته که مدلهای پیشرفته برای آموزش به آنها نیاز دارند، ساخت مدلهای هوش مصنوعی ملی خود را برای کشورهای کوچکتر ممنوع میکند.
در حالی که بازیگران خصوصی پیشرو مانند گوگل، متا و OpenAI در ابتدا استفاده نظامی از مدلهای خود را ممنوع کردند، این محدودیت از آن زمان برداشته شده است.
این امر فرصتهایی را برای کشورهای کوچکتر ایجاد کرد تا مدلهای اختصاصی را برای کاربردهای نظامی مجوز دهند. سوم، ادغام فزاینده سیستمهای پیشرفته هوش مصنوعی در ارتشهای ملی، به شرکتهای فناوری جایگاهی در عرصه رقابت داده است.
بخش خصوصی در سراسر زنجیره تولید هوش مصنوعی، مزایای قابل توجهی نسبت به بخش دولتی دارد.
از طراحی و تولید واحدهای پردازش گرافیکی (GPU) پیشرفته – سختافزار ضروری که آموزش شبکههای عصبی عمیق را تقویت میکند – گرفته تا مونتاژ و آموزش مدلهای هوش مصنوعی پیشرفته، چندین بازیگر بزرگ مانند آلفابت، آنتروپیک، متا، مایکروسافت، انویدیا و OpenAI مایکروسافت بر صنعت هوش مصنوعی تسلط دارند.
دولتها در سراسر جهان به طور فزایندهای برای زیرساختها و تخصص در نوسازی ارتشهای خود به بخش خصوصی متکی هستند.
انتصاب مدیران ارشد متا، OpenAI و پالانتیر در سپاه نوآوری اجرایی تازه تأسیس Detachment 201 ارتش ایالات متحده، نشان دهنده جایگاه رو به رشد بخش خصوصی در فضای دفاعی و امنیت ملی ایالات متحده است.
در نتیجه، امنیت ملی به طور فزایندهای به نوآوری، استانداردهای اخلاقی و تصمیمات تجاری این شرکتهای قدرتمند فناوری وابسته است و وابستگیهای نهادی و چالشهای حاکمیتی جدیدی را برای ایالتها ایجاد میکند.
میتوان گمان کرد که هوش مصنوعی مجموعهای از مزایای ملموس را در جنگ به همراه خواهد داشت.
پیشرفتها در یادگیری عمیق نویدبخش بهبود دقت هدفگیری، افزایش آگاهی موقعیتی و تسریع تصمیمگیری هستند.
آنها میتوانند به طور بالقوه میزان شناسایی اشتباه هدف را کاهش داده و احتمال آسیب ناخواسته به غیرنظامیان را کاهش دهند.
چندین کاربرد هوش مصنوعی به طور خاص برای کاهش خسارات جانبی طراحی شدهاند.
این سیستمها از حسگرهای گروهی، تجزیه و تحلیل رفتاری و ارزیابیهای الگوی زندگی برای شناسایی غیرنظامیان در حال عبور و شناسایی نمادهای بصری تعیین شده مانند نمادهای مورد استفاده در سایتهای بشردوستانه استفاده میکنند.
چنین سیستمهای هشدار خودکار میتوانند هر زمان که عوامل خطر شناسایی شوند، درگیریها را متوقف کنند. با این حال، کاربردهای نظامی هوش مصنوعی همچنان با چالشهای اخلاقی و حقوقی همراه است.
موانع قانونی پیرامون سیستمهای تسلیحاتی خودمختار و سیستمهای پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی، در حال پیشرفت هستند و باید بر چارچوبها، سیاستها، کنوانسیونها و سنتهای حقوقی و اخلاقیِ به خوبی توسعهیافته قرار گیرند.
این امر، یک خلاء نظارتی ایجاد میکند که خطر نقض اصول اساسی قوانین جنگ، مانند پاسخگویی رزمندگان، استفاده متناسب از زور و مصونیت غیرنظامیان را تشدید میکند.
علاوه بر این، افزایش بیش از حد تصمیمگیری با هوش مصنوعی، خطرات درگیریهای نظامی ناخواسته و در نتیجه، تشدید غیرقابل پیشبینی را تشدید میکند.
این امر به نوبه خود، فضای راهحلهای دیپلماتیک معنادار و به موقع را برای بحرانهای فزاینده محدود میکند.
در نهایت، دموکراتیزه کردن هوش مصنوعی از طریق توزیع مدلهای متنباز پیشرفته، به بازیگران غیردولتی، از جمله گروههای تروریستی و شبهنظامیان مسلح، اجازه میدهد تا توانایی بیشتری برای ایجاد خسارت به دست آورند. با توجه به ادغام اجتنابناپذیر هوش مصنوعی در حوزه نظامی، ایجاد حفاظهای قوی نظارتی و اخلاقی برای کاهش پیامدهای منفی بسیار مهم است.
این گزارش به بررسی کاربردهای متنوع نظامی هوش مصنوعی، ارزیابی چشمانداز نظارتی فعلی، بررسی معضلات قانونی و اخلاقی و ارائه راهبردهایی برای تضمین اجرای مسئولانه آن خواهد پرداخت.
چرا دستیابی بومی به دانش هوش مصنوعی و کوانتوم از نان شب برای هر ایرانی واجبتر است؟
کاربردهای نظامی هوش مصنوعی
ادغام روزافزون هوش مصنوعی در دستگاه امنیت ملی، بدون شک محاسبات چانهزنی نظامی را تغییر خواهد داد، همانطور که با استفاده یا تهدید به استفاده از نیروی نظامی برای دستیابی به اهداف مورد نظر در اختلافات تعریف میشود.
درگیری روسیه و اوکراین بارزترین نمونه از چگونگی انجام جنگ مدرن با گنجاندن هوش مصنوعی و سلاحهای خودمختار در میدان نبرد را ارائه میدهد.
بقیه جهان در حال توجه به تغییر سریع فناوری در هر دو ویژگی کشندگی و لجستیکی جنگ هستند.
در دورانی که سلاحهای دقیق در دهه 1990 به دلیل بهبود هدفگیری، برتری داشتند، استفاده از هوش مصنوعی با سلاحهای خودمختار، این الگو را کاملاً دگرگون کرد و نشان داد که کمیت، خود یک کیفیت است. ارتشها از مدتها قبل از حمله روسیه به اوکراین در سال ۲۰۲۲، در حال تحقیق و آزمایش با این فناوری بودهاند.
ارتش ایالات متحده دههها تحقیق را برای اولین استفاده قابل توجه از هوش مصنوعی در دهه ۱۹۹۰ از طریق ابزار تحلیل پویا و برنامهریزی مجدد، که نمایانگر اولین موج هوش مصنوعی بود که به بهینهسازی لجستیک و برنامهریزی در طول جنگ عراق کمک کرد، انجام داد.
موفقیت آن، ارتش را به سرمایهگذاری بیشتر در «فناوری توانمندساز» و جستجوی کاربردهای مختلف در ارتش سوق داد.
در سال ۲۰۱۷، وزارت دفاع، با همکاری گوگل، پروژه ماون را راهاندازی کرد، ابتکاری با هدف افزایش قابلیتهای نظارتی و اطلاعاتی ارتش با هوش مصنوعی.
این پروژه از شبکههای عصبی پیچیده کانولوشن برای پردازش مقادیر زیادی از دادههای میدان جنگ به منظور خودکارسازی تشخیص و طبقهبندی انواع مختلف اهداف برای درگیری کارآمدتر استفاده کرد.
از زمانی که پالانتیر این پروژه را به دست گرفت، سیستم هوشمند ماون به عنصری شاخص در برنامه اطلاعات، نظارت و شناسایی ناتو تبدیل شده است. توانایی پردازش دادهها با سرعت و مقیاس بیسابقه، سطح جدیدی از آگاهی موقعیتی را در اختیار فرماندهان نظامی قرار داده است که پیامدهای قابل توجهی برای استراتژی نظامی خواهد داشت.
به عنوان مثال، اوکراین از ابزارهای ادغام دادههای پالانتیر مانند MetaConstellation برای ترکیب تصاویر ماهوارهای تجاری با اطلاعات طبقهبندیشده استفاده کرد.
این ادغام به ویژه در طول عملیاتی مانند آزادسازی خرسون تأثیرگذار بود، جایی که اطلاعات دقیق و بلادرنگ در مورد مواضع نیروهای روسی، اجرای حملات دقیق دوربرد را امکانپذیر کرد.
به طور مشابه، اسرائیل Lavender و Gospel، دو سیستم پردازش داده مبتنی بر هوش مصنوعی را مستقر کرده است که هدفگیری با دقت بالا را با استفاده از تصاویر ماهوارهای، ارتباطات رهگیریشده و فیلمهای پهپادی تسهیل میکنند. این مثالها نشان میدهند که چگونه هوش مصنوعی میتواند اطلاعات را دقیقتر و سریعتر تفسیر کند و به طور بالقوه منجر به تصمیمگیری بهتر شود.
ادغام سریع اطلاعات از مجموعهای از حسگرها، جدول زمانی تصمیمگیری را تسریع میکند و باعث ارزیابی مجدد هنجارها در مورد جایگاه انسانها در حلقه تصمیمگیری، چه خارج از آن، چه داخل آن یا در حلقه، میشود. کشورها در حال تدوین رویکردهای متمایزی برای پذیرش هوش مصنوعی هستند.
ایالات متحده توسعه مدلهای خاص حوزه را که از طریق ابتکاراتی مانند پروژه Maven و Overmatch، ابتکار نیروی دریایی ایالات متحده برای ایجاد ناوگانی مبتنی بر داده و هوش مصنوعی که هر حسگر را به هر تیرانداز متصل میکند، در اولویت قرار میدهد.
با دسترسی این مدلها به حجم بیشتری از دادهها، قابلیت فرضی آیندهای که ارتش میتواند از آن استفاده کند، در حوزه هوش مصنوعی پیشبینیکننده قرار دارد.
چنین سیستمهای فرضی در نهایت میتوانند احتمال درگیریهای نظامی و نتایج آنها را با دقت بسیار بالایی پیشبینی کنند.
نمونههای اولیه چنین مدلهایی را میتوان در حال حاضر در بازیهای جنگی استفاده کرد، حوزهای که در آن مدلهای پیشرفته هوش مصنوعی میتوانند با کاهش تعداد حداقل تحلیلگران مورد نیاز برای طراحی سناریوها، افزایش سرعت توسعه مکانیکهای بازیهای جنگی، بهبود غوطهوری شرکتکنندگان، تسریع اجرای تمرینها و شناسایی استراتژیها و اقدامات نوآورانه، بازده معناداری ایجاد کنند. چین نیز مانند ایالات متحده، به سرعت فناوریهای هوش مصنوعی را در برنامهریزی استراتژیک، سناریوهای آموزشی و آموزش نظامی حرفهای به کار گرفته است.
اخیراً، محققان دانشگاه فناوری شیآن از مدل بنیادی DeepSeek برای تولید خودکار شبیهسازیهای نظامی استفاده کردهاند و زمینه آزمایش دیجیتالی را برای رویاروییهای رقابتی آینده فراهم کردهاند.
مدل «ادغام نظامی-مدنی» چین، بخش هوش مصنوعی غیرنظامی را با تشکیلات نظامی ادغام میکند.
این همافزایی، چین را در موقعیتی قرار میدهد تا از هوش مصنوعی در کاربردهای نظامی با مزایای استراتژیک بلندمدت قابل توجه استفاده کند.
در سال 2020، «هوشمندسازی» – پذیرش هوش مصنوعی و فناوریهای پیشرفته – رسماً به عنوان سومین ابتکار عمل تحت هدف شی جینپینگ برای نوسازی ارتش آزادیبخش خلق تا سال 2035 تأیید شد.
این ادغام توسط قوانینی که شرکتهای داخلی را مجبور به همکاری با نهادهای امنیتی دولتی در صورت درخواست میکنند، حفظ میشود.
مدل چین میتواند به طور قابل قبولی ادغام کارآمد تحقیقات مرزی را در کاربردهای نظامی تسهیل کند.
با این حال، در هر صورت، این امر همچنین نشان میدهد که چین صادرات فناوریهای هوش مصنوعی خود را به عنوان یکی دیگر از ابزارهای اهرم ژئوپلیتیکی میداند. همزمان با اینکه ایالات متحده با حضور نظامی فزاینده چین در منطقه هند و اقیانوسیه دست و پنجه نرم میکند، نیروی دریایی ایالات متحده استراتژی جبرانی سوم خود را آغاز کرده است.
هدف این استراتژی مقابله با قدرت نظامی چین با توسعه و استقرار فناوریهای هوش مصنوعی، رباتیک، سلاحهای انرژی هدایتشده مانند لیزر و ریلگان، سلاحهای هایپرسونیک و قابلیتهایی برای مقیاسبندی تولید سیستمهای تسلیحاتی بدون سرنشین است. استراتژی جبرانی سوم به حوزه دیگری اشاره میکند که در آن یادگیری ماشینی مدتهاست که افزایش تخصص انسانی با هوش مصنوعی را تسهیل کرده است: سیستمهای تسلیحاتی خودمختار (AWS).
در حال حاضر، معرفی وسایل نقلیه سطحی بدون سرنشین (USV) و شناورهای شناسایی خودکار جهانی (GARC) میتواند به طور قابل توجهی قدرت این سرویس را در مناطق مورد مناقشه استراتژیک بدون افزایش خطر برای جان اعضای سرویس یا داراییهای ارزشمند سطحی گسترش دهد.
این رویکرد هم از نظر سیاسی و هم از نظر عملیاتی پایدار است و نشان میدهد که چگونه میتوان از هوش مصنوعی برای مقابله با تهدیدات نظامی استفاده کرد.
در حوزه هوایی، ابتکاراتی مانند تلاش برای همکاری تیمی خودمختار و مفهوم Loyal Wingman نیروی هوایی، عملیاتهای انفرادی را قادر میسازد تا چندین پلتفرم خودمختار را فرماندهی و هماهنگ کنند.
این پلتفرمها میتوانند ماموریتها را با هماهنگی انجام دهند، دادهها را به اشتراک بگذارند و در زمان واقعی با تهدیدات پویا سازگار شوند.
این امر یک قابلیت شبکهای گروهی ایجاد میکند که میتواند حتی سیستمهای دفاعی پیشرفته دشمن را فریب داده و مغلوب کند.
با افزایش مهارت AWS در عملیات در محیطهای پیچیده، ادغام آن در عملیات نظامی ممکن است به طور فزایندهای برای موفقیت ماموریتها اهمیت پیدا کند.
عملیاتهای آینده ممکن است شامل پهپادهای گروهی باشد که سرکوب را فراهم میکنند، گشتزنی زیر آب در نقاط حساس استراتژیک حیاتی یا مهمات پرسهزنی که میتوانند اهداف را بر اساس تغییر شرایط تاکتیکی اولویتبندی کنند.
این قابلیتهای در حال تکامل، هم فرصتها و هم خطراتی را ارائه میدهند که مستلزم بررسی عمیقتر توسط استراتژیستهای نظامی است.
از یک سو، AWS ارتشها را قادر میسازد تا قدرت را با دقت و با هزینه کم اعمال کنند و در نتیجه اعتبار تهدیدها را بدون نیاز به بسیج در مقیاس بزرگ افزایش دهند.
از سوی دیگر، AWS همواره فرصتهای نوظهوری را برای تشدید ناخواسته ایجاد میکند.
همزمان با بررسی مسیرهای جایگزین برای تنظیم کاربردهای نظامی هوش مصنوعی، باید به فرصتها و خطرات هر دو توجه کافی شود.
چشمانداز نظارتی
مقررات داخلی
چرا دستیابی بومی به دانش هوش مصنوعی و کوانتوم از نان شب برای هر ایرانی واجبتر است؟
چین، هند، ایالات متحده و بریتانیا همگی اصول قانونی حاکم بر کاربردهای نظامی هوش مصنوعی در داخل کشور را تأیید کردهاند.
نوعی همگرایی بین این مجموعه اصول ملی وجود دارد که نشان دهنده تلاشهای مداوم قدرتهای بزرگ برای تطبیق سنتهای فرهنگی متمایز و الزامات اخلاقی با الزامات ژئوپلیتیکی مشترک است. در سال ۲۰۲۰، وزارت دفاع ایالات متحده پنج اصل اخلاقی را برای هدایت توسعه و استقرار قابلیتهای هوش مصنوعی اتخاذ کرد: مسئولیتپذیری، عدالتپذیری، قابلیت ردیابی، قابلیت اطمینان و قابلیت مدیریت.
مسئولیتپذیری مستلزم اعمال مراقبت کافی در توسعه و استقرار قابلیتهای هوش مصنوعی است.
عدالتپذیری مستلزم به حداقل رساندن سوگیری ناخواسته در کاربردها است.
قابلیت ردیابی مستلزم آموزش پرسنل عملیاتی در مجموعه مهارتها و روشهای مورد نیاز برای استقرار قابلیتهای هوش مصنوعی است.
قابلیت اطمینان مستلزم تعیین موارد استفاده بالقوه برای کاربردهای هوش مصنوعی و مهندسی پروتکلهای آزمایش و نظارت است که میتوانند عملکرد کافی را در آن موارد استفاده تضمین کنند.
در نهایت، قابلیت مدیریت مستلزم شناسایی پیشگیرانه پیامدهای ناخواسته در موارد استفاده بالقوه و گنجاندن پروتکلهای غیرفعالسازی در قابلیتهای هوش مصنوعی است.
این اصول در سال ۲۰۲۳ توسط فرمان اجرایی ریاست جمهوری ۱۴۱۱۰ در مورد «توسعه و استفاده ایمن، مطمئن و قابل اعتماد از هوش مصنوعی» تقویت شدند.
«استراتژی هوش مصنوعی دفاعی» بریتانیا که در سال ۲۰۲۲ منتشر شد و «ارزیابی چارچوب اطلاعات قابل اعتماد» هند که در سال ۲۰۲۴ منتشر شد، هر دو اصول مشابهی را بیان کردند.
در مقابل، چین هنوز هیچ یک از این اصول حاکمیتی را رسمی نکرده است.
با این حال، «مقاله موضعگیری چین در مورد کاربرد نظامی هوش مصنوعی» که در سال ۲۰۲۲ در سازمان ملل متحد ارائه شد، الزامات کلیتری مانند ایمنی و کنترل در استفاده را تأیید میکند و بر لزوم تبعیت استفادههای ملی از هوش مصنوعی از منافع مشترک بشریت تأکید دارد. شباهتها در نامگذاریهای نظارتی مورد استفاده توسط چهار کشور، حداقل نشاندهندهی اذعان مشترک به نیاز به تنظیم مقررات داخلی برای کاربردهای نظامی هوش مصنوعی است.
با این حال، این لایهی نازک توافق، بیش از آنکه آشکار کند، مبهم میکند.
به دلیل تفاوتها در سیاستهای داخلی، میراث اجتماعی-اقتصادی و تعهدات بینالمللی، چین، هند، ایالات متحده و بریتانیا احتمالاً الزامات نظارتی مانند مسئولیتپذیری، عدالت، قابلیت ردیابی، قابلیت اطمینان و قابلیت حکومتداری را به شیوهای کاملاً متفاوت عملیاتی میکنند.
در عوض، این تفاوتها ممکن است رقابت ژئوپلیتیکی، بهویژه بین ایالات متحده و چین را تشدید کند.
در سال 2025، رئیس جمهور آمریکا، فرمان اجرایی 14110 را که راهنماییهای اخلاقی را بر کاربردهای بین حوزهای هوش مصنوعی تحمیل میکرد، لغو کرد و در عوض، فرمان اجرایی 14179 با عنوان «رفع موانع رهبری آمریکا در هوش مصنوعی» را تصویب کرد.
این فرمان جدید، تغییر آشکاری را به سمت مقرراتزدایی در تلاش برای «سلطهی جهانی هوش مصنوعی به منظور ارتقای شکوفایی انسان، رقابتپذیری اقتصادی و امنیت ملی» نشان میدهد.
«طرح اقدام هوش مصنوعی» ایالات متحده که در ژوئیه ۲۰۲۵ رونمایی شد، مقرراتزدایی را به عنوان رویکردی ترجیحی برای تسریع نوآوری هوش مصنوعی برجسته کرد.
این طرح، در کنار سایر موارد، دفتر مدیریت و بودجه را موظف میکند تا «مقررات، قوانین، تفاهمنامهها، دستورات اداری، اسناد راهنما، بیانیههای سیاستگذاری و توافقنامههای بین سازمانی را که به طور غیرضروری مانع توسعه یا استقرار هوش مصنوعی میشوند، شناسایی، اصلاح یا لغو کند.»
در مقابل، چین همچنان به دنبال استراتژی ادغام نظامی-مدنی خود است.
نمونه قابل توجه این امر، تصویب مقررات مدیریت توصیه الگوریتم خدمات اطلاعات اینترنتی توسط اداره فضای مجازی چین در سال ۲۰۲۲ است که شرکتها را ملزم به ثبت الگوریتمهایی با «ویژگیهای افکار عمومی» و «قابلیتهای بسیج اجتماعی» در یک سیستم بایگانی ملی مرکزی میکند.
این روند در مقررات داخلی – اصول اخلاقی مشترک اما تشدید رقابت در امنیت – هم فرصتها و هم موانعی را برای حکومت بینالمللی ایجاد میکند.
حکومتداری چندپاره در میان دولت-ملتها
چرا دستیابی بومی به دانش هوش مصنوعی و کوانتوم از نان شب برای هر ایرانی واجبتر است؟
در حال حاضر، هیچ توافق جهانی برای تنظیم کاربردهای نظامی هوش مصنوعی وجود ندارد.
در عوض، این حوزه موضوعی با حضور همپوشانی چندین چارچوب نظارتی غیرالزامآور مشخص میشود.
در سال ۲۰۱۹، گروه ۲۰، تحت ریاست ژاپن، چارچوب «اصول هوش مصنوعی» را تصویب کرد که پنج گروه از اصول حاکمیتی را مشخص میکند: شمول و پایداری، محوریت انسان، شفافیت و قابلیت توضیح، امنیت و ایمنی و پاسخگویی.
در سال ۲۰۲۳، گروه ۷ فرآیند هوش مصنوعی هیروشیما (HAIP) را تصویب کرد، یک چارچوب سیاستی که شامل دو مجموعه از دستورالعملهای سطح بالا است: «اصول راهنمای بینالمللی برای همه بازیگران هوش مصنوعی و برای سازمانهایی که سیستمهای پیشرفته هوش مصنوعی را توسعه میدهند» و «آییننامه بینالمللی رفتار برای سازمانهایی که سیستمهای پیشرفته هوش مصنوعی را توسعه میدهند».
این دستورالعملها برای ایجاد یک چارچوب ریسکمحور در نظر گرفته شدهاند که میتواند توسعه هوش مصنوعی مرزی را به سمت نوآوری مسئولانه هدایت کند.
بسیاری از توسعهدهندگان پیشرو هوش مصنوعی، از جمله Anthropic، Google، Microsoft و OpenAI، داوطلبانه از HAIP پیروی میکنند.
پذیرش از طریق یک مکانیسم گزارشدهی و صدور گواهینامه داوطلبانه که توسط OECD اجرا میشود، نظارت میشود.
فراتر از G7، HAIP از طریق گروه دوستان HAIP که در حال حاضر شامل پنجاه و شش کشور و بیست و سه ذینفع غیردولتی از جمله شرکتهای بزرگ فناوری و آژانسهای سازمان ملل متحد است، حمایت بیشتری کسب کرده است. فراتر از باشگاههای چندجانبه مانند گروه هفت و گروه بیست، اتحادهای نظامی و سازمانهای منطقهای نیز شروع به تدوین چارچوبهایی برای تنظیم استفاده از هوش مصنوعی در میان کشورهای عضو خود کردهاند.
در سال 2021، ناتو استفاده مسئولانه از هوش مصنوعی را بر اساس انطباق با شش اصل کلی تعریف کرد: قانونی بودن، مسئولیتپذیری و پاسخگویی، قابلیت توضیح و ردیابی، قابلیت اطمینان، قابلیت حکومتداری و کاهش سوگیری.
قانون هوش مصنوعی اتحادیه اروپا مسلماً مهمترین تلاش نظارتی چندجانبه در این حوزه تا به امروز است.
با این حال، توجه به این نکته ضروری است که ماده 2(3) قانون هوش مصنوعی به صراحت فناوریهایی را که منحصراً برای استفاده نظامی در نظر گرفته شدهاند، مستثنی میکند.
این استثنا بهویژه با توجه به اینکه در 20 ژانویه 2021، پارلمان اروپا تهدید نظامی ناشی از هوش مصنوعی را تصدیق کرد و بر اهمیت هماهنگی سیاستهای کشورهای عضو در تنظیم کاربردهای نظامی هوش مصنوعی در سطح اروپا تأکید کرد، برجسته است.28 بخش عمدهای از این تلاشهای نظارتی بر چالشهای ارائه شده توسط سیستمهای سلاحهای خودکار مرگبار (LAWS) متمرکز بوده است.
LAWS را میتوان به عنوان سیستمهای سلاحی تعریف کرد که برای شناسایی، انتخاب و درگیری با اهداف بدون نیاز به نظارت بلادرنگ توسط یک اپراتور انسانی طراحی شدهاند. کار در این راستا در سال 2013 آغاز شد، زمانی که کشورهای عضو کنوانسیون سلاحهای متعارف خاص، یک گروه متخصص را برای مطالعه تأثیر فناوریهای نوظهور بر کاربردهای احتمالی LAWS تشکیل دادند.
در سال 2016، به این گروه مأموریت داده شد تا توصیههایی را برای تنظیم چندجانبه LAWS ارائه دهد.
در سال 2019، این گروه از کارشناسان دولتی در زمینه فناوریهای نوظهور در حوزه سیستمهای سلاحهای خودکار مرگبار، اصول راهنمای اصلی، از جمله اولویت حقوق بینالملل بشردوستانه، اهمیت نظارت انسانی، فوریت گنجاندن پروتکلهای ارزیابی و کاهش ریسک در طراحی سلاحهای خودکار و هشدار در مورد انسانانگاری LAWS را تأیید کردند.
این گروه چهار مسیر جایگزین برای گنجاندن این اصول در رویه بینالمللی را در نظر گرفت.
اول، کشورهای امضاکننده میتوانند ابزارهای قانونی برای تنظیم معتبر استفاده از LAWS توسعه دهند.
دوم، آنها میتوانند اعلامیهای غیرالزامآور صادر کنند که اصول اصلی نظارتی را تشریح کند.
سوم، آنها میتوانند ابزارهای قانونی موجود را تطبیق دهند.
و چهارم، آنها میتوانند به سادگی کفایت ابزارهای قانونی موجود را تأیید کنند.
کشورهای امضاکننده هنوز هیچ یک از این دو مسیر را انتخاب نکردهاند. در حال حاضر، 129 کشور، از جمله برزیل، چین، ایتالیا و آفریقای جنوبی، طرفدار یک توافقنامه الزامآور قانونی هستند.
تنها دوازده کشور، از جمله هند، روسیه، بریتانیا و ایالات متحده، با چنین توافقنامهای مخالفند، در حالی که پنجاه و چهار کشور هنوز موضع خود را اعلام نکردهاند.
دبیرکل سازمان ملل متحد و سازمانهای متخصص مانند کمیته بینالمللی صلیب سرخ نیز از یک ابزار الزامآور قانونی برای محدود کردن استفاده از LAWS حمایت کردهاند.
این فقدان پیشرفت ملموس، تلاشهای جامعه مدنی فراملی، از جمله سازمانهایی مانند «روباتهای قاتل را متوقف کنید» و سایر مجامع چندجانبه، مانند مجمع عمومی سازمان ملل متحد، را برای ارائه پیشنهادهای معنادار برای چارچوبهای نظارتی بالقوه، تسریع کرده است.
به عنوان مثال، در اکتبر 2023، اتریش قطعنامهای را به کمیته خلع سلاح و امنیت بینالمللی مجمع عمومی سازمان ملل متحد پیشنهاد داد و از دبیرکل خواست تا مواضع رسمی کشورهای عضو را بررسی کرده و گزارشی در مورد این موضوع برای مجمع عمومی تهیه کند.
این قطعنامه، که توسط بیش از چهل کشور حمایت شده بود، در دسامبر 2023 توسط مجمع عمومی تصویب شد. علاوه بر این، کشورها به طور فزایندهای در تلاش برای گسترش دامنه مقررات چندجانبه کاربردهای نظامی هوش مصنوعی فراتر از قوانین هستند.
به عنوان مثال، اجلاس جهانی 2023 در مورد هوش مصنوعی مسئولانه در حوزه نظامی، که به میزبانی مشترک هلند و کره جنوبی برگزار شد، تلاش کرد تا تمام موارد استفاده قابل تصور را در حوزه نظارتی قرار دهد.
این اجلاس همچنین یک کمیسیون جهانی اختصاصی برای بهبود درک کاربردهای نظامی بالقوه هوش مصنوعی و صدور راهنمایی در مورد الزامات استفاده مسئولانه ایجاد کرد.
در طول این اجلاس، ایالات متحده از اعلامیه سیاسی خود در مورد استفاده نظامی مسئولانه از هوش مصنوعی و استقلال رونمایی کرد.
این اعلامیه اصول حاکم بر توسعه، استقرار و استفاده مسئولانه از هوش مصنوعی نظامی را تشریح میکند و به ویژه بر اهمیت شفافیت، آموزش کافی انسانی و آزمایش دقیق سیستمهای جدید تأکید دارد.
تا نوامبر 2024، پنجاه و هشت کشور این اعلامیه را تأیید کردهاند.
به طور مشابه، قطعنامه 79/239 مجمع عمومی، که در دسامبر 2024 تصویب شد، اذعان کرد که حقوق بینالملل بشردوستانه باید در تمام مراحل چرخه حیات هرگونه کاربرد نظامی هوش مصنوعی، از جمله “سیستمهای فعال شده توسط هوش مصنوعی” اعمال شود.
استقرار مسئولانه هوش مصنوعی در زمینههای نظامی صرفاً یک چالش فنی نیست، بلکه یک ضرورت حاکمیتی است.
ریسکهای استراتژیک و چالشهای نظارتی
چرا دستیابی بومی به دانش هوش مصنوعی و کوانتوم از نان شب برای هر ایرانی واجبتر است؟
پیچیدگی رنگارنگ ابتکارات چندجانبهی ناهمگون با هدف تنظیم استفادههای نظامی از هوش مصنوعی، نشان دهندهی آگاهی مشترک از خطرات استراتژیکی است که کاربردهای نظامی هوش مصنوعی برای همه کشورها، به ویژه قدرتهای بزرگ، ایجاد میکند.
این خطرات شامل آستانههای کاهشیافته برای درگیری، مسیرهای تشدید غیرقابل پیشبینی، آسیبپذیریهای عملیاتی پیشبینینشده و مسابقات تسلیحاتی بین ایالتی است.
اول، استقرار سیستمهای هوش مصنوعی مستقل ممکن است آستانههای سیاسی و اخلاقی برای ورود به درگیری نظامی را کاهش دهد، زیرا هزینههای انسانی جنگ، حداقل با احتساب تلفات غیرنظامیان، کاهش مییابد.
این کاهش به نوبه خود ممکن است به تشدید ناپایدار درگیری کمک کند.
به عنوان مثال، سیستمهای LAWS برای فشردهسازی جدول زمانی تصمیمگیری از حسگر تا تیرانداز از دقیقه به ثانیه طراحی شدهاند.
این امر، فرصت مشورت انسانی را کاهش میدهد و احتمال تشدید ناخواسته را افزایش میدهد. از آنجا که هوش مصنوعی به راحتی میتواند فعالیتهای دشمن را – مثلاً به دلیل دادههای ناقص یا گمراهکننده – اشتباه تفسیر کند، ممکن است پاسخهای زودرس یا نامتناسبی را نیز توصیه کند.
سوگیری تشدید درگیری ناشی از اتوماسیون بیش از حد، همچنین میتواند کانالها و روشهای دیپلماتیک تثبیتشده برای کاهش به موقع درگیری را تضعیف کند.
این خطر با ظرفیت سیستمهای پیشرفته هوش مصنوعی برای رفتارهای نوظهور، بیشتر تشدید میشود. چنین رفتارهایی میتوانند از برنامههای عملیاتی یا قوانین تعامل منحرف شوند.
به عنوان مثال، یک تمرین بازی جنگی که توسط موسسه هوش مصنوعی انسان محور استنفورد انجام شد، نشان داد که در غیاب نظارت انسانی، LLM های مورد بررسی، رفتار تشدید غیرقابل پیشبینی از خود نشان دادند. سوم، سیستمهای مبتنی بر هوش مصنوعی از دو نوع آسیبپذیری عملیاتی پیشبینینشده رنج میبرند: شکستهای غیرعمدی و بازی با مشخصات.
شکستهای غیرعمدی معمولاً ناشی از بیشبرازش در مرحله آموزش هستند که منجر به تولید پاسخهای نامتجانس توسط سیستم آموزشدیده در مواجهه با دادههای دنیای واقعی میشود که از نظر آماری با دادههای آموزشی آن متفاوت است.
درگیریهای نظامی بسیار پیچیده هستند و بنابراین، مدلهایی که بر اساس دادههای ناکافی و غنی آموزش دیدهاند، ممکن است الگوهای عمل-پاسخ را بیشبرازش کنند که میتواند در سناریوهای خاص دنیای واقعی نامربوط یا مخرب باشد.
در مقابل، بازی با مشخصات به ظرفیت یک مدل هوش مصنوعی برای دستیابی به حداقل تحقق هدف از پیش تعیینشده خود بدون دستیابی به نتیجه کیفی که مدل برای تولید آن طراحی شده بود، اشاره دارد.
به عنوان یک سناریوی فرضی از چنین هک پاداشی در حوزه نظامی، یک مدل هوش مصنوعی را در نظر بگیرید که برای خنثیسازی حداکثری دشمن بهینه شده است و تصمیم دارد اهداف کمارزش با تعداد بیشتری دشمن را بر اهداف باارزش اولویتبندی کند.
هم شکستهای غیرعمدی و هم بازی با مشخصات میتوانند با تلاشهای بازیگران مخرب برای دستکاری و تخریب سیستمهای هوش مصنوعی تشدید شوند.
چنین حملاتی شامل مسمومیت دادهها میشود، جایی که دشمنان دادههای آموزشی را برای جاسازی نقص در رفتار مدل خراب میکنند، و جعل، جایی که دشمنان ورودیهای بلادرنگ را برای غیرفعال کردن یا تحریف عملکرد هوش مصنوعی دستکاری میکنند.
ارتشهای ایالتی که مدلهای بنیادی تجاری را اقتباس میکنند، به دلیل اتکا به منابع داده و کد گسترده و تأیید نشده، با خطرات بیشتری روبرو هستند و آنها را در برابر هک در پشتی آسیبپذیر میکند. در نهایت، گسترش قابلیتهای هوش مصنوعی در میان بازیگران دولتی و غیردولتی میتواند به رقابتهای تسلیحاتی و بیثباتی استراتژیک کمک کند.
مدلهای پایه متنباز و تجاری را میتوان به راحتی برای کاربردهای نظامی تغییر کاربری داد.
این امر موانع ورود بازیگران غیردولتی مانند سازمانهای تروریستی را کاهش میدهد.
به نوبه خود، این سهولت دسترسی به قابلیتهای پیشرفته هوش مصنوعی که نویدبخش مزایای تاکتیکی یا استراتژیک برای پذیرندگان اولیه است، «مسابقه به پایین» را در مورد استانداردهای ایمنی و قابلیت اطمینان در میان بازیگران دولتی و غیردولتی به طور یکسان تشویق میکند.
چنین فشارهای رقابتی ممکن است استقرار سریع سیستمهایی را که به اندازه کافی بررسی نشدهاند، تقویت کند و هم خطرات ناشی از آسیبپذیریهای عملیاتی و هم خطرات ناشی از تشدید ناخواسته را تشدید کند.
با این وجود، آگاهی مشترک از این خطرات در میان دولتها هنوز به توافق اساسی در مورد اصول الزامآوری که میتواند به آنها در تنظیم متقابل این خطرات کمک کند، تبدیل نشده است.
این شکست نظارتی تا حدودی نشاندهنده اختلاف در منافع امنیت ملی و میراث اجتماعی-اقتصادی آنهاست.
اما همچنین منعکسکننده چالشهای ساختاری است که در ذات استفادههای نظامی از هوش مصنوعی وجود دارد و به عنوان یک مشکل نظارتی در نظر گرفته میشود.
یکی از این چالشها شایسته توجه ویژه است: پاسخگویی مبهم. حقوق بینالملل مستلزم انتساب روشن مسئولیت اقدامات در طول درگیری است.
سیستمهای هوش مصنوعی این الزام را پیچیده میکنند زیرا میتوانند بدون نظارت انسانی اقداماتی را انجام دهند.
این احتمال یک حائل اخلاقی ایجاد میکند که اپراتورها، فرماندهان و توسعهدهندگان را از پیامدهای واقعی اقدامات انجام شده توسط سیستمهای خاص دور میکند.
بدون مسیرهای روشن پاسخگویی، اثر بازدارنده مجازات قانونی تضعیف میشود و نگرانکنندهتر اینکه، مفهوم مسئولیت بینالمللی برای نقض قوانین درگیری مسلحانه در معرض خطر از دست دادن کاربرد قرار میگیرد.
برای اینکه دولتها در مورد مقررات چندجانبه الزامآور برای کنترل استفادههای نظامی از هوش مصنوعی به توافق برسند، ابتدا لازم است که قدرتهای بزرگ، بهویژه، یک راهحل مورد توافق متقابل برای این مشکل پاسخگویی مبهم ابداع کنند.
برای اینکه دولتها در مورد مقررات چندجانبه الزامآور برای کنترل استفادههای نظامی از هوش مصنوعی به توافق برسند، ابتدا لازم است که قدرتهای بزرگ، بهویژه، یک راهحل مورد توافق متقابل برای این مشکل پاسخگویی مبهم ابداع کنند.
توصیههایی برای هوش مصنوعی نظامی مسئولانه
ادغام هوش مصنوعی در دفاع و امنیت ملی احتمالاً فراگیر خواهد شد. پیچیدگی محض تأثیر مورد انتظار آن بر نظم بینالمللی، نیازمند یک واکنش سیاسی جامع است.
برای بیان چنین واکنشی، ما یک چارچوب جدید و آیندهنگر پیشنهاد میکنیم: حکمرانی امنیتی پیشگیرانه.
ما پیشنهاد میکنیم که «حکمرانی امنیتی پیشگیرانه» را به عنوان تدوین پیشگیرانه هنجارهای خاص بینالمللی با هدف تنظیم الگوهای همکاری و درگیری بین دولتها و بازیگران غیردولتی در حوزه امنیت ملی درک کنیم.
ما قبلاً اشاره کردهایم که کاربردهای نظامی هوش مصنوعی در حال حاضر توسط هیچ چارچوب چندجانبه واحدی تنظیم نمیشوند.
ما همچنین استدلال کردهایم که این فقدان مقررات الزامآور، خطرات استراتژیک پایداری را برای دولتها و بازیگران غیردولتی ایجاد میکند.
بنابراین، تمرکز ما بر بیان یک چارچوب حکمرانی جدید برای این حوزه موضوعی، با اصل احتیاط حقوق بینالملل مطابقت دارد که طرفدار اقدام قبل از آسیب است.
برای بهبود ایمنی، قابلیت اعتماد و انطباق استاندارد کاربردهای نظامی هوش مصنوعی، ما یازده توصیه مشخص را در چهار دسته قابل اجرا ارائه میدهیم.
اول. اولویتبندی انطباق با طراحی و مهندسی اخلاقی
ادغام مستقیم تعهدات قانونی بینالمللی و اصول اخلاقی در مشخصات فنی و فرآیندهای توسعه سیستمهای هوش مصنوعی، عنصر اساسی مدیریت امنیتی پیشگیرانه است.
۱. الزام «انطباق بر اساس طراحی» در توسعه هوش مصنوعی: کشورها باید الزامات قانونی روشنی را وضع کنند که سیستمهای هوش مصنوعی از ابتدا به گونهای طراحی شوند که با قوانین بینالمللی مطابقت داشته باشند.
این به معنای گنجاندن مستقیم هنجارهای بینالمللی در معماری مدلهای آیندهنگر و پارامترهای تصمیمگیری است، نه تلاش برای ایجاد انگیزه برای انطباق با قوانین گذشته.
اگر نتوان سیستمی را طوری مهندسی کرد که از انطباق با هنجارهای بینالمللی اطمینان حاصل شود، توسعه آن باید متوقف شود.
۲. پیادهسازی هیئتهای بررسی اخلاقی قوی برای توسعه هوش مصنوعی: فراتر از رعایت قوانین، هیئتهای بررسی اخلاقی چندرشتهای، شامل متخصصان اخلاق، محققان حقوقی، استراتژیستهای نظامی و توسعهدهندگان هوش مصنوعی، باید در چرخه حیات توسعه مدلهای هوش مصنوعی ادغام شوند.
این هیئتها پروژههای هوش مصنوعی را از نظر نگرانیهای اخلاقی بالقوه بررسی میکنند و اطمینان حاصل میکنند که سیستمهای هوش مصنوعی مستقر نمیتوانند رفتارهایی را انجام دهند که میتواند الزامات قطعی کرامت انسانی را نقض کند.
۳. ادغام آموزش حقوق بینالملل و اخلاق برای توسعهدهندگان هوش مصنوعی و پرسنل نظامی: برای پشتیبانی از انطباق با الزامات در حین طراحی، توسعهدهندگان هوش مصنوعی و پرسنل نظامی باید آموزشهای روشنی در جنبههای مربوط به اخلاق و حقوق بینالملل دریافت کنند.
دوم. تدوین استانداردهای کافی برای آزمایش و صدور گواهینامه
روشهای فعلی آزمایش و ارزیابی (T&E) که برای سیستمهای تسلیحاتی سنتی طراحی شدهاند، برای پیچیدگیهای هوش مصنوعی ناکافی هستند. این نارسایی، توسعه استانداردهای خاص هوش مصنوعی را ضروری میسازد.
۱. توسعه چارچوبهای تأیید و اعتبارسنجی (V&V) مختص هوش مصنوعی: چارچوبهای جدید V&V برای در نظر گرفتن رفتارهای یادگیری پویا، ابهام در پاسخگویی و آسیبپذیریهای عملیاتی ذاتی در مدلهای مرزی، به شدت مورد نیاز هستند.
این چارچوبها باید شامل آزمایشهای دقیق استرس تحت شرایط جنگی شبیهسازی شده باشند که برای پیشبینی عملکرد، بهویژه در محیطهای جدید، طراحی شدهاند.۴۵
۲. نظارت و حسابرسی مداوم عملکرد پس از استقرار را الزامی کنید: با توجه به اینکه سیستمهای هوش مصنوعی میتوانند در سناریوهای دنیای واقعی رفتار غیرقابل پیشبینی از خود نشان دهند، نظارت و حسابرسی مداوم عملکرد پس از استقرار ضروری است.
این شامل ردیابی مداوم، ارزیابیهای منظم، آموزش مجدد، آزمایش مجدد و تأیید مجدد سیستم میشود.
۳. ایجاد استانداردهای بینالمللی برای آزمایش و قابلیت اطمینان هوش مصنوعی: همکاری بینالمللی برای توسعه و ارتقای استانداردهای جهانی برای شیوههای مؤثر آموزش و ارزیابی حاکم بر کاربردهای نظامی هوش مصنوعی حیاتی است.
این استانداردها باید با هدف تضمین یک مبنای مشترک از استحکام و قابلیت اطمینان برای همه سیستمها باشند.
برای اینکه دولتها در مورد مقررات چندجانبه الزامآور برای کنترل استفادههای نظامی از هوش مصنوعی به توافق برسند، ابتدا لازم است که قدرتهای بزرگ، بهویژه، یک راهحل مورد توافق متقابل برای این مشکل پاسخگویی مبهم ابداع کنند.
تضمین شفافیت و قابلیت توضیح
ماهیت جعبه سیاه بسیاری از سیستمهای هوش مصنوعی و سوگیریهای ذاتی در دادهها، چالشهای مهمی را برای درک انسان و اعتماد اپراتور ایجاد میکند.
۱. اولویتبندی هوش مصنوعی قابل توضیح (XAI) در سیستمهای نظامی: تحقیق و توسعه باید تکنیکهای XAI را که میتوانند تصمیمات الگوریتمی را برای اپراتورهای انسانی، بازرسان حقوقی و سایر ذینفعان قابل فهم کنند، در اولویت قرار دهد.
پذیرش یکجانبه XAI ممکن است به عنوان یک نقطه ضعف استراتژیک در مسابقه تسلیحاتی نوپای هوش مصنوعی تلقی شود.
بنابراین، پذیرش قاطع اصول XAI باید سنگ بنای توافقنامههای چندجانبه کنترل تسلیحات باشد که بر توسعه نظامی و استقرار سیستمهای پیشرفته هوش مصنوعی حاکم است.
۲. افزایش شفافیت در مورد نقش و محدودیتهای هوش مصنوعی برای مقابله با سوگیری اتوماسیون: اپراتورها و فرماندهان مستعد سوگیری اتوماسیون هستند، که نشاندهنده اتکای بیش از حد به راهنمایی هوش مصنوعی حتی در شرایطی است که آن راهنمایی از نظر واقعی نادرست یا به عبارت دیگر، از نظر اخلاقی یا قانونی، ناکافی باشد.
برای مقابله با سوگیری اتوماسیون، باید شفافیت بیشتری در مورد محدودیتهای عملکردی سیستمهای مستقر و کیفیت دادههای آموزشی آنها وجود داشته باشد.
چرا دستیابی بومی به دانش هوش مصنوعی و کوانتوم از نان شب برای هر ایرانی واجبتر است؟
چهارم. تقویت چارچوبهای قانونی و سیاسی برای پاسخگویی
ادغام هوش مصنوعی در عملیات نظامی، انتساب مسئولیت را پیچیده میکند و نیازمند چارچوبهای قانونی و سیاسی روشن برای تضمین پاسخگویی از طراحی تا استقرار است.
۱. جایگاه رفتار انسانی در قبال مسئولیت دولت را روشن کنید: سیاستها باید به صراحت مشخص کنند که چگونه مسئولیت فردی و دولتی تحت قوانین بینالمللی در طول چرخه عمر سیستمهای هوش مصنوعی مستقر اعمال میشود تا اطمینان حاصل شود که استقلال، سرعت و غیرقابلپیشبینی بودن آنها باعث ایجاد شکاف در مسئولیت قانونی نمیشود.
۲. تدوین معیارهای بررسی دقیق برای اکتساب و استفاده از هوش مصنوعی: کشورهایی که فناوریهای هوش مصنوعی را از اشخاص ثالث، مانند شرکتهای خصوصی، خریداری میکنند، باید موظف باشند از مطابقت آن سیستمها با هنجارهای بینالمللی اطمینان حاصل کنند.
این الزام شامل جستجوی دقیق اطلاعات از توسعهدهندگان و آزمایش سیستمهای اکتسابی برای انطباق با قوانین است.
۳. عملیاتی کردن تعهدات قانونی بینالمللی به مشخصات فنی: برای تبدیل اصول انتزاعی قانونی و اخلاقی به دستورالعملهای عملیاتی ملموس برای توسعهدهندگان هوش مصنوعی و برنامهریزان نظامی، به تحقیق نیاز است.
این امر شامل تطبیق فرآیندهای بررسی قانونی موجود، مانند، به ویژه، ارزیابیهای ماده ۳۶ تحت پروتکل الحاقی اول کنوانسیونهای ژنو ۱۹۴۹، برای در نظر گرفتن صریح ویژگیهای متمایز مدلهای پیشنهادی هوش مصنوعی است.
استقرار مسئولانه هوش مصنوعی در زمینههای نظامی صرفاً یک چالش فنی نیست، بلکه یک ضرورت حاکمیتی است.
اتخاذ یک رویکرد پیشگیرانه حاکمیت امنیتی، که با انطباق با طراحی، آزمایش دقیق، شفافیت و پاسخگویی شفاف مشخص میشود، برای مذاکره در مورد فرصتها و خطرات پیچیده ناشی از کاربردهای نظامی واقعی و بالقوه هوش مصنوعی ضروری است.
این استراتژی جامع با هدف اطمینان از ایمن، قابل اعتماد و قانونی بودن سیستمهای هوش مصنوعی قبل از ورود به سناریوی درگیری انجام میشود.
با اتخاذ این چارچوب، کشورها میتوانند اطمینان حاصل کنند که استقرار هوش مصنوعی نظامی به صلح بینالمللی کمک میکند، نه اینکه از آن بکاهد.
فوریت این وظیفه را نمیتوان نادیده گرفت: انتخابهای سیاسی که امروز انجام میشود، آینده ثبات بینالمللی و در واقع، ماهیت جنگ را عمیقاً شکل خواهد داد.
جهان تحلیل- تحلیل اخبار و رویدادهای مهم ۲۴ ساعت گذشته از منابع معتبر جهان در یک نگاه
این وب سایت از کوکی ها استفاده می کند. با ادامه استفاده از این وب سایت شما در حال دادن رضایت به کوکی ها در حال استفاده هستید. بازدید از سیاست حفظ حریم خصوصی و کوکی. موافقم