جنگ افزارسازی هوش مصنوعی: عمومی
این منبع که توسط **مرکز ملی اطلاعات زیستفناوری (NCBI)** منتشر شده، به بررسی موضوع **تسلیح هوش مصنوعی (AI)** میپردازد و بر خطراتی که **سیستمهای تسلیحاتی خودمختار (AWS)** برای بشریت ایجاد میکنند، تأکید دارد. جنگ افزارسازی هوش مصنوعی: عمومی
نویسنده با اشاره به مثال سلاحهای شیمیایی و **پروتکل ژنو**، استدلال میکند که AWS، از جمله **رباتهای قاتل** و **ابرهای پهپادی**، اصل **تمایز** را که در اخلاق نظامی معاصر ضروری است، نقض میکنند.
این مقاله خواستار **افزایش آگاهی عمومی** در مورد این تهدیدات و تدوین **سیاستهای قانونی بینالمللی** برای ممنوعیت یا تنظیم استفاده از این تسلیحات است، زیرا خطراتی مانند **هک متخاصم** وضعیت را پیچیدهتر میکند.
همچنین، این منبع به کوتاهیها و **نقایص قانون هوش مصنوعی اروپا** در پرداختن به تسلیحات خودمختار اشاره میکند.
پیامدهای اخلاقی، حقوقی و امنیتی ساخت جنگ افزارهای خودمختار هوش مصنوعی برای جامعه چیست؟
پرسش شما درباره پیامدهای اخلاقی، حقوقی و امنیتی ساخت جنگافزارهای خودمختار هوش مصنوعی (AWS) برای جامعه، بسیار مهم و حیاتی است.
این فناوری تهدیدی بیسابقه برای بشریت محسوب میشود و عواقب بالقوه آن برای ذینفعان غیرنظامی، غیرقابل سنجش است.
در اینجا یک مرور جامع بر پیامدهای شناساییشده در منابع ارائه شده است:
۱. پیامدهای اخلاقی (Ethical Consequences)
اساسیترین و مهمترین ایراد اخلاقی علیه جنگافزارهای خودمختار این است که آنها در اصل تمایز (principle of discrimination) شکست میخورند.
- نقض اصل تمایز: اصل تمایز در چارچوب اخلاق نظامی معاصر و نظریههای جنگ عادلانه (Just War Theories)، تضمین میکند که شهروندان بیگناه هدف جنگ قرار نگیرند و کشتار غیرنظامیان به هر قیمتی اجتناب شود.
- عدم توانایی در تفکیک اهداف: کارشناسان تردید دارند که یک سلاح خودمختار بتواند به اندازه کافی بین اهداف نظامی و غیرنظامی تمایز قائل شود. این شکست، صرف نظر از سطح خودمختاری سیستم، صادق است.
- ریسک غیرقابل سنجش در انبوه پهپادها: در مورد انبوه پهپادها (drone swarms) که میتوانند به دهها هزار عدد برسند، خطر عدم تمایز به سطحی غیرقابل سنجش افزایش مییابد.
- ماهیت غیراخلاقی: بسیاری از دانشمندان، کارشناسان و روزنامهنگاران در سراسر جهان، نگرانی خود را در مورد ماهیت ذاتاً غیراخلاقی توسعه و/یا استقرار AWS ابراز کردهاند.
- محدودیتهای بحث اخلاقی: در حالی که بینشها و بحثهای اخلاقی ضروری و مفید هستند، به تنهایی بعید است که راهحلهای فوری مورد نیاز برای به حداقل رساندن خطرات مرتبط را به ارمغان بیاورند. مسئله AWS در نهایت به قلمرو قوانین بینالمللی و سیاستگذاری تعلق دارد.
۲. پیامدهای حقوقی و سیاستگذاری (Legal Consequences)
پیشرفتهای فناورانه، ظهور ماشینهایی را به دنبال داشته که ظرفیت کشتن انسانها را بدون کنترل انسانی دارند. برای این تهدیدات بیسابقه علیه بشریت، در حال حاضر هیچ چارچوب قانونی وجود ندارد.
- تهدید کنوانسیونهای موجود: اشکال جدید جنگ توسط تسلیحات کنترلشده با هوش مصنوعی که پتانسیل تخریب گسترده دارند، اثربخشی مداوم کنوانسیونهای موجود مانند پروتکل ژنو (که استفاده از گازهای سمی را ممنوع کرد) را تهدید میکند.
- ضرورت ایجاد قوانین جدید: جامعه بینالمللی وظیفه دارد مجموعه جدیدی از کنوانسیونها را برای تنظیم استفاده از این سلاحها از طریق قوانین و معاهدات بینالمللی ایجاد کند. این فرایند باید با هدف تضمین عدم تحقق این تهدیدات پیش برود.
- کمبود ابزارهای تصویب: در حال حاضر، هیچ ابزار تصویبی در رابطه با هوش مصنوعی برای نسل نوظهور تسلیحات خودمختار و استقرار آنها در خدمت جنگ وجود ندارد.
- نقایص قوانین موجود (مانند قانون هوش مصنوعی اروپا): قانون تنظیم مقررات هوش مصنوعی کمیسیون اروپا (European AI Act) اولین تلاش برای ایجاد یک چارچوب حقوقی فراملی در مورد هوش مصنوعی است. با این حال، این قانون با طبقهبندیهای ریسک دلخواه، شامل حفرهها و استثنائات زیادی است. کاربردهایی که صراحتاً در دسته “پرخطر” قرار نگرفتهاند، از جمله سیستمهای تسلیحاتی خودمختار، تا حد زیادی بدون تنظیم باقی میمانند.
۳. پیامدهای امنیتی (Security Consequences)
پیامدهای امنیتی ناشی از توسعه AWS، تهدیدات جدیدی را برای ثبات جهانی و امنیت شهروندان ایجاد میکند:
- پتانسیل تبدیل شدن به سلاحهای کشتار جمعی (WMD): پتانسیل تبدیل شدن AWS به سلاحهای کشتار جمعی واقعی است. سلاحهای جدید با حداکثر ریسک میتوانند شامل انبوه پهپادها و سلاحهای خودمختار شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای (CBRN) باشند. انبوه پهپادها به دلیل ترکیب آسیب گسترده و عدم کنترل انسانی برای اطمینان از عدم آسیب به غیرنظامیان، به عنوان سلاحهای کشتار جمعی آینده در نظر گرفته میشوند.
- هک متخاصم (Adversarial Hacking): هیچ سیستم خودمختاری وجود ندارد که قابل هک نباشد، و خطر اینکه بازیگران غیردولتی کنترل AWS را از طریق هک متخاصم به دست گیرند، واقعی است.
- هدف قرار دادن زیرساختها: هک متخاصم میتواند سیستم را در هر سطحی هدف قرار دهد، از زیرساختهایی که اطلاعات وضعیت را ثبت میکنند تا الگوریتمها و فرآیندهایی که سیستمهای کنترل خودکار را هدایت میکنند.
- نتیجه هک: هک میتواند منجر به خرابی سیستم، یا سناریوهایی شود که در آنها سیستم فاسد شده تا کاری را انجام دهد که قرار نیست انجام دهد (مانند کشتن غیرنظامیان).
- استفاده توسط بازیگران غیردولتی: گروههای تروریستی و شبکههای جنایی بینالمللی میتوانند این فناوری را مهار یا خرابکاری کنند.
- افزایش ناخواسته درگیریها و دشواری در انتساب اعمال خصمانه: استقرار AWS میتواند موجب دشواری در انتساب اقدامات خصمانه شده و منجر به تشدید ناخواسته درگیریها شود.
- سوءاستفاده از تحقیقات علمی: یافتههای علمی در زمینه اصلاح و سنتز بیولوژیکی که در ابتدا برای درک بهتر بیماریها طراحی شدهاند، میتوانند برای افزایش قدرت عوامل عفونی که توسط AWS مستقر میشوند، مورد سوءاستفاده قرار گیرند.
یک تشبیه برای وضوح بیشتر:
توسعه جنگافزارهای خودمختار هوش مصنوعی مانند ساخت یک خودروی خودران است که به جای راندن در مسیرهای مشخص و ایمن، توانایی انتخاب آزادانه برای زیر گرفتن مردم را داشته باشد و ما هنوز هیچ قانون راهنمایی و رانندگی بینالمللی برای آن وضع نکردهایم.
این سیستم نه تنها خطر تصادفهای ناخواسته را دارد (نقص در اصل تمایز)، بلکه ریسک دزدیده شدن کامل توسط هکرها و استفاده مخرب از آن را نیز به همراه دارد.
چگونه سیستم های جنگ افزار خودمختار اصل عدم تبعیض در تئوری های جنگ عادلانه را نقض می کنند؟
پرسش شما در مورد نقض اصل عدم تبعیض توسط سیستمهای جنگافزار خودمختار (AWS) بسیار حیاتی است و یکی از بزرگترین دغدغههای اخلاقی در زمینه هوش مصنوعی و جنگهای آینده به شمار میرود.
در چارچوب نظریههای جنگ عادلانه (Just War Theories)، سیستمهای جنگافزار خودمختار به طور اساسی و صرف نظر از سطح خودمختاریشان، در رعایت اصل عدم تبعیض (discrimination principle) شکست میخورند.
در اینجا نحوه نقض این اصل توسط AWS بر اساس منابع آمده است:
۱. تعریف اصل عدم تبعیض
اصل عدم تبعیض یکی از اصول اساسی اخلاق نظامی معاصر است که ریشه در نظریه جنگ عادلانه دارد.
- این اصل برگرفته از معیارهای پیشنهادی سنت توماس آکویناس است که بیان میدارد استفاده از زور باید بین نظامیان (militia) و غیرنظامیان تمایز قائل شود.
- هدف از اصل عدم تبعیض این است که اطمینان حاصل شود شهروندان بیگناه هدف جنگ قرار نمیگیرند و از کشتار غیرنظامیان به هر قیمتی اجتناب شود.
- در نظریه جنگ عادلانه، اصول اخلاقی جنگ “قابل مذاکره نیستند” (non-negotiable). یعنی اگر یک نوع سلاح یا رویه، یکی از این اصول را نقض کند، بحث اخلاقی درباره آن اصولاً حل شده تلقی میشود.
۲. چگونگی شکست AWS در رعایت این اصل
شکست سیستمهای جنگافزار خودمختار در رعایت اصل عدم تبعیض، اصلیترین و عمدهترین اعتراض اخلاقی علیه آنها محسوب میشود.
- عدم قطعیت در تضمین ایمنی غیرنظامیان: مهمترین دلیل شکست این سیستمها آن است که، صرف نظر از سطح خودمختاری آنها، نمیتوان اطمینان حاصل کرد که AWS به غیرنظامیان آسیب نمیرسانند.
- ناتوانی در تمایز هدف: کارشناسان تردید دارند که یک جنگافزار خودمختار منفرد بتواند به طور کافی بین اهداف غیرنظامی و نظامی تمایز قائل شود.
- تشدید خطر در سامانههای گروهی: این ریسک با استفاده از سامانههای تهاجمی پهپادی (drone swarms) که میتوانند هزاران یا دهها هزار پهپاد را شامل شوند، غیرقابل اندازهگیری (incommensurable) میشود.
- فقدان کنترل انسانی: سامانههای گروهی پهپادی مسلح و کاملاً خودمختار به عنوان سلاحهای کشتار جمعی آینده قلمداد میشوند، زیرا فاقد کنترل انسانی برای اطمینان از عدم آسیب دیدن غیرنظامیان هستند.
از منظر اخلاقی، AWS به دلیل شکست در رعایت اصل عدم تبعیض، فارغ از سطح خودمختاریشان، واجد شرایط استفاده نیستند.
نتیجهگیری: نقض اصل عدم تبعیض، توسعه و استقرار AWS را به یک معضل جدی تبدیل میکند که فراتر از بحثهای اخلاقی بوده و نیاز به قانونگذاری و سیاستگذاری بینالمللی برای تنظیم یا ممنوعیت استفاده از آنها دارد.
این شکست به عنوان یک تهدید بزرگ علیه بشریت مطرح شده است.
برای درک بهتر این وضعیت، میتوانید اصل عدم تبعیض را مانند یک “صافی ایمنی” در اخلاق نظامی در نظر بگیرید که هر سلاحی باید از آن عبور کند تا استفادهاش مجاز باشد.
AWS، به دلیل عدم توانایی در تمایز قائل شدن میان اهداف، به گونهای که تضمین کند شهروندان آسیب نمیبینند، قادر به عبور از این صافی نیستند، و این نارسایی آن را به طور اخلاقی مردود میسازد.
چه سیاستهای بینالمللی و طرحهای قانونی برای کنترل توسعه و قرار این موارد مورد نیاز است؟
این پرسش شما بسیار مهم و حیاتی است؛ زیرا توسعه تسلیحات خودمختار (AWS) تهدیدی بیسابقه برای بشریت ایجاد کرده و خلأ قانونی جدی در سطح بینالمللی وجود دارد.
برای کنترل توسعه و استقرار این تسلیحات، چارچوبهای قانونی و سیاستهای بینالمللی جدیدی مورد نیاز است.
در حال حاضر، برای نسل جدید تسلیحات خودمختار که قابلیت ساخت و استقرار دارند و توسط هوش مصنوعی کنترل میشوند، هیچ چارچوب قانونی در سطح بینالمللی وجود ندارد.
این وضعیت یک معضل جدید ایجاد کرده است که تنها با قانونگذاری و سیاستگذاری بینالمللی قابل حل است، نه صرفاً با بحثهای اخلاقی.
در اینجا سیاستها و چارچوبهای مورد نیاز بر اساس منابع موجود، تشریح شدهاند:
۱. نیاز به ایجاد کنوانسیونهای جدید بینالمللی
جامعه بینالمللی وظیفه دارد مجموعه جدیدی از کنوانسیونها را برای تنظیم و قانونگذاری استفاده از سیستمهای تسلیحات خودمختار (AWS) از طریق معاهدات و قانونگذاری بینالمللی ایجاد کند.
- هدف اصلی: هدف باید تشویق به سیاستهای قانونی باشد تا اطمینان حاصل شود که این تهدیدات بالقوه عملی نمیشوند.
- تشکیل چارچوبهای قانونی: این فرآیند میتواند با کمک نظریههای اخلاقی، مبانی اخلاقی کنترل AWS را تحت چارچوب حقوق فردی یا دیگر اصول اخلاقی مستحکم روشن سازد.
- شکاف در سیستم موجود: کنوانسیونهای موجود مانند پروتکل ژنو، که برای ترویج صلح و امنیت منطقهای و بینالمللی تدوین شدهاند، با ظهور نسل جدید تسلیحات خودمختار مبتنی بر هوش مصنوعی، که پتانسیل تخریب انبوه دارند، با تهدید کاهش اثربخشی مواجه شدهاند.
- فقدان ابزار تصویب: در حال حاضر، هیچ ابزار تصویبی مرتبط با هوش مصنوعی برای تسلیحات خودمختار در حال ظهور و استقرار آنها در خدمت جنگ وجود ندارد.
۲. ضرورت ممنوعیت توسعه و استقرار تسلیحات خودمختار
یکی از قویترین استدلالها در منابع، لزوم ممنوعیت قانونی توسعه و/یا استقرار AWS است.
- نقض اصل تبعیض: مهمترین ایراد اخلاقی و حقوقی علیه AWS این است که آنها، صرف نظر از سطح خودمختاریشان، در رعایت اصل تبعیض (Principle of Discrimination) شکست میخورند. این اصل، که در اخلاق نظامی معاصر و نظریههای جنگ عادلانه گنجانده شده، برای اطمینان از هدف قرار نگرفتن شهروندان بیگناه است.
- خطر هک متخاصمانه (Adversarial Hacking): ریسک اینکه بازیگران غیردولتی مانند گروههای تروریستی و شبکههای جنایی بینالمللی، کنترل AWS را از طریق هک متخاصمانه به دست بگیرند، واقعی است. این امر، حتی برای سیستمهای خودمختار نظارتشده (“human-on-the-loop”) نیز صدق میکند و میتواند سیستم را فاسد کرده تا کارهایی را انجام دهد که نباید، مانند کشتن غیرنظامیان.
- الگوهای تاریخی: سوابقی مانند پروتکل ژنو و کنوانسیون سلاحهای شیمیایی (2021) وجود دارد که استفاده از سلاحهای کشتار جمعی (مانند سلاحهای شیمیایی) را در سطح بینالمللی ممنوع کرده و سیاست عدم تحمل صفر را تعیین کردهاند.
۳. تلاشهای منطقهای و محدودیتها
برخی تلاشها برای تنظیم هوش مصنوعی در سطح منطقهای آغاز شده است، اما این تلاشها در مورد تسلیحات نظامی دارای کاستیهایی هستند:
- قانون هوش مصنوعی اروپا (European AI Act): این قانون به عنوان اولین تلاش برای ایجاد یک چارچوب قانونی فراملی درباره هوش مصنوعی شناخته میشود.
- محدودیتهای قانون اروپا: این قانون کاربردهای هوش مصنوعی را به صورت اختیاری در سه دسته ریسک طبقهبندی میکند، اما دارای خلاءها و استثنائات زیادی است. برنامههایی که صراحتاً در دسته “پرخطر” فهرست نشدهاند، عمدتاً بدون مقررات باقی میمانند، و این شامل سیستمهای تسلیحات خودمختار نیز میشود. این موضوع توانایی قانون را برای تضمین اینکه هوش مصنوعی به عنوان نیرویی خیرخواه در زندگی شهروندان عمل کند، محدود میسازد.
در نهایت، با توجه به پیامدهای غیرقابل سنجش استقرار احتمالی AWS برای ذینفعان شهروندی و خطرات تشدید ناخواسته درگیریها و دشواری در تعیین مسئولیت اقدامات خصمانه، ضروری است که توجه و آگاهی عمومی افزایش یابد و جامعه علمی در این فرآیند مسئولیت بپذیرد.
تشبیه برای درک بهتر: اگر چارچوبهای قانونی بینالمللی را به یک شبکه جادهای تشبیه کنیم که ترافیک جهانی را منظم میکند، تسلیحات خودمختار (AWS) به یک نوع وسیله نقلیه کاملاً جدید و بسیار خطرناک شبیه هستند که بدون چراغ راهنما، بدون راننده انسانی، و با قابلیت رانندگی در هر جهت ساخته شدهاند.
شبکه جادهای موجود (قوانین جنگ سنتی) برای کنترل این وسیله طراحی نشده است؛ بنابراین، جامعه جهانی باید فوراً قوانین جدید، علائم راهنمایی، و احتمالاً ممنوعیت کامل عبور این وسایل را تدوین کند تا از فاجعه جلوگیری شود.






