سامانه سلاحهای خودمختار (AWS)که با نامهای سامانه سلاحهای خودمختار کشنده (LAWS) یا «ربات قاتل» نیز شناخته میشود،یک سیستم نظامی که پس از فعال شدن، میتواند بدون دخالت بیشتر انسان، اهداف را انتخاب و با آنها درگیر شود.این سلاحها از حسگرها و هوش مصنوعی برای عملکرد مستقل بر اساس یک «پروفایل هدف» از پیش برنامهریزیشده استفاده میکنند.
تفاوت سلاحهای خودکار با سایر سیستمها
فراتر از پهپادهای کنترل از راه دور: یک پهپاد نظامی سنتی، اگرچه بدون سرنشین است، اما یک خلبان انسانی دارد که تصمیم به استفاده از نیروی کشنده میگیرد. در مقابل، یک AWS این تصمیم حیاتی مرگ و زندگی را به تنهایی میگیرد.
متمایز از سیستمهای خودکار: در حالی که سیستمهای خودکار از اقدامات از پیش تعریفشده پیروی میکنند، سلاحهای خودمختار از هوش مصنوعی برای سازگاری با محیط خود و تصمیمگیریهای مستقلی استفاده میکنند که ممکن است کاملاً قابل پیشبینی نباشند.
سطوح متغیر خودمختاری: همه سیستمهای سلاحهای خودمختار سطح استقلال یکسانی ندارند. آنها را میتوان در طیفی از خودمختاری، از بسیار تحت نظارت تا کاملاً خودمختار، که در آن دستگاه تمام تصمیمات حیاتی را میگیرد، طبقهبندی کرد
اجزای کلیدی و عملکرد
یک AWS با ادغام چندین فناوری اصلی کار میکند:
سکوی جنگی متحرک: این میتواند شامل یک هواپیمای بدون سرنشین، پهپاد، وسیله نقلیه زمینی یا کشتی دریایی باشد.
حسگرها: این حسگرها با استفاده از فناوریهایی مانند GPS، رادار و دوربین، دادههای مربوط به محیط اطراف را جمعآوری میکنند.
سیستمهای پردازش: رایانههای داخلی از الگوریتمهای هوش مصنوعی و یادگیری ماشینی برای تفسیر دادههای حسگر و شناسایی اشیاء استفاده میکنند.
الگوریتمها: این الگوریتمها، قوانین و محدودیتهایی را برای اقدامات سیستم فراهم میکنند و به آن اجازه میدهند بدون دخالت انسان، جهتیابی، شناسایی اهداف و تعامل را انجام دهد.
نگرانیهای جدی در مورد AWS
توسعه AWS نگرانیهای قانونی، اخلاقی و استراتژیک قابل توجهی را برانگیخته است.
غیرانسانیسازی جنگ: بسیاری، چشمانداز واگذاری تصمیمات مربوط به مرگ و زندگی به ماشینها را از نظر اخلاقی منفور و حرکتی خطرناک به سوی غیرانسانیسازی جنگ میدانند.
شکاف پاسخگویی: تعیین مسئولیت قانونی یا اخلاقی هنگامی که یک سلاح خودمختار باعث تلفات ناخواسته میشود، دشوار است. مشخص نیست که آیا اپراتور، برنامهنویس یا سازنده باید پاسخگو باشند یا خیر.
ناتوانی در اعمال قضاوت انسانی: منتقدان استدلال میکنند که ماشینها نمیتوانند قضاوت پیچیده انسانی را در موقعیتهای جنگی پیشبینی نشده و آشفته اعمال کنند. آنها ممکن است نتوانند بین رزمندگان و غیرنظامیان تمایز قائل شوند یا تناسب یک حمله را، همانطور که در قوانین بینالمللی بشردوستانه الزامی است، ارزیابی کنند.
غیرقابل پیشبینی بودن: الگوریتمهای پیچیده هوش مصنوعی و تعاملات آنها با یک محیط پویا، پیشبینی رفتار سلاحهای خودمختار را دشوار میکند. این میتواند منجر به تشدید ناخواسته یا حوادث فاجعهبار شود.
مسابقه تسلیحاتی: رقابت میان قدرتهای نظامی برای توسعه هوش مصنوعی پیشرفته و سیستمهای خودکار، به یک مسابقه تسلیحاتی جدید دامن میزند و تنشهای جهانی و احتمال درگیری را افزایش میدهد.
جهان تحلیل- تحلیل اخبار و رویدادهای مهم ۲۴ ساعت گذشته از منابع معتبر جهان در یک نگاه
این وب سایت از کوکی ها استفاده می کند. با ادامه استفاده از این وب سایت شما در حال دادن رضایت به کوکی ها در حال استفاده هستید. بازدید از سیاست حفظ حریم خصوصی و کوکی.