جهان تحلیل- تحلیل اخبار و رویدادهای مهم ۲۴ ساعت گذشته از منابع معتبر جهان در یک نگاه
  • تحلیل و نظریه
  • هوش مصنوعی
  • هوش مصنوعی نظامی
  • جنگ
  • دیپلماسی
  • تاریخ
  • جهان تحلیل- تحلیل اخبار و رویدادهای مهم ۲۴ ساعت گذشته از منابع معتبر جهان در یک نگاه
جهان تحلیل
  • تحلیل و نظریه
  • هوش مصنوعی
  • هوش مصنوعی نظامی
  • جنگ
  • دیپلماسی
  • تاریخ
  • جهان تحلیل- تحلیل اخبار و رویدادهای مهم ۲۴ ساعت گذشته از منابع معتبر جهان در یک نگاه
بدون نتیجه
مشاهده تمام نتایج
  • تحلیل و نظریه
  • هوش مصنوعی
  • هوش مصنوعی نظامی
  • جنگ
  • دیپلماسی
  • تاریخ
  • جهان تحلیل- تحلیل اخبار و رویدادهای مهم ۲۴ ساعت گذشته از منابع معتبر جهان در یک نگاه
بدون نتیجه
مشاهده تمام نتایج
جهان تحلیل
بدون نتیجه
مشاهده تمام نتایج
صفحه اصلی هوش مصنوعی هوش مصنوعی نظامی

جنگ افزارسازی هوش مصنوعی: عمومی

پیشرفت‌های فناورانه، ظهور ماشین‌هایی را به دنبال داشته که ظرفیت کشتن انسان‌ها را بدون کنترل انسانی دارند. برای این تهدیدات بی‌سابقه علیه بشریت، در حال حاضر هیچ چارچوب قانونی وجود ندارد.

در حال حاضر، هیچ ابزار تصویبی مرتبط با هوش مصنوعی برای تسلیحات خودمختار در حال ظهور و استقرار آن‌ها در خدمت جنگ وجود ندارد.

در حال حاضر، هیچ ابزار تصویبی مرتبط با هوش مصنوعی برای تسلیحات خودمختار در حال ظهور و استقرار آن‌ها در خدمت جنگ وجود ندارد.

0
اشتراک گذاری ها
4
بازدیدها
اشتراک گذاری در فیسبوکاشتراک گذاری در توییتر

جنگ افزارسازی هوش مصنوعی: عمومی

این منبع که توسط **مرکز ملی اطلاعات زیست‌فناوری (NCBI)** منتشر شده، به بررسی موضوع **تسلیح هوش مصنوعی (AI)** می‌پردازد و بر خطراتی که **سیستم‌های تسلیحاتی خودمختار (AWS)** برای بشریت ایجاد می‌کنند، تأکید دارد. جنگ افزارسازی هوش مصنوعی: عمومی

نویسنده با اشاره به مثال سلاح‌های شیمیایی و **پروتکل ژنو**، استدلال می‌کند که AWS، از جمله **ربات‌های قاتل** و **ابرهای پهپادی**، اصل **تمایز** را که در اخلاق نظامی معاصر ضروری است، نقض می‌کنند.

این مقاله خواستار **افزایش آگاهی عمومی** در مورد این تهدیدات و تدوین **سیاست‌های قانونی بین‌المللی** برای ممنوعیت یا تنظیم استفاده از این تسلیحات است، زیرا خطراتی مانند **هک متخاصم** وضعیت را پیچیده‌تر می‌کند.

همچنین، این منبع به کوتاهی‌ها و **نقایص قانون هوش مصنوعی اروپا** در پرداختن به تسلیحات خودمختار اشاره می‌کند.

پیامدهای اخلاقی، حقوقی و امنیتی ساخت جنگ افزارهای خودمختار هوش مصنوعی برای جامعه چیست؟

پرسش شما درباره پیامدهای اخلاقی، حقوقی و امنیتی ساخت جنگ‌افزارهای خودمختار هوش مصنوعی (AWS) برای جامعه، بسیار مهم و حیاتی است.

این فناوری تهدیدی بی‌سابقه برای بشریت محسوب می‌شود و عواقب بالقوه آن برای ذینفعان غیرنظامی، غیرقابل سنجش است.

در اینجا یک مرور جامع بر پیامدهای شناسایی‌شده در منابع ارائه شده است:


۱. پیامدهای اخلاقی (Ethical Consequences)

اساسی‌ترین و مهم‌ترین ایراد اخلاقی علیه جنگ‌افزارهای خودمختار این است که آن‌ها در اصل تمایز (principle of discrimination) شکست می‌خورند.

  1. نقض اصل تمایز: اصل تمایز در چارچوب اخلاق نظامی معاصر و نظریه‌های جنگ عادلانه (Just War Theories)، تضمین می‌کند که شهروندان بی‌گناه هدف جنگ قرار نگیرند و کشتار غیرنظامیان به هر قیمتی اجتناب شود.
  2. عدم توانایی در تفکیک اهداف: کارشناسان تردید دارند که یک سلاح خودمختار بتواند به اندازه کافی بین اهداف نظامی و غیرنظامی تمایز قائل شود. این شکست، صرف نظر از سطح خودمختاری سیستم، صادق است.
  3. ریسک غیرقابل سنجش در انبوه پهپادها: در مورد انبوه پهپادها (drone swarms) که می‌توانند به ده‌ها هزار عدد برسند، خطر عدم تمایز به سطحی غیرقابل سنجش افزایش می‌یابد.
  4. ماهیت غیراخلاقی: بسیاری از دانشمندان، کارشناسان و روزنامه‌نگاران در سراسر جهان، نگرانی خود را در مورد ماهیت ذاتاً غیراخلاقی توسعه و/یا استقرار AWS ابراز کرده‌اند.
  5. محدودیت‌های بحث اخلاقی: در حالی که بینش‌ها و بحث‌های اخلاقی ضروری و مفید هستند، به تنهایی بعید است که راه‌حل‌های فوری مورد نیاز برای به حداقل رساندن خطرات مرتبط را به ارمغان بیاورند. مسئله AWS در نهایت به قلمرو قوانین بین‌المللی و سیاست‌گذاری تعلق دارد.

۲. پیامدهای حقوقی و سیاست‌گذاری (Legal Consequences)

پیشرفت‌های فناورانه، ظهور ماشین‌هایی را به دنبال داشته که ظرفیت کشتن انسان‌ها را بدون کنترل انسانی دارند. برای این تهدیدات بی‌سابقه علیه بشریت، در حال حاضر هیچ چارچوب قانونی وجود ندارد.

  1. تهدید کنوانسیون‌های موجود: اشکال جدید جنگ توسط تسلیحات کنترل‌شده با هوش مصنوعی که پتانسیل تخریب گسترده دارند، اثربخشی مداوم کنوانسیون‌های موجود مانند پروتکل ژنو (که استفاده از گازهای سمی را ممنوع کرد) را تهدید می‌کند.
  2. ضرورت ایجاد قوانین جدید: جامعه بین‌المللی وظیفه دارد مجموعه جدیدی از کنوانسیون‌ها را برای تنظیم استفاده از این سلاح‌ها از طریق قوانین و معاهدات بین‌المللی ایجاد کند. این فرایند باید با هدف تضمین عدم تحقق این تهدیدات پیش برود.
  3. کمبود ابزارهای تصویب: در حال حاضر، هیچ ابزار تصویبی در رابطه با هوش مصنوعی برای نسل نوظهور تسلیحات خودمختار و استقرار آن‌ها در خدمت جنگ وجود ندارد.
  4. نقایص قوانین موجود (مانند قانون هوش مصنوعی اروپا): قانون تنظیم مقررات هوش مصنوعی کمیسیون اروپا (European AI Act) اولین تلاش برای ایجاد یک چارچوب حقوقی فراملی در مورد هوش مصنوعی است. با این حال، این قانون با طبقه‌بندی‌های ریسک دلخواه، شامل حفره‌ها و استثنائات زیادی است. کاربردهایی که صراحتاً در دسته “پرخطر” قرار نگرفته‌اند، از جمله سیستم‌های تسلیحاتی خودمختار، تا حد زیادی بدون تنظیم باقی می‌مانند.

۳. پیامدهای امنیتی (Security Consequences)

پیامدهای امنیتی ناشی از توسعه AWS، تهدیدات جدیدی را برای ثبات جهانی و امنیت شهروندان ایجاد می‌کند:

  1. پتانسیل تبدیل شدن به سلاح‌های کشتار جمعی (WMD): پتانسیل تبدیل شدن AWS به سلاح‌های کشتار جمعی واقعی است. سلاح‌های جدید با حداکثر ریسک می‌توانند شامل انبوه پهپادها و سلاح‌های خودمختار شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) باشند. انبوه پهپادها به دلیل ترکیب آسیب گسترده و عدم کنترل انسانی برای اطمینان از عدم آسیب به غیرنظامیان، به عنوان سلاح‌های کشتار جمعی آینده در نظر گرفته می‌شوند.
  2. هک متخاصم (Adversarial Hacking): هیچ سیستم خودمختاری وجود ندارد که قابل هک نباشد، و خطر اینکه بازیگران غیردولتی کنترل AWS را از طریق هک متخاصم به دست گیرند، واقعی است.
    • هدف قرار دادن زیرساخت‌ها: هک متخاصم می‌تواند سیستم را در هر سطحی هدف قرار دهد، از زیرساخت‌هایی که اطلاعات وضعیت را ثبت می‌کنند تا الگوریتم‌ها و فرآیندهایی که سیستم‌های کنترل خودکار را هدایت می‌کنند.
    • نتیجه هک: هک می‌تواند منجر به خرابی سیستم، یا سناریوهایی شود که در آن‌ها سیستم فاسد شده تا کاری را انجام دهد که قرار نیست انجام دهد (مانند کشتن غیرنظامیان).
    • استفاده توسط بازیگران غیردولتی: گروه‌های تروریستی و شبکه‌های جنایی بین‌المللی می‌توانند این فناوری را مهار یا خرابکاری کنند.
  3. افزایش ناخواسته درگیری‌ها و دشواری در انتساب اعمال خصمانه: استقرار AWS می‌تواند موجب دشواری در انتساب اقدامات خصمانه شده و منجر به تشدید ناخواسته درگیری‌ها شود.
  4. سوءاستفاده از تحقیقات علمی: یافته‌های علمی در زمینه اصلاح و سنتز بیولوژیکی که در ابتدا برای درک بهتر بیماری‌ها طراحی شده‌اند، می‌توانند برای افزایش قدرت عوامل عفونی که توسط AWS مستقر می‌شوند، مورد سوءاستفاده قرار گیرند.

یک تشبیه برای وضوح بیشتر:

توسعه جنگ‌افزارهای خودمختار هوش مصنوعی مانند ساخت یک خودروی خودران است که به جای راندن در مسیرهای مشخص و ایمن، توانایی انتخاب آزادانه برای زیر گرفتن مردم را داشته باشد و ما هنوز هیچ قانون راهنمایی و رانندگی بین‌المللی برای آن وضع نکرده‌ایم.

این سیستم نه تنها خطر تصادف‌های ناخواسته را دارد (نقص در اصل تمایز)، بلکه ریسک دزدیده شدن کامل توسط هکرها و استفاده مخرب از آن را نیز به همراه دارد.

چگونه سیستم های جنگ افزار خودمختار اصل عدم تبعیض در تئوری های جنگ عادلانه را نقض می کنند؟

پرسش شما در مورد نقض اصل عدم تبعیض توسط سیستم‌های جنگ‌افزار خودمختار (AWS) بسیار حیاتی است و یکی از بزرگ‌ترین دغدغه‌های اخلاقی در زمینه هوش مصنوعی و جنگ‌های آینده به شمار می‌رود.

در چارچوب نظریه‌های جنگ عادلانه (Just War Theories)، سیستم‌های جنگ‌افزار خودمختار به طور اساسی و صرف نظر از سطح خودمختاری‌شان، در رعایت اصل عدم تبعیض (discrimination principle) شکست می‌خورند.

در اینجا نحوه نقض این اصل توسط AWS بر اساس منابع آمده است:

۱. تعریف اصل عدم تبعیض

اصل عدم تبعیض یکی از اصول اساسی اخلاق نظامی معاصر است که ریشه در نظریه جنگ عادلانه دارد.

  • این اصل برگرفته از معیارهای پیشنهادی سنت توماس آکویناس است که بیان می‌دارد استفاده از زور باید بین نظامیان (militia) و غیرنظامیان تمایز قائل شود.
  • هدف از اصل عدم تبعیض این است که اطمینان حاصل شود شهروندان بی‌گناه هدف جنگ قرار نمی‌گیرند و از کشتار غیرنظامیان به هر قیمتی اجتناب شود.
  • در نظریه جنگ عادلانه، اصول اخلاقی جنگ “قابل مذاکره نیستند” (non-negotiable). یعنی اگر یک نوع سلاح یا رویه، یکی از این اصول را نقض کند، بحث اخلاقی درباره آن اصولاً حل شده تلقی می‌شود.

۲. چگونگی شکست AWS در رعایت این اصل

شکست سیستم‌های جنگ‌افزار خودمختار در رعایت اصل عدم تبعیض، اصلی‌ترین و عمده‌ترین اعتراض اخلاقی علیه آن‌ها محسوب می‌شود.

  • عدم قطعیت در تضمین ایمنی غیرنظامیان: مهمترین دلیل شکست این سیستم‌ها آن است که، صرف نظر از سطح خودمختاری آن‌ها، نمی‌توان اطمینان حاصل کرد که AWS به غیرنظامیان آسیب نمی‌رسانند.
  • ناتوانی در تمایز هدف: کارشناسان تردید دارند که یک جنگ‌افزار خودمختار منفرد بتواند به طور کافی بین اهداف غیرنظامی و نظامی تمایز قائل شود.
  • تشدید خطر در سامانه‌های گروهی: این ریسک با استفاده از سامانه‌های تهاجمی پهپادی (drone swarms) که می‌توانند هزاران یا ده‌ها هزار پهپاد را شامل شوند، غیرقابل اندازه‌گیری (incommensurable) می‌شود.
  • فقدان کنترل انسانی: سامانه‌های گروهی پهپادی مسلح و کاملاً خودمختار به عنوان سلاح‌های کشتار جمعی آینده قلمداد می‌شوند، زیرا فاقد کنترل انسانی برای اطمینان از عدم آسیب دیدن غیرنظامیان هستند.

از منظر اخلاقی، AWS به دلیل شکست در رعایت اصل عدم تبعیض، فارغ از سطح خودمختاری‌شان، واجد شرایط استفاده نیستند.


نتیجه‌گیری: نقض اصل عدم تبعیض، توسعه و استقرار AWS را به یک معضل جدی تبدیل می‌کند که فراتر از بحث‌های اخلاقی بوده و نیاز به قانون‌گذاری و سیاست‌گذاری بین‌المللی برای تنظیم یا ممنوعیت استفاده از آن‌ها دارد.

این شکست به عنوان یک تهدید بزرگ علیه بشریت مطرح شده است.

برای درک بهتر این وضعیت، می‌توانید اصل عدم تبعیض را مانند یک “صافی ایمنی” در اخلاق نظامی در نظر بگیرید که هر سلاحی باید از آن عبور کند تا استفاده‌اش مجاز باشد.

AWS، به دلیل عدم توانایی در تمایز قائل شدن میان اهداف، به گونه‌ای که تضمین کند شهروندان آسیب نمی‌بینند، قادر به عبور از این صافی نیستند، و این نارسایی آن را به طور اخلاقی مردود می‌سازد.

چه سیاست‌های بین‌المللی و طرح‌های قانونی برای کنترل توسعه و قرار این موارد مورد نیاز است؟

این پرسش شما بسیار مهم و حیاتی است؛ زیرا توسعه تسلیحات خودمختار (AWS) تهدیدی بی‌سابقه برای بشریت ایجاد کرده و خلأ قانونی جدی در سطح بین‌المللی وجود دارد.

برای کنترل توسعه و استقرار این تسلیحات، چارچوب‌های قانونی و سیاست‌های بین‌المللی جدیدی مورد نیاز است.

در حال حاضر، برای نسل جدید تسلیحات خودمختار که قابلیت ساخت و استقرار دارند و توسط هوش مصنوعی کنترل می‌شوند، هیچ چارچوب قانونی در سطح بین‌المللی وجود ندارد.

این وضعیت یک معضل جدید ایجاد کرده است که تنها با قانون‌گذاری و سیاست‌گذاری بین‌المللی قابل حل است، نه صرفاً با بحث‌های اخلاقی.

در اینجا سیاست‌ها و چارچوب‌های مورد نیاز بر اساس منابع موجود، تشریح شده‌اند:

۱. نیاز به ایجاد کنوانسیون‌های جدید بین‌المللی

جامعه بین‌المللی وظیفه دارد مجموعه جدیدی از کنوانسیون‌ها را برای تنظیم و قانون‌گذاری استفاده از سیستم‌های تسلیحات خودمختار (AWS) از طریق معاهدات و قانون‌گذاری بین‌المللی ایجاد کند.

  • هدف اصلی: هدف باید تشویق به سیاست‌های قانونی باشد تا اطمینان حاصل شود که این تهدیدات بالقوه عملی نمی‌شوند.
  • تشکیل چارچوب‌های قانونی: این فرآیند می‌تواند با کمک نظریه‌های اخلاقی، مبانی اخلاقی کنترل AWS را تحت چارچوب حقوق فردی یا دیگر اصول اخلاقی مستحکم روشن سازد.
  • شکاف در سیستم موجود: کنوانسیون‌های موجود مانند پروتکل ژنو، که برای ترویج صلح و امنیت منطقه‌ای و بین‌المللی تدوین شده‌اند، با ظهور نسل جدید تسلیحات خودمختار مبتنی بر هوش مصنوعی، که پتانسیل تخریب انبوه دارند، با تهدید کاهش اثربخشی مواجه شده‌اند.
  • فقدان ابزار تصویب: در حال حاضر، هیچ ابزار تصویبی مرتبط با هوش مصنوعی برای تسلیحات خودمختار در حال ظهور و استقرار آن‌ها در خدمت جنگ وجود ندارد.

۲. ضرورت ممنوعیت توسعه و استقرار تسلیحات خودمختار

یکی از قوی‌ترین استدلال‌ها در منابع، لزوم ممنوعیت قانونی توسعه و/یا استقرار AWS است.

  • نقض اصل تبعیض: مهم‌ترین ایراد اخلاقی و حقوقی علیه AWS این است که آن‌ها، صرف نظر از سطح خودمختاری‌شان، در رعایت اصل تبعیض (Principle of Discrimination) شکست می‌خورند. این اصل، که در اخلاق نظامی معاصر و نظریه‌های جنگ عادلانه گنجانده شده، برای اطمینان از هدف قرار نگرفتن شهروندان بی‌گناه است.
  • خطر هک متخاصمانه (Adversarial Hacking): ریسک اینکه بازیگران غیردولتی مانند گروه‌های تروریستی و شبکه‌های جنایی بین‌المللی، کنترل AWS را از طریق هک متخاصمانه به دست بگیرند، واقعی است. این امر، حتی برای سیستم‌های خودمختار نظارت‌شده (“human-on-the-loop”) نیز صدق می‌کند و می‌تواند سیستم را فاسد کرده تا کارهایی را انجام دهد که نباید، مانند کشتن غیرنظامیان.
  • الگوهای تاریخی: سوابقی مانند پروتکل ژنو و کنوانسیون سلاح‌های شیمیایی (2021) وجود دارد که استفاده از سلاح‌های کشتار جمعی (مانند سلاح‌های شیمیایی) را در سطح بین‌المللی ممنوع کرده و سیاست عدم تحمل صفر را تعیین کرده‌اند.

۳. تلاش‌های منطقه‌ای و محدودیت‌ها

برخی تلاش‌ها برای تنظیم هوش مصنوعی در سطح منطقه‌ای آغاز شده است، اما این تلاش‌ها در مورد تسلیحات نظامی دارای کاستی‌هایی هستند:

  • قانون هوش مصنوعی اروپا (European AI Act): این قانون به عنوان اولین تلاش برای ایجاد یک چارچوب قانونی فراملی درباره هوش مصنوعی شناخته می‌شود.
  • محدودیت‌های قانون اروپا: این قانون کاربردهای هوش مصنوعی را به صورت اختیاری در سه دسته ریسک طبقه‌بندی می‌کند، اما دارای خلاء‌ها و استثنائات زیادی است. برنامه‌هایی که صراحتاً در دسته “پرخطر” فهرست نشده‌اند، عمدتاً بدون مقررات باقی می‌مانند، و این شامل سیستم‌های تسلیحات خودمختار نیز می‌شود. این موضوع توانایی قانون را برای تضمین اینکه هوش مصنوعی به عنوان نیرویی خیرخواه در زندگی شهروندان عمل کند، محدود می‌سازد.

در نهایت، با توجه به پیامدهای غیرقابل سنجش استقرار احتمالی AWS برای ذی‌نفعان شهروندی و خطرات تشدید ناخواسته درگیری‌ها و دشواری در تعیین مسئولیت اقدامات خصمانه، ضروری است که توجه و آگاهی عمومی افزایش یابد و جامعه علمی در این فرآیند مسئولیت بپذیرد.


تشبیه برای درک بهتر: اگر چارچوب‌های قانونی بین‌المللی را به یک شبکه جاده‌ای تشبیه کنیم که ترافیک جهانی را منظم می‌کند، تسلیحات خودمختار (AWS) به یک نوع وسیله نقلیه کاملاً جدید و بسیار خطرناک شبیه هستند که بدون چراغ راهنما، بدون راننده انسانی، و با قابلیت رانندگی در هر جهت ساخته شده‌اند.

شبکه جاده‌ای موجود (قوانین جنگ سنتی) برای کنترل این وسیله طراحی نشده است؛ بنابراین، جامعه جهانی باید فوراً قوانین جدید، علائم راهنمایی، و احتمالاً ممنوعیت کامل عبور این وسایل را تدوین کند تا از فاجعه جلوگیری شود.


رقابت هوش مصنوعی: آمریکا در برابر چین

 

پست قبلی

پیش‌بینی جنگ آینده و ریشه‌کنی اسرائیل

پست‌ بعدی

بیدار شو غرب وحشی درباره ایران اشتباه میکنی

مرتبطپست

چگونه هوش مصنوعی به طور اساسی در حال تغییر استراتژی ها و قابلیت دفاعی نظامی است؟

هوش مصنوعی و توسعه استراتژی دفاعی

آبان 14, 1404
رقابت برای به کارگیری هوش مصنوعی در نیروهای نظامی در بطن رقابت ژئوپلیتیکی گسترده میان ایالات متحده و چین قرار دارد و نتیجه این رقابت نامشخص است.

رقابت هوش مصنوعی: آمریکا در برابر چین

آبان 14, 1404
چگونه هوش مصنوعی موازنه نسبی میان کمیت و کیفیت در توانمندی نظامی را تغییر خواهد داد؟

چهار رکن رقابت نظامی در عصر هوش مصنوعی

آبان 14, 1404
پست‌ بعدی
عدم شکست در جنگ:** برخلاف عراق، **ایران در هیچ جنگی شکست نخورده است

بیدار شو غرب وحشی درباره ایران اشتباه میکنی

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار اخیر

مصاحبه ترامپ در حال خدمت به یک کشور خارجی است

مصاحبه: ترامپ در حال خدمت به یک کشور خارجی است

آبان 24, 1404
خرابکاری اسرائیل در ایران

خرابکاری اسرائیل در ایران نتیجه عکس می‌دهد، تنش‌ها بالا می‌گیرد

آبان 24, 1404

دسته بندی ها

  • تحلیل و نظریه
  • توازن قدرت جهانی
  • جنگ
  • دیپلماسی
  • فناوری
  • هوش مصنوعی
  • هوش مصنوعی نظامی
  • برگه نمونه
  • تماس با ما
  • جهان تحلیل
  • در باره ما
  • صفحه اصلی 2
  • صفحه اصلی 3
  • صفحه اصلی 4
  • صفحه اصلی 5

جهان تحلیل- تحلیل اخبار و رویدادهای مهم ۲۴ ساعت گذشته از منابع معتبر جهان در یک نگاه

بدون نتیجه
مشاهده تمام نتایج
  • تحلیل و نظریه
  • هوش مصنوعی
  • هوش مصنوعی نظامی
  • جنگ
  • دیپلماسی
  • تاریخ
  • جهان تحلیل- تحلیل اخبار و رویدادهای مهم ۲۴ ساعت گذشته از منابع معتبر جهان در یک نگاه

جهان تحلیل- تحلیل اخبار و رویدادهای مهم ۲۴ ساعت گذشته از منابع معتبر جهان در یک نگاه

این وب سایت از کوکی ها استفاده می کند. با ادامه استفاده از این وب سایت شما در حال دادن رضایت به کوکی ها در حال استفاده هستید. بازدید از سیاست حفظ حریم خصوصی و کوکی.