پیامدهای جهانی درگیری ها در اوکراین و اسرائیل


جنگ هوش مصنوعی

در عصری که فناوری به طور فزاینده ای بر تمام جنبه های فعالیت انسانی تسلط دارد، نقش هوش مصنوعی (AI) در جنگ به طور تصاعدی در حال رشد است. جنگ جاری در اوکراین و ضدحمله‌های اسرائیل در غزه و لبنان پتانسیل عمیق و دگرگون‌کننده‌ای را که هوش مصنوعی برای عملیات نظامی دارد، آشکار کرده است. زمانی قلمرو داستان های علمی تخیلی، سلاح های خودمختار، اطلاعات، نظارت، شناسایی (ISR) و سیستم های فرماندهی و کنترل، اکنون میدان نبرد و استراتژی نظامی آینده را تعریف می کنند. تأثیر هوش مصنوعی بر لجستیک، مدیریت اطلاعات و حتی آموزش در ارتش در سراسر جهان غیرقابل انکار است.

همانطور که هوش مصنوعی به جنگ های مدرن شکل می دهد، باعث رقابت شدید جهانی، به ویژه در میان قدرت های بزرگ جهان شده است. رقابت برای توسعه فناوری های پیشرفته هوش مصنوعی نظامی به عنصر مهمی از استراتژی های امنیت ملی تبدیل شده است و چین و ایالات متحده به دو رقیب اصلی تبدیل شده اند. به ویژه چین توجه قابل توجهی را به خود جلب کرده است و بسیاری از تحلیلگران اکنون بر این باورند که ممکن است در رقابت برای تسلط بر هوش مصنوعی در کاربردهای نظامی از ایالات متحده جلوتر باشد.

مسابقه جهانی هوش مصنوعی در امور نظامی: چین در مقابل ایالات متحده

تا همین اواخر، ایالات متحده با بهره مندی از موسسات تحقیقاتی نخبه، بخش فناوری قوی و مقررات مطلوب، پیشرو در نوآوری هوش مصنوعی در نظر گرفته می شد. با این حال، نگرانی فزاینده ای در میان متفکران استراتژیک آمریکایی وجود دارد که چین نه تنها به آمریکا رسیده است، بلکه حتی ممکن است از نظر توسعه هوش مصنوعی از ایالات متحده پیشی گرفته باشد. رشد چین به عوامل متعددی از جمله اکوسیستم تحقیقاتی قوی، سرمایه گذاری قابل توجه دولت و تمرکز بر ادغام هوش مصنوعی در استراتژی نظامی نسبت داده می شود.

از نظر نظامی، چین در توسعه سیستم‌های تسلیحاتی خودمختار، قابلیت‌های ISR مبتنی بر هوش مصنوعی و سیستم‌های فرماندهی و کنترل پیشرفت چشمگیری داشته است. این پیشرفت ها می تواند توازن قدرت را در سراسر جهان تغییر دهد، به ویژه با توجه به توسعه سریع فناوری هوش مصنوعی. نگرانی عمده در میان تحلیلگران نظامی غربی این است که چین می تواند سیستم های تسلیحاتی هدایت شونده با هوش مصنوعی را قبل از اینکه به طور کامل آزمایش شوند یا در نبرد واقعی ایمن شوند، پیش از موعد مستقر کند. این می تواند نه تنها منجر به خطرات عملیاتی شود، بلکه نگرانی های امنیتی جهانی را نیز تشدید می کند.

شاید مشکل‌کننده‌تر برای ایالات متحده و متحدانش این باشد که چین می‌تواند فناوری نظامی مبتنی بر هوش مصنوعی را به دشمنان ایالات متحده صادر کند و در نتیجه پویایی قدرت را در مناطق حیاتی برای منافع استراتژیک آمریکا تغییر دهد. با توجه به ماهیت پیچیده هوش مصنوعی و پتانسیل سوء استفاده از آن، این امکان چالشی جدی برای حفظ امنیت جهانی و تضمین انطباق هوش مصنوعی با قوانین بین‌المللی ایجاد می‌کند.

کارشناسان اندرو هیل و استفان گوئراس از کالج ارتش ایالات متحده استدلال می‌کنند که پذیرش هوش مصنوعی در ارتش توسط رژیم‌های مستبدی مانند چین و روسیه توسط چندین عامل مهم هدایت می‌شود: نگرانی‌های جمعیتی، کنترل عملیات نظامی و ترس استراتژیک از پیامدها. پشت سر آمریکا در فناوری

اولا، این رژیم‌ها با کاهش نیروی کار و پیری جمعیت دست و پنجه نرم می‌کنند، روندهایی که انتظار می‌رود تعداد استخدام‌کنندگان در نیروهای مسلح آن‌ها را به میزان قابل توجهی کاهش دهد. هوش مصنوعی با پر کردن شکاف های ایجاد شده با کاهش منابع انسانی راه حلی را ارائه می دهد. سیستم‌های خودکار، از جمله پهپادهای مجهز به هوش مصنوعی، تانک‌های خودمختار و پیاده‌نظام رباتیک، به طور بالقوه می‌توانند بسیاری از وظایف را که در حال حاضر توسط سربازان انسانی انجام می‌شود، انجام دهند و اتکا به نیروی کار رو به کاهش را کاهش دهند.

دوم، هوش مصنوعی ابزاری برای حفظ کنترل بر نیروهای مسلح خود به رژیم‌های مستبد ارائه می‌کند. تسلیحات و سیستم های کنترل مستقل نیاز به تصمیم گیرندگان فردی را کاهش می دهد و خطر مخالفت نظامی یا کودتا را کاهش می دهد. در رژیم‌هایی که رهبران از مخالفان داخلی به اندازه تهدیدهای خارجی می‌ترسند، هوش مصنوعی به یک دارایی ارزشمند در حفظ کنترل متمرکز بر عملیات‌های نظامی تبدیل می‌شود.

در نهایت، از منظر ژئوپلیتیک، روسیه و چین به شدت از ضرر استراتژیک خود در صورت پیشگامی ایالات متحده در توسعه هوش مصنوعی نظامی آگاه هستند. همانطور که هیل و گوئراس استدلال می‌کنند، این رژیم‌ها انگیزه دارند تا مرزهای قابلیت‌های هوش مصنوعی را برای حفظ مزیت رقابتی به‌طور تهاجمی پشت سر بگذارند، زیرا می‌ترسند که عدم انجام این کار می‌تواند آنها را در درگیری‌های آینده آسیب‌پذیر کند.

تعادل بین هوش مصنوعی نظامی با ملاحظات قانونی و اخلاقی

اگرچه چشم انداز هوش مصنوعی در کاربردهای نظامی جذاب است، اما این فناوری مسائل اخلاقی و حقوقی جدی را نیز مطرح می کند. ایده تسلیحات خودمختار که بدون کنترل انسان تصمیمات مرگ و زندگی می گیرند برای بسیاری از سیاست گذاران و تحلیلگران نگران کننده است. برخی استدلال می کنند که یک مسابقه تسلیحاتی مبتنی بر هوش مصنوعی می تواند منجر به عواقب ناخواسته شود، به ویژه اگر این فناوری به دست اشتباه بیفتد یا به روش های سوء استفاده شود که قوانین بین المللی را نقض می کند.

تعداد فزاینده ای از نظرات طرفدار ایجاد قوانین و چارچوب هایی برای اطمینان از انطباق سیستم های هوش مصنوعی با قوانین بشردوستانه بین المللی هستند. ایالات متحده در ترویج استفاده مسئولانه از هوش مصنوعی در کاربردهای نظامی، حمایت از هنجارها و پادمان‌های بین‌المللی برای جلوگیری از استقرار بی‌دیده سیستم‌های مجهز به هوش مصنوعی، رهبری را بر عهده گرفته است.

در نوامبر 2022، وزارت امور خارجه ایالات متحده مجموعه ای از ده اصل را برای توسعه و استفاده مسئولانه از هوش مصنوعی نظامی منتشر کرد. این اصول بر شفافیت، مسئولیت پذیری و انطباق با قوانین بین المللی تاکید دارند. آنها به آزمایش کامل سیستم‌های هوش مصنوعی، اقداماتی برای به حداقل رساندن سوگیری و مکانیسم‌های نظارتی نیاز دارند تا اطمینان حاصل شود که قضاوت انسانی جزء اصلی تصمیم‌گیری نظامی باقی می‌ماند. توصیه‌های کلیدی شامل ایجاد تدابیر امنیتی برای جلوگیری از رفتارهای هوش مصنوعی ناخواسته، بررسی دقیق قانونی قابلیت‌های هوش مصنوعی، و تلاش برای جلوگیری از گسترش سیستم‌های تسلیحاتی هدایت‌شده با هوش مصنوعی به بازیگران غیردولتی یا رژیم‌های سرکش است.

نگرانی ها در مورد استفاده اخلاقی از هوش مصنوعی در عملیات نظامی منجر به ابتکارات جهانی متعددی با هدف ایجاد دستورالعمل هایی برای استفاده مسئولانه از هوش مصنوعی شده است. یکی از این تلاش ها، اجلاس سران هوش مصنوعی مسئول در نظامی (REAIM) بود که در سپتامبر 2023 در سئول، کره جنوبی برگزار شد. این اجلاس که به طور مشترک توسط هلند، سنگاپور، کنیا و بریتانیا سازماندهی شد، 1952 شرکت کننده از 96 کشور را گرد هم آورد. از جمله 38 وزیر درباره استفاده مسئولانه از هوش مصنوعی در عملیات نظامی.

این اجلاس یک طرح 20 ماده ای را تهیه کرد که به مسائل احتمالی بشردوستانه، حقوقی و امنیتی مرتبط با استفاده از هوش مصنوعی نظامی می پردازد. این سند بر اهمیت تضمین انطباق سیستم‌های هوش مصنوعی با قوانین بین‌الملل، به‌ویژه حقوق بشردوستانه بین‌المللی، تأکید می‌کند و خواستار کنترل انسانی در فرآیندهای تصمیم‌گیری حیاتی، به‌ویژه در رابطه با سلاح‌های هسته‌ای است.

این طرح همچنین بر خطرات هوش مصنوعی برای امنیت جهانی، به ویژه نقش بالقوه آن در تشدید مسابقه تسلیحاتی و تکثیر سلاح های کشتار جمعی (WMD) تاکید می کند. شرکت کنندگان خواستار افزایش همکاری بین المللی شدند تا اطمینان حاصل شود که فناوری های هوش مصنوعی گسترش سلاح های کشتار جمعی توسط بازیگران دولتی یا غیردولتی از جمله گروه های تروریستی را تسهیل نمی کند.

با وجود حمایت گسترده، با حمایت 61 کشور از این طرح، چین تصمیم گرفت با وجود اعزام هیئتی به اجلاس، این توافقنامه را امضا نکند. بی میلی پکن به حمایت از این سند بر پویایی پیچیده رقابت جهانی هوش مصنوعی تاکید دارد. چین اصرار دارد که هر چارچوبی که بر هوش مصنوعی حاکم است باید به نگرانی های امنیتی همه کشورها احترام بگذارد و از مسابقه تسلیحاتی اجتناب کند. مقامات چینی بر لزوم توسعه هوش مصنوعی «محتاطانه» و «مسئولانه» تاکید کردند و از گفت‌وگوی بین‌المللی برای جلوگیری از محاسبات اشتباه و درگیری‌ها حمایت کردند.

تاثیر تحول آفرین هوش مصنوعی بر عملیات نظامی

با تشدید مسابقه تسلیحاتی هوش مصنوعی، واضح است که فناوری به شکل بی سابقه ای آینده جنگ را ادامه خواهد داد. مزایای هوش مصنوعی در میدان نبرد – افزایش کارایی، سرعت و دقت – بسیار زیاد است، اما خطرات احتمالی آن نیز بسیار زیاد است. پس از توسعه و استقرار، سیستم‌های خودمختار می‌توانند تصمیماتی بگیرند که یک اپراتور انسانی در پیش‌بینی یا کنترل آن مشکل دارد، به‌ویژه در سناریوهای پیچیده و پرمخاطره مانند درگیری هسته‌ای.

برای مدیریت این خطرات، جامعه بین المللی باید به کار بر روی سیستم هایی ادامه دهد که استفاده ایمن و مسئولانه از هوش مصنوعی در تنظیمات نظامی را تضمین کند. این شامل یک تعادل ظریف بین تقویت نوآوری و حفاظت از امنیت جهانی است. اصولی که توسط وزارت امور خارجه ایالات متحده و ابتکاراتی مانند اجلاس سران REAIM سئول مشخص شده است، نقطه شروعی است، اما هنوز کار زیادی برای انجام وجود دارد.

کشورهایی مانند چین و روسیه که همچنان محتاطانه از ابتکارات تحت رهبری غرب حمایت می کنند، اگر می خواهیم به یک اجماع جهانی معنادار دست یابیم، باید وارد گفتگو شوند. گفتگو، شفافیت و اعتماد کلیدی برای جلوگیری از خارج شدن مسابقه تسلیحاتی مبتنی بر هوش مصنوعی خواهد بود.

در نهایت، آینده جنگ نه تنها با پیشرفت های تکنولوژیکی در هوش مصنوعی، بلکه با تصمیمات اتخاذ شده توسط سیاستمداران امروزی تعیین خواهد شد. آیا هوش مصنوعی به ارتش ایمن تر و کارآمدتر منجر می شود؟ یا اینکه در را به روی عصر جدیدی از درگیری باز می کند که در آن ماشین ها تصمیماتی می گیرند که انسان نمی تواند آن ها را کنترل کند؟ پاسخ بستگی به این دارد که کشورها در مورد چالش های اخلاقی و استراتژیک که در سال های آینده به وجود خواهند آمد چقدر محتاط باشند.

دیدگاهتان را بنویسید