در عصری که فناوری به طور فزاینده ای بر تمام جنبه های فعالیت انسانی تسلط دارد، نقش هوش مصنوعی (AI) در جنگ به طور تصاعدی در حال رشد است. جنگ جاری در اوکراین و ضدحملههای اسرائیل در غزه و لبنان پتانسیل عمیق و دگرگونکنندهای را که هوش مصنوعی برای عملیات نظامی دارد، آشکار کرده است. زمانی قلمرو داستان های علمی تخیلی، سلاح های خودمختار، اطلاعات، نظارت، شناسایی (ISR) و سیستم های فرماندهی و کنترل، اکنون میدان نبرد و استراتژی نظامی آینده را تعریف می کنند. تأثیر هوش مصنوعی بر لجستیک، مدیریت اطلاعات و حتی آموزش در ارتش در سراسر جهان غیرقابل انکار است.
همانطور که هوش مصنوعی به جنگ های مدرن شکل می دهد، باعث رقابت شدید جهانی، به ویژه در میان قدرت های بزرگ جهان شده است. رقابت برای توسعه فناوری های پیشرفته هوش مصنوعی نظامی به عنصر مهمی از استراتژی های امنیت ملی تبدیل شده است و چین و ایالات متحده به دو رقیب اصلی تبدیل شده اند. به ویژه چین توجه قابل توجهی را به خود جلب کرده است و بسیاری از تحلیلگران اکنون بر این باورند که ممکن است در رقابت برای تسلط بر هوش مصنوعی در کاربردهای نظامی از ایالات متحده جلوتر باشد.
مسابقه جهانی هوش مصنوعی در امور نظامی: چین در مقابل ایالات متحده
تا همین اواخر، ایالات متحده با بهره مندی از موسسات تحقیقاتی نخبه، بخش فناوری قوی و مقررات مطلوب، پیشرو در نوآوری هوش مصنوعی در نظر گرفته می شد. با این حال، نگرانی فزاینده ای در میان متفکران استراتژیک آمریکایی وجود دارد که چین نه تنها به آمریکا رسیده است، بلکه حتی ممکن است از نظر توسعه هوش مصنوعی از ایالات متحده پیشی گرفته باشد. رشد چین به عوامل متعددی از جمله اکوسیستم تحقیقاتی قوی، سرمایه گذاری قابل توجه دولت و تمرکز بر ادغام هوش مصنوعی در استراتژی نظامی نسبت داده می شود.
از نظر نظامی، چین در توسعه سیستمهای تسلیحاتی خودمختار، قابلیتهای ISR مبتنی بر هوش مصنوعی و سیستمهای فرماندهی و کنترل پیشرفت چشمگیری داشته است. این پیشرفت ها می تواند توازن قدرت را در سراسر جهان تغییر دهد، به ویژه با توجه به توسعه سریع فناوری هوش مصنوعی. نگرانی عمده در میان تحلیلگران نظامی غربی این است که چین می تواند سیستم های تسلیحاتی هدایت شونده با هوش مصنوعی را قبل از اینکه به طور کامل آزمایش شوند یا در نبرد واقعی ایمن شوند، پیش از موعد مستقر کند. این می تواند نه تنها منجر به خطرات عملیاتی شود، بلکه نگرانی های امنیتی جهانی را نیز تشدید می کند.
شاید مشکلکنندهتر برای ایالات متحده و متحدانش این باشد که چین میتواند فناوری نظامی مبتنی بر هوش مصنوعی را به دشمنان ایالات متحده صادر کند و در نتیجه پویایی قدرت را در مناطق حیاتی برای منافع استراتژیک آمریکا تغییر دهد. با توجه به ماهیت پیچیده هوش مصنوعی و پتانسیل سوء استفاده از آن، این امکان چالشی جدی برای حفظ امنیت جهانی و تضمین انطباق هوش مصنوعی با قوانین بینالمللی ایجاد میکند.
کارشناسان اندرو هیل و استفان گوئراس از کالج ارتش ایالات متحده استدلال میکنند که پذیرش هوش مصنوعی در ارتش توسط رژیمهای مستبدی مانند چین و روسیه توسط چندین عامل مهم هدایت میشود: نگرانیهای جمعیتی، کنترل عملیات نظامی و ترس استراتژیک از پیامدها. پشت سر آمریکا در فناوری
اولا، این رژیمها با کاهش نیروی کار و پیری جمعیت دست و پنجه نرم میکنند، روندهایی که انتظار میرود تعداد استخدامکنندگان در نیروهای مسلح آنها را به میزان قابل توجهی کاهش دهد. هوش مصنوعی با پر کردن شکاف های ایجاد شده با کاهش منابع انسانی راه حلی را ارائه می دهد. سیستمهای خودکار، از جمله پهپادهای مجهز به هوش مصنوعی، تانکهای خودمختار و پیادهنظام رباتیک، به طور بالقوه میتوانند بسیاری از وظایف را که در حال حاضر توسط سربازان انسانی انجام میشود، انجام دهند و اتکا به نیروی کار رو به کاهش را کاهش دهند.
دوم، هوش مصنوعی ابزاری برای حفظ کنترل بر نیروهای مسلح خود به رژیمهای مستبد ارائه میکند. تسلیحات و سیستم های کنترل مستقل نیاز به تصمیم گیرندگان فردی را کاهش می دهد و خطر مخالفت نظامی یا کودتا را کاهش می دهد. در رژیمهایی که رهبران از مخالفان داخلی به اندازه تهدیدهای خارجی میترسند، هوش مصنوعی به یک دارایی ارزشمند در حفظ کنترل متمرکز بر عملیاتهای نظامی تبدیل میشود.
در نهایت، از منظر ژئوپلیتیک، روسیه و چین به شدت از ضرر استراتژیک خود در صورت پیشگامی ایالات متحده در توسعه هوش مصنوعی نظامی آگاه هستند. همانطور که هیل و گوئراس استدلال میکنند، این رژیمها انگیزه دارند تا مرزهای قابلیتهای هوش مصنوعی را برای حفظ مزیت رقابتی بهطور تهاجمی پشت سر بگذارند، زیرا میترسند که عدم انجام این کار میتواند آنها را در درگیریهای آینده آسیبپذیر کند.
تعادل بین هوش مصنوعی نظامی با ملاحظات قانونی و اخلاقی
اگرچه چشم انداز هوش مصنوعی در کاربردهای نظامی جذاب است، اما این فناوری مسائل اخلاقی و حقوقی جدی را نیز مطرح می کند. ایده تسلیحات خودمختار که بدون کنترل انسان تصمیمات مرگ و زندگی می گیرند برای بسیاری از سیاست گذاران و تحلیلگران نگران کننده است. برخی استدلال می کنند که یک مسابقه تسلیحاتی مبتنی بر هوش مصنوعی می تواند منجر به عواقب ناخواسته شود، به ویژه اگر این فناوری به دست اشتباه بیفتد یا به روش های سوء استفاده شود که قوانین بین المللی را نقض می کند.
تعداد فزاینده ای از نظرات طرفدار ایجاد قوانین و چارچوب هایی برای اطمینان از انطباق سیستم های هوش مصنوعی با قوانین بشردوستانه بین المللی هستند. ایالات متحده در ترویج استفاده مسئولانه از هوش مصنوعی در کاربردهای نظامی، حمایت از هنجارها و پادمانهای بینالمللی برای جلوگیری از استقرار بیدیده سیستمهای مجهز به هوش مصنوعی، رهبری را بر عهده گرفته است.
در نوامبر 2022، وزارت امور خارجه ایالات متحده مجموعه ای از ده اصل را برای توسعه و استفاده مسئولانه از هوش مصنوعی نظامی منتشر کرد. این اصول بر شفافیت، مسئولیت پذیری و انطباق با قوانین بین المللی تاکید دارند. آنها به آزمایش کامل سیستمهای هوش مصنوعی، اقداماتی برای به حداقل رساندن سوگیری و مکانیسمهای نظارتی نیاز دارند تا اطمینان حاصل شود که قضاوت انسانی جزء اصلی تصمیمگیری نظامی باقی میماند. توصیههای کلیدی شامل ایجاد تدابیر امنیتی برای جلوگیری از رفتارهای هوش مصنوعی ناخواسته، بررسی دقیق قانونی قابلیتهای هوش مصنوعی، و تلاش برای جلوگیری از گسترش سیستمهای تسلیحاتی هدایتشده با هوش مصنوعی به بازیگران غیردولتی یا رژیمهای سرکش است.
نگرانی ها در مورد استفاده اخلاقی از هوش مصنوعی در عملیات نظامی منجر به ابتکارات جهانی متعددی با هدف ایجاد دستورالعمل هایی برای استفاده مسئولانه از هوش مصنوعی شده است. یکی از این تلاش ها، اجلاس سران هوش مصنوعی مسئول در نظامی (REAIM) بود که در سپتامبر 2023 در سئول، کره جنوبی برگزار شد. این اجلاس که به طور مشترک توسط هلند، سنگاپور، کنیا و بریتانیا سازماندهی شد، 1952 شرکت کننده از 96 کشور را گرد هم آورد. از جمله 38 وزیر درباره استفاده مسئولانه از هوش مصنوعی در عملیات نظامی.
این اجلاس یک طرح 20 ماده ای را تهیه کرد که به مسائل احتمالی بشردوستانه، حقوقی و امنیتی مرتبط با استفاده از هوش مصنوعی نظامی می پردازد. این سند بر اهمیت تضمین انطباق سیستمهای هوش مصنوعی با قوانین بینالملل، بهویژه حقوق بشردوستانه بینالمللی، تأکید میکند و خواستار کنترل انسانی در فرآیندهای تصمیمگیری حیاتی، بهویژه در رابطه با سلاحهای هستهای است.
این طرح همچنین بر خطرات هوش مصنوعی برای امنیت جهانی، به ویژه نقش بالقوه آن در تشدید مسابقه تسلیحاتی و تکثیر سلاح های کشتار جمعی (WMD) تاکید می کند. شرکت کنندگان خواستار افزایش همکاری بین المللی شدند تا اطمینان حاصل شود که فناوری های هوش مصنوعی گسترش سلاح های کشتار جمعی توسط بازیگران دولتی یا غیردولتی از جمله گروه های تروریستی را تسهیل نمی کند.
با وجود حمایت گسترده، با حمایت 61 کشور از این طرح، چین تصمیم گرفت با وجود اعزام هیئتی به اجلاس، این توافقنامه را امضا نکند. بی میلی پکن به حمایت از این سند بر پویایی پیچیده رقابت جهانی هوش مصنوعی تاکید دارد. چین اصرار دارد که هر چارچوبی که بر هوش مصنوعی حاکم است باید به نگرانی های امنیتی همه کشورها احترام بگذارد و از مسابقه تسلیحاتی اجتناب کند. مقامات چینی بر لزوم توسعه هوش مصنوعی «محتاطانه» و «مسئولانه» تاکید کردند و از گفتوگوی بینالمللی برای جلوگیری از محاسبات اشتباه و درگیریها حمایت کردند.
تاثیر تحول آفرین هوش مصنوعی بر عملیات نظامی
با تشدید مسابقه تسلیحاتی هوش مصنوعی، واضح است که فناوری به شکل بی سابقه ای آینده جنگ را ادامه خواهد داد. مزایای هوش مصنوعی در میدان نبرد – افزایش کارایی، سرعت و دقت – بسیار زیاد است، اما خطرات احتمالی آن نیز بسیار زیاد است. پس از توسعه و استقرار، سیستمهای خودمختار میتوانند تصمیماتی بگیرند که یک اپراتور انسانی در پیشبینی یا کنترل آن مشکل دارد، بهویژه در سناریوهای پیچیده و پرمخاطره مانند درگیری هستهای.
برای مدیریت این خطرات، جامعه بین المللی باید به کار بر روی سیستم هایی ادامه دهد که استفاده ایمن و مسئولانه از هوش مصنوعی در تنظیمات نظامی را تضمین کند. این شامل یک تعادل ظریف بین تقویت نوآوری و حفاظت از امنیت جهانی است. اصولی که توسط وزارت امور خارجه ایالات متحده و ابتکاراتی مانند اجلاس سران REAIM سئول مشخص شده است، نقطه شروعی است، اما هنوز کار زیادی برای انجام وجود دارد.
کشورهایی مانند چین و روسیه که همچنان محتاطانه از ابتکارات تحت رهبری غرب حمایت می کنند، اگر می خواهیم به یک اجماع جهانی معنادار دست یابیم، باید وارد گفتگو شوند. گفتگو، شفافیت و اعتماد کلیدی برای جلوگیری از خارج شدن مسابقه تسلیحاتی مبتنی بر هوش مصنوعی خواهد بود.
در نهایت، آینده جنگ نه تنها با پیشرفت های تکنولوژیکی در هوش مصنوعی، بلکه با تصمیمات اتخاذ شده توسط سیاستمداران امروزی تعیین خواهد شد. آیا هوش مصنوعی به ارتش ایمن تر و کارآمدتر منجر می شود؟ یا اینکه در را به روی عصر جدیدی از درگیری باز می کند که در آن ماشین ها تصمیماتی می گیرند که انسان نمی تواند آن ها را کنترل کند؟ پاسخ بستگی به این دارد که کشورها در مورد چالش های اخلاقی و استراتژیک که در سال های آینده به وجود خواهند آمد چقدر محتاط باشند.