هوش مصنوعی در ارتش آمریکا؛ از آزمایشگاه تا خط مقدم

هوش مصنوعی دیگر صرفاً موضوعی آکادمیک یا همکاری با شرکت‌های فناوری نیست؛ این فناوری اکنون به طور رسمی در حال تبدیل شدن به “رویه نظامی” در ارتش ایالات متحده است.

هوش مصنوعی در ارتش آمریکا؛ از آزمایشگاه تا خط مقدم
ربات‌ها و ماشین‌های هوشمند در کنار سربازان، نمادی از آینده نبردهای تحت هدایت هوش مصنوعی.

به گزارش شهریور؛ استفاده از هوش مصنوعی در امور نظامی، چالش‌ها و هشدارهای جدی را به همراه دارد. بسیاری از تحلیلگران حوزه بین‌الملل بارها نسبت به ضرورت وضع مقررات و ایجاد قوانین بین‌المللی برای استفاده از هوش مصنوعی در مسائل نظامی هشدار داده و درباره خطرات رقابت تسلیحاتی در این زمینه بین قدرت‌های بزرگ جهان ابراز نگرانی کرده‌اند.

اخیراً در آزمایشی، ایالات متحده یک پهپاد را تحت کنترل هوش مصنوعی قرار داد و این پهپاد برای تکمیل عملیات خود، حتی علیه اپراتور انسانی‌اش نیز اقدام کرد. این آزمایش شبیه‌سازی شده، موجی از اعتراضات را در خصوص استفاده از هوش مصنوعی در امور نظامی برانگیخت. کارشناسان هشدار می‌دهند که مدل‌های زبانی بزرگ (LLMs) ممکن است برای کاربردهای حساس، مانند تحلیل احساسات یا تشخیص پروپاگاندا، به اندازه کافی دقیق نباشند و اتکای بیش از حد به آن‌ها می‌تواند منجر به خطاهای فاجعه‌بار در تصمیم‌گیری‌های نظامی شود. این همان خطراتی است که در حال حاضر در اوکراین و غزه شاهد آن هستیم.

در اوکراین، پنتاگون با همکاری شرکت‌های فناوری از الگوریتم‌های یادگیری ماشین برای تحلیل سریع تصاویر ماهواره‌ای و هدایت پهپادها بهره برد. این ابزارها به ارتش اوکراین امکان داد ظرف چند دقیقه به اطلاعاتی دست یابد که پیش‌تر نیازمند ساعت‌ها زمان بود، اما این اهداف در برخی موارد با خطاهای ماشینی روبه‌رو شده و باعث افزایش تلفات غیرنظامیان نیز شده است. در سوی دیگر، اسرائیل نیز در جنگ‌های اخیر غزه به طور گسترده از هوش مصنوعی برای انتخاب اهداف و هماهنگی حملات استفاده کرد. ارتش اسرائیل در سال ۲۰۲۱ مدعی شد نخستین “جنگ هوش مصنوعی” را رقم زده است. پس از حوادث اکتبر ۲۰۲۳ نیز گزارش‌هایی منتشر شد که نشان می‌داد سامانه‌های الگوریتمی در انتخاب اهداف بمباران نقش ایفا کرده‌اند؛ مساله‌ای که به دلیل افزایش خطر تلفات غیرنظامی، با انتقادهای گسترده حقوق بشری روبرو شد.

چرا عملیات‌های نظامی رژیم صهیونیستی اهمیت دارد؟

عملیات‌های نظامی رژیم صهیونیستی در غزه و سایر کشورهایی که از سال ۲۰۲۳ مورد حمله قرار گرفته‌اند (از جمله ایران، سوریه، لبنان، تونس، یمن و قطر)، از اهمیت بسزایی در بررسی و تحلیل چگونگی استفاده از هوش مصنوعی در حملات نظامی برخوردار است. رژیم در این جنگ‌ها هم در شناسایی اهداف مد نظر خود و هم در تخمین زمان و مکان حمله و همچنین نوع تسلیحاتی که باید از آن‌ها استفاده کند، از هوش مصنوعی بهره برده است. بسیاری از کارشناسان هوش مصنوعی و روابط بین‌الملل معتقدند علت بالا بودن قربانیان جنگ در غزه یا هدف قرار گرفتن غیرنظامیان در سایر کشورهایی که مورد حمله این رژیم قرار گرفته‌اند، استفاده از هوش مصنوعی است. کارشناسان بین‌المللی همچنین بر این باورند که این اقدامات در واقع آزمایش انواع پردازش اطلاعات، هدف‌گیری و استفاده از تجهیزات نظامی در میدان نبرد بود که ایالات متحده آن را بر عهده رژیم صهیونیستی گذاشت.

برخی گزارش‌های تحقیقاتی و تحلیلی ادعا کرده‌اند سامانه‌هایی با نام‌های مستعار مانند “Lavender” یا “The Gospel / Habsora” لیست‌های بزرگی از اهداف بالقوه تولید کرده‌اند که به تسریع عملیات و افزایش شمار اهداف منجر شده است. در مقابل، مقامات نظامی رژیم، استفاده سیستماتیک و خودمختار از هوش مصنوعی برای “شناسایی افراد” را تکذیب کرده یا آن را صرفاً ابزار کمکی تحلیل خوانده‌اند. گزارش‌های سازمان‌های حقوق بشری نیز نگرانی‌هایی درباره داده‌های نادرست، سوگیری و پیامدهای ناگوار برای غیرنظامیان مطرح کرده‌اند.

اخلاق در استفاده از هوش مصنوعی نظامی

جدا از مسئله اشتباهات در شناسایی اهداف و نوع استفاده از تسلیحات برای حمله به اهداف نظامی، مسئله مسئولیت‌پذیری همچنان بی‌پاسخ مانده است؛ اگر سامانه‌ای مبتنی بر هوش مصنوعی موجب تلفات انسانی شود، چه کسی پاسخگو خواهد بود؟ فرماندهان میدانی، برنامه‌نویسان یا خود سیستم؟ علاوه بر این، سرعت تصمیم‌گیری الگوریتم‌ها می‌تواند جنگ‌های آینده را به رقابتی میان ماشین‌ها تبدیل کند؛ رقابتی که در آن، زمان واکنش به میلی‌ثانیه‌ها کاهش و خطر بروز جنگ‌های ناخواسته به طور چشمگیری افزایش می‌یابد.

اصول حقوق بشردوستانه بین‌المللی، بر ضرورت تفکیک میان اهداف نظامی و غیرنظامی و رعایت تناسب در حملات تأکید دارد، اما آیا الگوریتم‌ها قادر به رعایت چنین اصولی در میدان جنگ هستند؟ گزارش‌های سازمان‌های حقوق بشری نشان می‌دهد که عادی‌سازی استفاده از هوش مصنوعی در عملیات‌های نظامی، خطر آغاز یک مسابقه تسلیحاتی جهانی را به همراه دارد؛ مسابقه‌ای که نه تنها موازنه قوا را تغییر می‌دهد، بلکه احتمال بروز خطاهای فاجعه‌بار را نیز افزایش خواهد داد.

لایحه تازه کنگره آمریکا تنها یک اقدام قانون‌گذاری ساده نیست، بلکه نشانه‌ای از گذار به دوره‌ای است که در آن ماشین‌ها نقشی محوری در جنگ‌های مدرن ایفا می‌کنند. اما پرسش بنیادین همچنان باقی است: آیا جهان آماده پذیرش جنگ‌هایی است که تصمیم مرگ و زندگی در آنها به دست الگوریتم‌ها سپرده می‌شود؟

گنجاندن هوش مصنوعی در متن قانون و رویه نظامی (از طریق NDAA، نهادهای مرکزی و قراردادهای کلان) یک روند ساختاری است که اجرای آن در کوتاه‌مدت، افزایش کارایی و در بلندمدت، تغییر بنیادین ماهیت تصمیم‌گیری نظامی را نوید می‌دهد. اما این انتقال، نه تنها مسئله فناوری و بودجه، بلکه بحران‌های اخلاقی، حقوقی و امنیتی جدی‌ای را پیش رو می‌گذارد که بی‌پاسخ ماندن آنها می‌تواند پیامدهای انسانی و بین‌المللی دامنه‌داری داشته باشد./ پایان پیام