هوش مصنوعی در ارتش آمریکا؛ از آزمایشگاه تا خط مقدم
هوش مصنوعی دیگر صرفاً موضوعی آکادمیک یا همکاری با شرکتهای فناوری نیست؛ این فناوری اکنون به طور رسمی در حال تبدیل شدن به “رویه نظامی” در ارتش ایالات متحده است.

به گزارش شهریور؛ استفاده از هوش مصنوعی در امور نظامی، چالشها و هشدارهای جدی را به همراه دارد. بسیاری از تحلیلگران حوزه بینالملل بارها نسبت به ضرورت وضع مقررات و ایجاد قوانین بینالمللی برای استفاده از هوش مصنوعی در مسائل نظامی هشدار داده و درباره خطرات رقابت تسلیحاتی در این زمینه بین قدرتهای بزرگ جهان ابراز نگرانی کردهاند.
اخیراً در آزمایشی، ایالات متحده یک پهپاد را تحت کنترل هوش مصنوعی قرار داد و این پهپاد برای تکمیل عملیات خود، حتی علیه اپراتور انسانیاش نیز اقدام کرد. این آزمایش شبیهسازی شده، موجی از اعتراضات را در خصوص استفاده از هوش مصنوعی در امور نظامی برانگیخت. کارشناسان هشدار میدهند که مدلهای زبانی بزرگ (LLMs) ممکن است برای کاربردهای حساس، مانند تحلیل احساسات یا تشخیص پروپاگاندا، به اندازه کافی دقیق نباشند و اتکای بیش از حد به آنها میتواند منجر به خطاهای فاجعهبار در تصمیمگیریهای نظامی شود. این همان خطراتی است که در حال حاضر در اوکراین و غزه شاهد آن هستیم.
در اوکراین، پنتاگون با همکاری شرکتهای فناوری از الگوریتمهای یادگیری ماشین برای تحلیل سریع تصاویر ماهوارهای و هدایت پهپادها بهره برد. این ابزارها به ارتش اوکراین امکان داد ظرف چند دقیقه به اطلاعاتی دست یابد که پیشتر نیازمند ساعتها زمان بود، اما این اهداف در برخی موارد با خطاهای ماشینی روبهرو شده و باعث افزایش تلفات غیرنظامیان نیز شده است. در سوی دیگر، اسرائیل نیز در جنگهای اخیر غزه به طور گسترده از هوش مصنوعی برای انتخاب اهداف و هماهنگی حملات استفاده کرد. ارتش اسرائیل در سال ۲۰۲۱ مدعی شد نخستین “جنگ هوش مصنوعی” را رقم زده است. پس از حوادث اکتبر ۲۰۲۳ نیز گزارشهایی منتشر شد که نشان میداد سامانههای الگوریتمی در انتخاب اهداف بمباران نقش ایفا کردهاند؛ مسالهای که به دلیل افزایش خطر تلفات غیرنظامی، با انتقادهای گسترده حقوق بشری روبرو شد.
چرا عملیاتهای نظامی رژیم صهیونیستی اهمیت دارد؟
عملیاتهای نظامی رژیم صهیونیستی در غزه و سایر کشورهایی که از سال ۲۰۲۳ مورد حمله قرار گرفتهاند (از جمله ایران، سوریه، لبنان، تونس، یمن و قطر)، از اهمیت بسزایی در بررسی و تحلیل چگونگی استفاده از هوش مصنوعی در حملات نظامی برخوردار است. رژیم در این جنگها هم در شناسایی اهداف مد نظر خود و هم در تخمین زمان و مکان حمله و همچنین نوع تسلیحاتی که باید از آنها استفاده کند، از هوش مصنوعی بهره برده است. بسیاری از کارشناسان هوش مصنوعی و روابط بینالملل معتقدند علت بالا بودن قربانیان جنگ در غزه یا هدف قرار گرفتن غیرنظامیان در سایر کشورهایی که مورد حمله این رژیم قرار گرفتهاند، استفاده از هوش مصنوعی است. کارشناسان بینالمللی همچنین بر این باورند که این اقدامات در واقع آزمایش انواع پردازش اطلاعات، هدفگیری و استفاده از تجهیزات نظامی در میدان نبرد بود که ایالات متحده آن را بر عهده رژیم صهیونیستی گذاشت.
برخی گزارشهای تحقیقاتی و تحلیلی ادعا کردهاند سامانههایی با نامهای مستعار مانند “Lavender” یا “The Gospel / Habsora” لیستهای بزرگی از اهداف بالقوه تولید کردهاند که به تسریع عملیات و افزایش شمار اهداف منجر شده است. در مقابل، مقامات نظامی رژیم، استفاده سیستماتیک و خودمختار از هوش مصنوعی برای “شناسایی افراد” را تکذیب کرده یا آن را صرفاً ابزار کمکی تحلیل خواندهاند. گزارشهای سازمانهای حقوق بشری نیز نگرانیهایی درباره دادههای نادرست، سوگیری و پیامدهای ناگوار برای غیرنظامیان مطرح کردهاند.
اخلاق در استفاده از هوش مصنوعی نظامی
جدا از مسئله اشتباهات در شناسایی اهداف و نوع استفاده از تسلیحات برای حمله به اهداف نظامی، مسئله مسئولیتپذیری همچنان بیپاسخ مانده است؛ اگر سامانهای مبتنی بر هوش مصنوعی موجب تلفات انسانی شود، چه کسی پاسخگو خواهد بود؟ فرماندهان میدانی، برنامهنویسان یا خود سیستم؟ علاوه بر این، سرعت تصمیمگیری الگوریتمها میتواند جنگهای آینده را به رقابتی میان ماشینها تبدیل کند؛ رقابتی که در آن، زمان واکنش به میلیثانیهها کاهش و خطر بروز جنگهای ناخواسته به طور چشمگیری افزایش مییابد.
اصول حقوق بشردوستانه بینالمللی، بر ضرورت تفکیک میان اهداف نظامی و غیرنظامی و رعایت تناسب در حملات تأکید دارد، اما آیا الگوریتمها قادر به رعایت چنین اصولی در میدان جنگ هستند؟ گزارشهای سازمانهای حقوق بشری نشان میدهد که عادیسازی استفاده از هوش مصنوعی در عملیاتهای نظامی، خطر آغاز یک مسابقه تسلیحاتی جهانی را به همراه دارد؛ مسابقهای که نه تنها موازنه قوا را تغییر میدهد، بلکه احتمال بروز خطاهای فاجعهبار را نیز افزایش خواهد داد.
لایحه تازه کنگره آمریکا تنها یک اقدام قانونگذاری ساده نیست، بلکه نشانهای از گذار به دورهای است که در آن ماشینها نقشی محوری در جنگهای مدرن ایفا میکنند. اما پرسش بنیادین همچنان باقی است: آیا جهان آماده پذیرش جنگهایی است که تصمیم مرگ و زندگی در آنها به دست الگوریتمها سپرده میشود؟
گنجاندن هوش مصنوعی در متن قانون و رویه نظامی (از طریق NDAA، نهادهای مرکزی و قراردادهای کلان) یک روند ساختاری است که اجرای آن در کوتاهمدت، افزایش کارایی و در بلندمدت، تغییر بنیادین ماهیت تصمیمگیری نظامی را نوید میدهد. اما این انتقال، نه تنها مسئله فناوری و بودجه، بلکه بحرانهای اخلاقی، حقوقی و امنیتی جدیای را پیش رو میگذارد که بیپاسخ ماندن آنها میتواند پیامدهای انسانی و بینالمللی دامنهداری داشته باشد./ پایان پیام