
روباتهای قاتل یا تصمیمات انسانی؛ مسئولیت جنگهای هوشمند با کی است؟
ورود هوش مصنوعی نظامی به عرصه جنگهای مدرن، پرسشهای بنیادینی درباره مرز میان تصمیم انسانی و الگوریتمی ایجاد کرده است. در حالی که این فناوری به قلب سامانههای دفاعی و تهاجمی قدرتهای بزرگ راه یافته، نگرانی اصلی بر سر این است که در صورت بروز خطا یا تصمیم مرگبار، چه کسی باید پاسخگو باشد؛ انسان یا ماشین؟
تهدید هوش مصنوعی برای امنیت جهانی
پنی وونگ، وزیر خارجه استرالیا، در نشست شورای امنیت سازمان ملل هشدار داد که استفاده از هوش مصنوعی در تسلیحات هستهای و سامانههای بدون سرنشین میتواند اساس بقای بشریت را تهدید کند. او تأکید کرد که برخلاف رهبران انسانی که تصمیماتشان بر پایه وجدان و قضاوت اخلاقی است، هوش مصنوعی فاقد احساس و درک پیامدهاست و ممکن است بدون هشدار موجب تشدید غیرقابل پیشبینی درگیریها شود. این نگرانی در قالب مفهومی به نام شکاف مسئولیت (Accountability Gap) در محافل حقوقی و نظامی مطرح شده است.
ابعاد استفاده از هوش مصنوعی در جنگ
هوش مصنوعی از دهه ۱۹۵۰ وجود داشته، اما پیشرفتهای اخیر در یادگیری ماشین و شبکههای عصبی مرز میان تصمیمسازی انسانی و ماشینی را کمرنگ کرده است. امروز این فناوری در حوزههای مختلف نظامی به کار گرفته میشود:
- آموزش و شبیهسازی جنگی برای آمادهسازی نیروها
- تحلیل اطلاعات و پشتیبانی لجستیکی
- هدفگیری و کنترل پهپادها و موشکهای هدایتشونده
نمونه بحثبرانگیز اخیر، سامانه «Lavender» ارتش رژیم صهیونیستی است که بر اساس تحلیل دادههای کلان، فهرستی از اهداف بالقوه تولید میکرد و در حملات هوایی علیه غیرنظامیان غزه به کار گرفته شد؛ اقدامی که مرز میان فناوری و اخلاق را به چالش کشیده است.

شکاف مسئولیت؛ از افسانه رباتهای قاتل تا واقعیت انسانی
رسانهها از اصطلاح «رباتهای قاتل» برای توصیف این پدیده استفاده میکنند، اما واقعیت این است که هیچ سامانهای تاکنون مسئولیت حقوقی نداشته است. مسئولیت همواره متوجه طراحان، فرماندهان و تصمیمگیرندگان انسانی است. همانطور که در پرونده رسوایی «Robodebt» در استرالیا، دولت مسئول شناخته شد نه سیستم محاسبهگر، در حوزه نظامی نیز پاسخگویی باید متوجه انسانها باشد.
زنجیره مسئولیت در چرخه عمر سامانههای هوش مصنوعی
هر سامانه نظامی مبتنی بر هوش مصنوعی در چرخهای شامل طراحی، توسعه، استقرار و بهرهبرداری عمل میکند. در هر مرحله، تصمیمهای انسانی تعیینکننده است. خطاهای این سامانهها بازتابی از دادههای آموزشی، معیارهای هدفگیری و سیاستهای اجرایی هستند. بنابراین، مقرراتگذاری باید بر انسانهای فعال در این زنجیره متمرکز باشد، نه بر خود ماشینها.
آیا هوش مصنوعی ماهیت جنگ را تغییر میدهد؟
برخلاف برخی ادعاها، هوش مصنوعی ماهیت جنگ را دگرگون نکرده است. جنگ همچنان عرصه ارادهها و قضاوتهای انسانی است. فناوری تنها ابزار تصمیمگیری را سریعتر و دقیقتر میکند. بحران اصلی در انتقال بار مسئولیت از سطح عملیاتی به مراحل طراحی و الگوریتمسازی است؛ جایی که خطاها در کدها و دادهها نهادینه میشوند.
بازتعریف مسئولیت در عصر جنگهای هوشمند
هوش مصنوعی نه موجودی خودمختار است و نه بیوجدان؛ بلکه بازتاب انتخابها و ارزشهای انسانی است. چالش اصلی، ایجاد نظامی شفاف برای تنظیمگری و پاسخگویی است که بتواند زنجیره چندلایه مسئولیت را ردیابی کند. در غیر این صورت، خطر واقعی نه از جانب رباتهای قاتل، بلکه از سوی انسانهایی است که پشت الگوریتمها پنهان میشوند و از پاسخگویی میگریزند.
جمعبندی
هوش مصنوعی در جنگهای مدرن ابزاری قدرتمند است، اما مسئولیت همچنان بر دوش انسان باقی میماند. اگر جامعه جهانی نتواند چارچوبی روشن برای پاسخگویی در استفاده نظامی از این فناوری تدوین کند، «شکاف مسئولیت» میتواند به یکی از بزرگترین تهدیدهای امنیت بینالملل در قرن بیستویکم تبدیل شود.
ماهان زند
من فارغالتحصیل رشته مهندسی کامپیوتر هستم و از دوران نوجوانی به دنیای فناوری علاقهمند بودم. فعالیت حرفهای خودم را از سال ۱۳۹۷ با نوشتن مقالههای نقد و بررسی گجتهای هوشمند در یک وبلاگ شخصی آغاز کردم. پس از کسب تجربه، به عنوان نویسنده و تحلیلگر در نشریات مختلف فعالیت کردم و در حال حاضر، به عنوان دبیر بخش فناوریهای نو در یک مجله معتبر تکنولوژی مشغول به کار هستم. تلاش من این است که آخرین اخبار و پیشرفتهای دنیای فناوری را به زبانی ساده و کاربردی برای مخاطبان ارائه دهم.