ربات‌های قاتل یا تصمیمات انسانی مسئولیت جنگ‌های هوشمند بر عهده کیست؟

روبات‌های قاتل یا تصمیمات انسانی؛ مسئولیت جنگ‌های هوشمند با کی است؟

ورود هوش مصنوعی نظامی به عرصه جنگ‌های مدرن، پرسش‌های بنیادینی درباره مرز میان تصمیم انسانی و الگوریتمی ایجاد کرده است. در حالی که این فناوری به قلب سامانه‌های دفاعی و تهاجمی قدرت‌های بزرگ راه یافته، نگرانی اصلی بر سر این است که در صورت بروز خطا یا تصمیم مرگبار، چه کسی باید پاسخ‌گو باشد؛ انسان یا ماشین؟


تهدید هوش مصنوعی برای امنیت جهانی

پنی وونگ، وزیر خارجه استرالیا، در نشست شورای امنیت سازمان ملل هشدار داد که استفاده از هوش مصنوعی در تسلیحات هسته‌ای و سامانه‌های بدون سرنشین می‌تواند اساس بقای بشریت را تهدید کند. او تأکید کرد که برخلاف رهبران انسانی که تصمیماتشان بر پایه وجدان و قضاوت اخلاقی است، هوش مصنوعی فاقد احساس و درک پیامدهاست و ممکن است بدون هشدار موجب تشدید غیرقابل پیش‌بینی درگیری‌ها شود. این نگرانی در قالب مفهومی به نام شکاف مسئولیت (Accountability Gap) در محافل حقوقی و نظامی مطرح شده است.


ابعاد استفاده از هوش مصنوعی در جنگ

هوش مصنوعی از دهه ۱۹۵۰ وجود داشته، اما پیشرفت‌های اخیر در یادگیری ماشین و شبکه‌های عصبی مرز میان تصمیم‌سازی انسانی و ماشینی را کمرنگ کرده است. امروز این فناوری در حوزه‌های مختلف نظامی به کار گرفته می‌شود:

  • آموزش و شبیه‌سازی جنگی برای آماده‌سازی نیروها
  • تحلیل اطلاعات و پشتیبانی لجستیکی
  • هدف‌گیری و کنترل پهپادها و موشک‌های هدایت‌شونده

نمونه بحث‌برانگیز اخیر، سامانه «Lavender» ارتش رژیم صهیونیستی است که بر اساس تحلیل داده‌های کلان، فهرستی از اهداف بالقوه تولید می‌کرد و در حملات هوایی علیه غیرنظامیان غزه به کار گرفته شد؛ اقدامی که مرز میان فناوری و اخلاق را به چالش کشیده است.


روبات‌های قاتل یا تصمیمات انسانی؛ مسئولیت جنگ‌های هوشمند با کی است؟
روبات‌های قاتل یا تصمیمات انسانی؛ مسئولیت جنگ‌های هوشمند با کی است؟

شکاف مسئولیت؛ از افسانه ربات‌های قاتل تا واقعیت انسانی

رسانه‌ها از اصطلاح «ربات‌های قاتل» برای توصیف این پدیده استفاده می‌کنند، اما واقعیت این است که هیچ سامانه‌ای تاکنون مسئولیت حقوقی نداشته است. مسئولیت همواره متوجه طراحان، فرماندهان و تصمیم‌گیرندگان انسانی است. همان‌طور که در پرونده رسوایی «Robodebt» در استرالیا، دولت مسئول شناخته شد نه سیستم محاسبه‌گر، در حوزه نظامی نیز پاسخ‌گویی باید متوجه انسان‌ها باشد.


زنجیره مسئولیت در چرخه عمر سامانه‌های هوش مصنوعی

هر سامانه نظامی مبتنی بر هوش مصنوعی در چرخه‌ای شامل طراحی، توسعه، استقرار و بهره‌برداری عمل می‌کند. در هر مرحله، تصمیم‌های انسانی تعیین‌کننده است. خطاهای این سامانه‌ها بازتابی از داده‌های آموزشی، معیارهای هدف‌گیری و سیاست‌های اجرایی هستند. بنابراین، مقررات‌گذاری باید بر انسان‌های فعال در این زنجیره متمرکز باشد، نه بر خود ماشین‌ها.


آیا هوش مصنوعی ماهیت جنگ را تغییر می‌دهد؟

برخلاف برخی ادعاها، هوش مصنوعی ماهیت جنگ را دگرگون نکرده است. جنگ همچنان عرصه اراده‌ها و قضاوت‌های انسانی است. فناوری تنها ابزار تصمیم‌گیری را سریع‌تر و دقیق‌تر می‌کند. بحران اصلی در انتقال بار مسئولیت از سطح عملیاتی به مراحل طراحی و الگوریتم‌سازی است؛ جایی که خطاها در کدها و داده‌ها نهادینه می‌شوند.


بازتعریف مسئولیت در عصر جنگ‌های هوشمند

هوش مصنوعی نه موجودی خودمختار است و نه بی‌وجدان؛ بلکه بازتاب انتخاب‌ها و ارزش‌های انسانی است. چالش اصلی، ایجاد نظامی شفاف برای تنظیم‌گری و پاسخ‌گویی است که بتواند زنجیره چندلایه مسئولیت را ردیابی کند. در غیر این صورت، خطر واقعی نه از جانب ربات‌های قاتل، بلکه از سوی انسان‌هایی است که پشت الگوریتم‌ها پنهان می‌شوند و از پاسخ‌گویی می‌گریزند.


جمع‌بندی

هوش مصنوعی در جنگ‌های مدرن ابزاری قدرتمند است، اما مسئولیت همچنان بر دوش انسان باقی می‌ماند. اگر جامعه جهانی نتواند چارچوبی روشن برای پاسخ‌گویی در استفاده نظامی از این فناوری تدوین کند، «شکاف مسئولیت» می‌تواند به یکی از بزرگ‌ترین تهدیدهای امنیت بین‌الملل در قرن بیست‌ویکم تبدیل شود.

مجله تکنولوژی فرداد

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *