
“وزارت جنگ” ایالات متحده در نشستی خبری در ۴ مارس/ ۱۳ اسفندماه ۱۴۰۴ به مجموعهای از هدفهایش در طول صد ساعتِ نخستِ جنگ ایالات متحده و اسرائیل علیه ایران اشاره میکند. استفاده از “هوش مصنوعی” این امکان را به ارتش متخاصم داد تا هدفهایی بسیار بیشتر نسبت به آنچه برنامهریزی انسانی بهتنهایی میتوانست فراهم کند که از آن جمله هدف قرار دادن مدرسهٔ میناب بود.
جنگها در دهه سوم قرن ۲۱ بهطرزی فزاینده کمتر توسط انسانها و بیشتر توسط “الگوریتم”۱ها سازمان داده میشوند. ما شاهدیم که در جنگ علیه ایران “هوش مصنوعی” چگونه با سرعتی بیسابقه روند ویرانی را پیش میبرد و مجموعهای از مسئلههای اخلاقیای عمیق را بههمراه میآورد. جنگهای جدید بهندرت صرفاً نظامی هستند، بلکه بیشتر بهمنزلهٔ میدانهای آزمایش فناوری نیز عمل میکنند. درگیری کنونی در ایران به میدان آزمایشی غمانگیز برای فناوریهای پیشرفته تبدیل شده است. در این جنگ ما شاهد دگرگونیای در فناوری هستیم که تا همین اواخر غیرقابل تصور بود. تنها در عرض چهار روز پنتاگون موفق شد بیش از ۲۰۰۰ هدف را مورد اصابت قرار دهد. بنا به گفتهٔ وزیر جنگ ایالات متحده، پیت هگست، عملیات کنونی علیه ایران تا کنون دو برابر مرگبارتر از تهاجم به عراق در سال ۲۰۰۳ / ۱۳۸۲و هفت برابر قدرتمندتر از جنگ ۱۲روزهٔ ژوئن ۲۰۲۵ / خردادماه ۱۴۰۴ علیه ایران بوده است. این شتاب عظیم در مرگبارتر و قدرتمندتر شدن تهاجم نتیجهٔ مستقیم ادغام سامانههای پیشرفته هوش مصنوعی در عملیات نظامی است. در درون ارتش ایالات متحده نرمافزارها در جریان عملیات نقش نوعی مغز دیجیتال را دارند. سامانهٔ موسوم به “Maven” دادههای بلادرنگ میدان نبرد را تحلیل میکند و کل “زنجیرهٔ کشتار” را پشتیبانی میکند: از شناساییِ هدف تا ارزیابیِ خسارت پس از حمله.
این سامانه مجموعهای از مدلهای مختلف هوش مصنوعی را برای تفسیر اطلاعات و ارائهٔ توصیهها ترکیب میکند. هوش مصنوعی مولد (مشابه فناوریای که غیرنظامیان برای کارهای اداری یا آموزشی استفاده میکنند) به فرماندهان کمک میکند تا دادههای پیچیده را درک کرده و تصمیمگیری کنند. با این سامانه، یک گام کیفیای جدید برداشته میشود. این فناوری از خلاصهسازی سادهٔ دادهها به استدلالهای پیچیده تکامل یافته است. این امر به ارتشها امکان میدهد تا در مقیاسی عمل کنند که پیشتر از نظر فیزیکی برای برنامهریزان انسانی ناممکن بود. نتیجهاش دست یافتن به سرعتی از عملیات نظامی است که تا کنون سابقه نداشته است. شایان توجه است که سیستم “Maven” توسط شرکت نرمافزاری “Palantir ” طراحی شده است که توسط میلیاردر راست افراطی، پیتر تیل، بنیانگذاری شده است. این الیگارش فناوری، جزو حامیان مالی مهم دونالد ترامپ، رئیسجمهور و جی دی ونس، معاون رئیسجمهور، است.
انسان در مقامِ تماشاگرِ ماشین
یکی از مشکلهای اساسی در این جنگِ برقآسا، نقش عامل انسانی است. اگرچه بهطور رسمی هنوز این سربازان هستند که تصمیم نهایی را میگیرند، اما برای آنان درک و نظارتِ منطق عملکرد ماشین بهطورفزاینده دشوار میشود. یک الگوریتم در هر ثانیه میلیونها محاسبه انجام میدهد که بررسی آن برای انسان عملاً ناممکن است. کارشناسان هشدار میدهند که این وضعیت، سربازان را در موقعیتی قرار میدهد که کورکورانه به توصیههای کامپیوتر اعتماد کنند. هدفی که بهسرعت تولید شده را هنگامی که توجیهِ آن درونِ “جعبهسیاه”ی نفوذناپذیر پنهان شده است، از نظر روانی و عملی تقریباً غیرممکن است رد کرد. بنابراین، کنترل انسانی به تشریفاتی صرفاً اداری کاهش مییابد. افزون بر این، گام بعدی تهدید میکند که حتی رادیکالتر هم بشود. برخی از برنامهریزان نظامی، سامانههای تسلیحاتیای را خواهان هستند که کاملاً مستقل و بدون کنترل مستقیم انسانی عمل کنند. سامانههایی که بهمنزلهٔ سیستمهای تسلیحاتی خودکار مرگبار(LAWS) شناخته میشوند. پیامدهای این دیدگاه تونلی دیجیتال در ایران بهطرزی دردناک آشکار شده است. حملهٔ ویرانگر به یک مدرسه ابتدایی دخترانه در میناب پرسشهایی مهم در مورد تأیید دادهها را مطرح میکند. هرچند تحقیقات همچنان ادامه دارد، ولی این فاجعه نشان میدهد انتخاب هدفها توسط الگوریتمها بدون نظارت و پالایش مناسب انسانی چه خطرهایی مرگبار در پی دارد.
مرزهای اخلاقی در عصر “الگوریتم”ها
افزون بر خطرهای فنی ایراد اخلاقیای اساسی به برون سپردن تصمیمهای مرتبط با زندگی و مرگ وجود دارد. آیا باید به یک ماشین اختیار داده شود پیرامون مرگ انسانها تصمیم بگیرد؟ بحث دربارهٔ خطرهای “سامانههای تسلیحاتیای خودمختارِ مرگبار” (“LAWS”) با توجه به سرمایهگذاریهای گستردهٔ ایالات متحده و چین در فناوریهایی که میتوانند بدون مداخلهٔ انسانی اقدام به کشتار کنند، فوریتی افزونتر یافته است. حامیان این فناوریها ادعا میکنند هوش مصنوعی میتواند خطای انسانی را کاهش دهد و درنتیجه از تلفات غیرنظامیان جلوگیری کند. با این حال، وضعیت در ایران با این موضوع در تضاد است. با آسیب دیدن دههاهزار ساختمان از جمله هزاران خانهٔ مسکونی، بهنظر میرسد از دقتِ هوش مصنوعی در درجهٔ نخست بهمنظور تخریبِ بیشتر در زمانی کمتر استفاده میشود، نه بهمنظورِ صِرِف اقدام با دقتی بیشتر. حتی شرکتهای فناوری هم گاهی به جانب ترمز کردن گام برمیدارند. شرکت “آنتروپیک” (شرکتی که پشت رُبات گفتگوگر “Claude” قرار دارد) اخیراً از واگذاری کامل کنترل مدلهای هوش مصنوعی خود به “پنتاگون” بهمنظور استفادهٔ محرمانه خودداری کرد. این امتناع از واگذاری کامل به درگیریای منجر شد که در آن واشنگتن فناوری این شرکت را از زنجیرهٔ تأمین نظامی حذف کرد.
نیاز فوری به قوانینی بینالمللی
نبودِ اطمینان در مدلهای فعلی هوش مصنوعی استفادهٔ از آنها در میدان نبرد را حتی خطرناکتر میکند. این سامانهها بر اساس احتمالهای آماری عمل میکنند و نسبت به “توهم ها” (خطاهای آشکار) حساس هستند. سیستمی که اطلاعات نادرست را در یک “چتبات”۲ اختراع میکند، آزاردهنده است، ولی در یک سامانهٔ تسلیحاتی، فاجعهبار خواهد بود. بنابراین، زمان آن فرا رسیده است که مهلت قانونیای بینالمللی برای استفاده از سلاحهای کاملاً خودمختار تعیین شود. گروه کاری سازمان ملل که سالهاست در این مورد بحث میکند سرانجام به نتیجههایی الزامآور باید دست یابد. همانگونه که کاربرد سلاحهای شیمیایی و بیولوژیکی ممنوعیت جهانی دارد ما به برقرار کردن محدودیتهایی روشن و مشخص برای استفاده از هوش مصنوعی در زمان جنگ نیز نیاز داریم.
ایالات متحده و چین در مقام ابرقدرتهای فناوری مسئولیتی بسیار سنگین بر دوش دارند. آنها به توافقهایی برای محدود کردن گسترش این فناوری و پاسخگوییهای انسانی باید دست یابند. جامعهٔ جهانی باید خواستار شفاف ماندن زنجیره کشتار شود و همیشه بتوان یک انسان را مسئول هر گلوله یا موشکی دانست که شلیک میشود. بدون مقررات سختگیرانه، ما با آیندهای مواجه خواهیم بود که در آن گروههایی انبوه از پهپادهای ارزان بهطور خودمختار به شکار انسانها میپردازند، سناریویی که انگار مستقیماً از یک فیلم “ویران سرایی” (دیستوپیایی) آمده است. هر جنگ جدید، توسعه و بهکارگیری هوش مصنوعی در میدان نبرد را تسریع میکند. بدون نیل به توافقهایی بینالمللی در این زمینه ما با جهانی روبرو خواهیم بود که در آن ماشینها بیش از پیش تعیین میکنند که چه کسی زنده بماند و چه کسی بمیرد.
نوشتهٔ مارک وندپیت، نشریهٔ “پیپلز وورلد” (“جهان مردم”) نشریهٔ اینترنتی حزب کمونیست آمریکا، ۲۷ اسفند ۱۴۰۴ (۱۸ مارس ۲۰۲۶).
——————————————–
۱. الگوریتم: در ریاضیات و علوم کامپیوتر، الگوریتم دنبالهای محدود از دستورالعملهای کاملاً تعریف شده است که معمولاً برای حل یک مجموعه ای از مسئلههای خاص یا انجام محاسبات استفاده میشود [با بهرهگیری از ویکیپدیای فارسی].
۲. چتبات: عاملی نرمافزاری است که برای شبیهسازی یک مکالمهٔ هوشمند با یک یا چند کاربرِ انسانی از طریق صدا یا متن طراحی شده است [با بهرهگیری از ویکیپدیای فارسی].
به نقل از «نامۀ مردم» شمارۀ ۱۲۵۷، ۱۷ فروردین ۱۴۰۵





