غزه امروز چیزی فراتر از یک میدان نبرد است؛ اینجا “آزمایشگاه تاریک جنگافروزی در آینده” است. جایی که دو سامانه پیشرفته هوش مصنوعی اسرائیلی—«لوندر و گاسپل» در هم تنیده شدهاند تا مفهومی هولناک را از صفحات داستانهای علمی-تخیلی به واقعیت خونین میدان نبرد تبدیل کنند: “یک ماشین قتل خودکار با مقیاس صنعتی”.
این همکاری دیجیتال مرزی را که بین «جنگ هوشمند» و «قتل ماشینی» وجود داشت، محو کرده و پرسش های بنیادین درباره اخلاق، حقوق بشر و آینده بشریت را به شدت مطرح میکند.
۱. لوندر: الگوریتمی که قاضی، هیئت منصفه و جلاد میشود
وظیفه لوندر تنها شناسایی نیست؛ “او شکارچی دیجیتالی” است که زندگی هر فرد در غزه و یا سراسر جهان را به یک مجموعه داده تقلیل میدهد. این سامانه با تحلیل عظیم دادههای کلان عمل میکند:
• “ردیابی همهجانبه:” هر حرکت در فضای مجازی—تماسهای تلفنی، پیامها در پیامرسانها، ارتباطات شبکههای اجتماعی، حتی فونتهای استفادهشده در تایپ—توسط الگوریتمهای آن زیر ذرهبین میرود.
• “نمرهدهی مرگ:” سیستم به هر فرد یک «“امتیاز هدفمندی بین 0 تا 100 میدهد. این نمره، که بر اساس الگوهای رفتاری محاسبه میشود، احتمال تعلق فرد به گروههای مورد نظر (حماس و یا دیگران ) را مشخص میکند. گزارشها حاکی از آن است که “آستانه این امتیاز آنقدر پایین تنظیم شده” که دهها هزار نفر را در لیست هدف قرار میدهد.
• “خروجی:” نتیجه این فرآیند، یک “فهرست سیاه دیجیتال” است—لیستی از نامها و هویتهایی که از نظر ماشین، «مجاز به حذف» هستند.
۲. گاسپل : نقشه کش نابودی
اگر لوندر «چه کسی» را مشخص میکند، گاسپل «“کجا”» را پیدا میکند. این سامانه نقش یک شناساییگر جغرافیایی فوقالعاده پیشرفته را بازی میکند:
• “تجمیع اطلاعات مکانی:” گاسپل با اسکن دائمی تصاویر ماهوارهای، اطلاعات پهپادی و دادههای شنود، هر مکانی که با افراد شناساییشده توسط لوندر مرتبط است را—اعم از خانه، دفتر کار، تونل، یا حتی یک مغازه—پیدا و نقشهبرداری میکند.
• “تبدیل مکان به مختصات:” این سامانه این مکانها را به “مختصات دقیق برای حمله” تبدیل میکند. گاسپل میداند کجا باید راه را برای «عمل» باز کند.
چرخه شوم نابودی: وقتی دو هوش مصنوعی دست به دست هم میدهند
ترکیب این دو سیستم، یک حلقه بازخورد مرگبار و فوقسریع ایجاد میکند:
• “شکار:” لوندر یک فرد را بر اساس الگوهای دیجیتال شناسایی و امتیازدهی میکند.
• “ردیابی:” گاسپل تمام مکانهای مرتبط با آن فرد را در دنیای فیزیکی پیدا میکند.
• “ادغام دادهها :” دادههای این دو سیستم ادغام میشوند و یک «هدف کامل» میسازند: یک فرد در یک مکان مشخص.
• “تأیید انسانی صوری :” یک اپراتور انسانی تنها “۲۰ ثانیه” فرصت دارد تا این هدف را—بدون دسترسی به زمینه کامل یا دلایل محاسبه امتیاز—”تأیید یا رد کند”. اینجا انسان نه یک تصمیمگیرنده، که یک “مهر تأیید سریع” بر تصمیم از پیش گرفتهشده ماشین است.
“نتیجه نهایی؟” شتابی وحشتآور در کشتار. توانایی هدفگیری “صدها هدف در روز”، چیزی که در جنگهای متعارف گذشته غیرممکن بود. و همین میزان هدف در عرض یکسال امکان پذیر بود
هزینه پنهان «کارایی» ماشینی: نابودی غیرنظامیان و اضطراب دائمی
این «پیشرفت» نظامی، بهایی نجومی دارد:
• “خطاهای فاجعهبار:” هر اشتباه در الگوریتم—یک ارتباط دیجیتال اشتباه، یک الگوی رفتاری گمراهکننده، یک داده ناقص—منجر به “قتل غیرنظامیان، کودکان و خانوادهها” در خانههایشان میشود. ماشین وجدان ندارد؛ فقط محاسبه میکند و نابود میکند.
• “جامعه تحت نظارت :” این سیستم جامعه را در وضعیت “اضطراب و ترس دائمی” قرار میدهد. هیچ حریم خصوصی در فضای دیجیتال یا امنیت در دنیای فیزیکی وجود ندارد. هرکسی میتواند به دلیل یک «الگوی مشکوک» به یک هدف تبدیل شود.
• “کمرنگ شدن مسئولیت :” وقتی کشتار توسط یک الگوریتم پیشنهاد و توسط یک اپراتور در ۲۰ ثانیه تأیید میشود، “مسئولیت حقوقی و اخلاقی واقعی بر عهده کیست؟”
1. برنامهنویس؟
2. فرماندهی که سیستم را خریداری کرد؟
3. اپراتوری که تحت فشار زمانی فقط «تأیید» کرد؟
4. یا خود هوش مصنوعی؟
این سیستم میتواند به «ماشین رفع مسئولیت جمعی» تبدیل شود، جایی که هیچکس مسئول مستقیم کشتار نیست و اصولی مانند تمایز بین نظامی و غیرنظامی و تناسب حمله زیر پا گذاشته میشود. اگر ادامه یابد، آینده جنگ بدون صاحب و مسئول خواهد شد و بشریت به ورطه مسئولیتگریزی مطلق سقوط خواهد کرد.