مسایل بین‌المللی

فهرست نام افرادی که در نسل کشی اسرائیل کشته می شوند توسط فناوری هوش مصنوعی تهیه می شود

مجله اسرائیلی- فلسطینی “۹۷۲+” پژوهش‌هایی انجام داده است که منجر به افشاگری‌هایی شگرف در مورد استفاده اسرائیل از “فهرست‌های کشتار” منجر شده است. این فهرست‌ها که توسط فناوری هوش مصنوعی تهیه می‌شوند برای هدف قرار دادن فلسطینی‌های متهم به شبه‌نظامیگری در غزه می‌باشند و با بمباران‌های منجر به تلفات گسترده غیرنظامیان در کارزار نسل‌کشی اسرائیل در غزه که از ۷ اکتبر ۲۰۲۳ آغاز شد. این گزارش به این نکته اشاره می‌کند که یک برنامه کامپیوتری هوش مصنوعی به‌نام “اسطوخودوس” (Lavender) نقش اصلی را در بمباران‌های بی‌سابقه فلسطینی‌ها، به‌ویژه در مراحل نخست جنگ، ایفا کرده است. این برنامه توسط “واحد تخصصی ۸۲۰۰” ارتش اسرائیل تهیه شده است که همراه با یک سیستم هوش مصنوعی دیگر به نام “انجیل” استفاده شد. در حالی که “انجیل”، ساختمان‌ها و سازه‌هایی را که به‌طور احتمالی توسط شبه‌نظامیان استفاده می‌شوند شناسایی می‌کند، “اسطوخودوس” افراد را شناسایی کرده و آن‌ها را به فهرست کشتار برای حذف هدفمند اضافه می‌کند.

 

شیوهٔ کار

بر اساس این گزارش، در هفته‌های نخست جنگ، ارتش اسرائیل تقریباً به‌طورکامل به “اسطوخودوس” برای شناسایی افراد و خانه‌های آنان برای حملات هوایی متکی بود. این نرم‌افزار تا حدود ۳۷ هزار نفر فلسطینی را به‌عنوان “مظنونین شبه‌نظامی” مرتبط با حماس معرفی کرد. ارتش اسرائیل دست افسران خود را باز گذشت تا لیست کشتار تهیه شده را بدون نیاز به تحقیق بیشتر انسانی یا بررسی متقابل اطلاعات زمینی در مورد این افراد، بپذیرند. تحقیق انسانی برای هر هدف فقط به  ۲۰ ثانیه محدود می‌شد تا تأیید شود که هدف مورد نظر، پیش از صدور دستور آتش، مرد می‌باشد زیرا اگر هدف زن باشد، خطای نرم افزار محسوب شده چرا که حماس، زنان را در شاخه نظامی خود استخدام نمی‌کند. این برنامه، با وجود اینکه واقف بود که اغلب اشتباه می‌کند و گاهی اهدافی را انتخاب می‌کند که هیچ ارتباطی با گروه‌های شبه‌نظامی نداشتند، باز هم مورد استفاده قرار می‌گرفت. ارتش اسرائیل به‌طورسیستماتیک افراد را در داخل خانه‌های‌شان هدف قرار می‌داد. این حملات معمولاً هنگام شب‌ که خانواده‌ها در خانه خود بودند و نه در جریان درگیری نظامی صورت می‌گرفت. این استراتژی به این دلیل انتخاب شده بود که ردیابی افراد در محل سکونت آنان آسان‌تر بود. علاوه بر این، سیستم‌های خودکار، از جمله سیستم ردیابی “بابا کجاست؟” به‌طورخاص برای دنبال کردن افراد مورد هدف و بمباران کردن آنان هنگامی که در خانه‌های‌شان بودند به‌کار گرفته می‌شد. در نتیجه و در اثر تصمیم‌گیری برنامه هوش مصنوعی تعداد زیادی فلسطینی که به‌طورعمده زنان، کودکان، سالمندان و سایر افراد غیر‌نظامی بودند با حملات هوایی اسرائیل کشته شدند.

اطلاعات جمع‌آوری شده از رصد تجسسی از ۳/ ۲ میلیون نفر اهالی غزه به سیستم اسطوخودوس داده می‌شود و سپس این برنامه احتمال ارتباط هر یک از اهالی با شاخه نظامی حماس را تجزیه و تحلیل کرده و این احتمال را از ۱ تا ۱۰۰ رتبه‌بندی می‌کند تا نشان دهد چقدر احتمال دارد آنان از شبه‌نظامیان حماس باشند. اسطوخودوس “یاد می‌گیرد” خصوصیات شبه‌نظامیان شناخته‌شدهٔ حماس را که اطلاعات دربارهٔ آنان به‌عنوان داده‌های آموزشی به سیستم داده شده است شناسایی کند و سپس سعی می‌کند همین خصوصیات را (که در هوش مصنوعی “ویژگی ها” نامیده می‌شود) در بین مردم عادی پیدا کند. “ویژگی‌های” معمولی شامل مشخصات ظاهری یک فرد، اطلاعات استفاده از تلفن همراه، ارتباط فرد از راه رسانه‌های اجتماعی مانند عضویت در گروه‌های واتس‌آپ، سابقه نظامی، ارتباطات تلفنی و عکس‌های او می‌شود. در حالی که انسان‌ها از ابتدا قابلیت درک این ویژگی‌ها را دارند، هوش مصنوعی به‌تدریج و به‌خودی خود باید این ویژگی‌ها را شناسایی کند و یاد بگیرد و نتیجه غیرقابل پاسخگویی می‌تواند کاملاً مبهم باشد. فردی که مشخص شود دارای چند ویژگی مجرمانه مختلف است، رتبه بالایی دریافت می‌کند و بنابراین به‌طورخودکار هدف بمباران قرار می‌گیرد. تعیین آستانه درجه بندی افراد برای بمباران به‌طورخودسرانه صورت می‌گرفت و زمانی که افسران اسرائیلی هدفی برای بمباران پیدا نمی‌کردند، این آستانه‌ها را کاهش می‌دادند. افسران ارتش اسرائیل خوب می‌دانستند این سیستم افرادی را که الگوهای ارتباطی‌ای مشابه با شبه‌نظامیان شناخته شده حماس داشتند- از جمله کارکنان پلیس و دفاع مدنی، بستگان ستیزه‌جویان، ساکنان با نام یا با نام مستعار مشابه با شبه نظامیان و افرادی که از تلفنی که زمانی متعلق به یکی ازبستگان  کشته شده‌شان بوده استفاده می‌کردند به‌اشتباه شناسایی می‌کند. ارتش اسرائیل به‌رغم اینکه می‌دانست این سیستم به‌هیچ‌وجه بدون خطا نیست، به‌طورگسترده به آن همچون ابزاری برای نسل‌کشی وحشتناک و یادآوری بی‌رحمی و ظلم اسرائیل متکی بود.

 

تلفات عظیم غیرنظامیان

ارتش اسرائیل در اقدامی بی‌سابقه تصمیم گرفت همراه با شناسایی هر فعال ساده حماس توسط اسطوخودوس، کشتن ۱۵ تا ۲۰ نفر غیرنظامی مجاز می‌باشد! در گذشته، ارتش هنگام ترور مبارزان رده پایین، اجازه وقوع هیچ‌گونه “تلفات جانبی” را نمی‌داد در صورتی که در مورد اهداف تعیین شده توسط اسطوخودوس، ارتش ترجیح داد تنها از موشک‌های غیرهدایت شونده نسبتاً ارزان موسوم به “بمب غیرهوشمند” استفاده کند که قادر به تخریب ساختمان ها و نابودی تعداد بسیاری خانواده به‌عنوان “تلفات جانبی” است. منطق اسرائیلی‌ها چنین حکم می‌کند که “بمب‌های گران قیمت را نباید برای افراد بی‌اهمیت به‌هدر داد. هزینه آن‌ها برای کشور سنگین و در کمبود می‌باشند.”

اگر هدف مورد نظر یک مقام ارشد حماس با درجه فرماندهی گردان یا تیپ بود، ارتش اجازه کشتن بیش از ۱۰۰ نفر غیرنظامی را در جریان این ترور می‌داد. اسطوخودوس و سیستم‌هایی مانند “پدر کجاست؟” را بنابراین مرگبار کردند تا جایی که خانواده‌ها و گاهی همه محله‌ها را از بین ببرند. بیشتر افراد کشته شده زن و کودک بودند. به‌منظور ترور ایمن نوفال، فرمانده تیپ مرکزی غزه حماس، ارتش مجوز کشتن حدود ۳۰۰ نفر غیرنظامی را صادر کرد و در پی شناسایی نادرست مکان نوفال، بیش از ۱۵ خانه در بمباران اردوگاه آوارگان البریج در ۱۷ اکتبر نابود شدند.

 

نقش شرکت های بزرگ فناوری ایالات متحده

زیرساخت‌های فنی برای اجرای این برنامه‌های مرگبار هوش مصنوعی ممکن است ساخته شرکت‌های آمریکایی باشند. در آوریل سال ۲۰۲۱، وزارت دارایی اسرائیل یک قرارداد برای یک سیستم ۲/۱ میلیارد دلاری با شرکت‌های گوگل و آمازون به‌نام “پروژه نیمبوس” را اعلام کرد. در یک بیانیه رسمی آمده است: “این پروژه برای ارائه یک ٬فضای ابری٬ به دولت، سازمان‌های دفاعی و دیگر نهادهای اسرائیلی می‌باشد.”

در گزارشی که توسط نشریه اینترنتی “اینترسپت” منتشر شده است، اشاره شده که شرکت گوگل مجموعه کاملی از ابزارهای یادگیری ماشینی و هوش مصنوعی را از طریق پلتفرم “ابر گوگل” در اختیار دولت اسرائیل قرار داده است. اسناد شرکت گوگل نشان می‌دهند که “پروژه نیمبوس” قابلیت‌های تشخیص چهره، دسته‌بندی خودکار تصویر، ردیابی اشیا و حتی تجزیه و تحلیل محتوای احساسی تصاویر، گفتار و نوشتار را به اسرائیل خواهند داد. جامعه فناوری چنین ادعاهای مشکوک در مورد تشخیص احساسات یک فرد با استفاده از حالات چهره را غیر علمی و بی‌اعتبار نامید. بسیاری از کارمندان گوگل نسبت به استفاده از فناوری‌هایی مانند AutoML، یک ابزار هوش مصنوعی گوگل که از طریق پروژه نیمبوس به اسرائیل ارائه شده است و از بی‌دقتی و استفاده امنیتی- نظامی آن ابراز نگرانی کردند. کارمندان گوگل چندین ماه است که در سراسر ایالات متحده به نقش کارفرمای خود و همدستی در نسل‌کشی اسرائیل در غزه اعتراض کرده‌اند. سازمان‌دهندگان اعتراض “نه به فناوری در خدمت آپارتاید” در دفاتر گوگل در بیانیه‌ اخیر خود اعلام کرده‌اند شرکت گوگل بیش از ۵۰ کارمند را به‌دلیل شرکت در این اعتراضات اخراج کرده است.

به‌خوبی ثابت شده است که انحصارات فناوری بزرگ ایالات متحده مانند گوگل و آمازون در مجموعه نظامی- صنعتی- امنیتی ایالات متحده هستند و سهم قابل‌توجهی از درآمدهای‌شان را از این راه به‌دست می‌آورند. همه روش‌های تجاری شرکت‌هایی مانند گوگل و فیس‌بوک مبتنی بر نظارت فراگیر کاربران از طریق تلفن‌های هوشمند است. سازمان‌های اطلاعاتی ایالات متحده مانند آژانس امنیت ملی (NSA) اکنون به این بخش عظیم از داده‌های شخصی کاربران دسترسی کامل دارند. این شرکت‌ها در حال حاضر سرمایه‌گذاری هنگفتی بر روی هوش مصنوعی انجام می‌دهند و کاربردهای نظامی مانند موارد ذکر شده در این مقاله را به‌عنوان منابع عظیم درآمد در سال‌های آینده می‌بینند. نگرانی‌های اخلاقی در مورد استفاده غیرانسانی از فناوری‌های مشکوک هوش مصنوعی‌شان برای انجام نسل‌کشی و پیشبرد سیاست‌های آپارتاید دولت اسرائیل برای این شرکت‌ها که با اسرائیلی‌ها یا سایر نهادهای مورد تأیید و همکار دولت ایالات متحده کار می‌کنند چندان مانع سختی به‌شمار نمی‌آیند. همین شرکت‌ها “منشورهای اخلاقی درباره هوش مصنوعی” که عملاً نوعی “ظاهرسازی اخلاقی” است، یا تعهدات بی‌اثر که تنها ظاهرسازی‌ای علیه خشونت می‌باشد را منتشر کرده‌اند. آنچه هوش مصنوعی را خطرناک می‌سازد لگام گسیختگی‌اش آن‌گونه که “منشورهای اخلاقی” این شرکت‌ها می‌خواهند باور کنیم نیست. آنچه خطرناک است فعالیت‌های عادی این انحصارات فناوری و کشورهای زیر رهبری امپریالیسم ایالات متحده است که در برابر هرگونه نظم جهانی لگام گسیخته عمل می‌کنند.

نوشتهٔ “باپا سینها”

[منبع نقل و برگردان به‌فارسی: نشریهٔ “دموکراسی خلق”، ارگان حزب کمونیست هند (مارکسیست)، ۲۸ آوریل ۲۰۲۴/۹ اردیبهشت‌ماه ۱۴۰۳ ].

به نقل از «نامۀ مردم» شمارۀ ۱۲۰۸، ۳۱ اردیبهشت ۱۴۰۳

 

نوشته های مشابه

دکمه بازگشت به بالا