اسرائیلی قابض افواج ایک مصنوعی ذہانت (AI) ماڈل پر کام کر رہی ہیں جو کہ روکے گئے مواصلاتی پیغامات کا تجزیہ کرتا ہے، تاہم ماہرین اس نظام کی خامیوں پر تشویش کا اظہار کر رہے ہیں۔
برطانوی اخبار دی گارڈین، +972 میگزین، اور لوکل کال کی مشترکہ تحقیق کے مطابق، اسرائیلی فوج کی ایلیٹ انٹیلی جنس یونٹ 8200 نے ایک جدید مصنوعی ذہانت کا نظام تیار کیا ہے جو چیٹ جی پی ٹی (ChatGPT) کے طرز پر بنایا گیا ہے اور قابض افواج کی نگرانی کی صلاحیتوں میں مزید اضافہ کرے گا۔
یہ نظام بڑی تعداد میں روکے گئے فلسطینی فون کالز اور پیغامات پر تربیت یافتہ ہے اور اسے مقبوضہ فلسطینی علاقوں میں شہریوں کی نگرانی کو مزید مؤثر اور ممکنہ طور پر جابرانہ بنانے کے لیے استعمال کیا جائے گا۔
یہ AI ماڈل عربی زبان میں ہونے والی گفتگو پر عمل کرتا ہے اور اسے موجودہ وسیع نگرانی کے نظام سے جمع کردہ ڈیٹا پر مبنی بنایا گیا ہے۔ انٹیلی جنس افسران مبینہ طور پر اس نظام کو ایک چیٹ بوٹ کی طرح استعمال کرتے ہیں، جس میں زیرِ نگرانی افراد کے بارے میں سوالات پوچھے جاتے ہیں اور AI ان روکے گئے پیغامات کی بنیاد پر جوابات فراہم کرتا ہے۔
"نفرت انگیز لہجوں” پر مرکوز AI ماڈل
چاکید راجر جوزف سیدوف، جو ایک سابق اسرائیلی فوجی انٹیلی جنس ماہر ہیں، نے 2023 میں ایک مصنوعی ذہانت کانفرنس کے دوران اس منصوبے کی موجودگی کا اعتراف کیا اور کہا کہ یہ "نفسیاتی حدوں سے زیادہ” عربی زبان کا ڈیٹا استعمال کرتا ہے۔
سابق انٹیلی جنس افسران نے بھی اس اقدام کی تصدیق کرتے ہوئے بتایا کہ ابتدائی مشین لرننگ ماڈلز نے اس جدید AI نظام کی راہ ہموار کی۔
اس منصوبے سے واقف ایک ذریعے نے اس ٹیکنالوجی کے وسیع اثرات پر روشنی ڈالتے ہوئے کہا:
"مصنوعی ذہانت طاقت کو بڑھاتی ہے۔ یہ صرف حملے روکنے کے لیے نہیں، بلکہ میں انسانی حقوق کے کارکنوں کی نگرانی کر سکتا ہوں، فلسطینی تعمیرات پر نظر رکھ سکتا ہوں اور جان سکتا ہوں کہ مغربی کنارے میں ہر شخص کیا کر رہا ہے۔”
بڑے پیمانے پر ڈیٹا اکٹھا کرنے کا سلسلہ
اس بڑے پیمانے پر ہونے والی ڈیٹا اکٹھا کرنے کی مہم سے پتہ چلتا ہے کہ یونٹ 8200 نے فلسطینی مواصلاتی رابطوں کا ایک وسیع آرکائیو تیار کر لیا ہے، جو ماہرین کے مطابق وسیع پیمانے پر جاسوسی کے مترادف ہے۔
انسانی حقوق کے کارکنان خبردار کر رہے ہیں کہ انٹیلی جنس کے کام میں مصنوعی ذہانت کا انحصار سنگین خطرات پیدا کر سکتا ہے۔ بڑے زبان ماڈلز (LLMs) جیسی AI ٹیکنالوجیز غلطیوں، تعصبات، اور غلط تشریحات کا شکار ہو سکتی ہیں۔
ہیومن رائٹس واچ کے سینئر محقق زیک کیمبل کا کہنا ہے:
"یہ ایک اندازہ لگانے والی مشین ہے، اور بالآخر ان اندازوں کو لوگوں کو مجرم ٹھہرانے کے لیے استعمال کیا جا سکتا ہے۔”
جب اسرائیلی قابض افواج (IOF) کے ترجمان سے اس منصوبے کے بارے میں سوال کیا گیا تو انہوں نے کہا کہ اسرائیلی انٹیلی جنس "مشرق وسطیٰ میں دہشت گردی کی سرگرمیوں کی نشاندہی اور ان کا مقابلہ کرنے کے لیے مختلف طریقے استعمال کرتی ہے۔”
AI ماڈلز کا ناجائز استعمال
یونٹ 8200 کے لیے مصنوعی ذہانت پر مبنی نگرانی کا نظام کوئی نیا تصور نہیں ہے۔ اس یونٹ نے پہلے بھی دی گاسپل اور لیونڈر جیسے AI سسٹمز تیار کیے تھے، جو غزہ میں اسرائیلی فوجی کارروائیوں میں استعمال کیے گئے۔ ان سسٹمز نے فضائی حملوں کے لیے اہداف کی نشاندہی میں کردار ادا کیا، جس سے AI کا فوجی فیصلوں میں بڑھتا ہوا اثر و رسوخ واضح ہوتا ہے۔
2022 میں چیٹ جی پی ٹی کے آغاز کے بعد یونٹ 8200 نے اسی طرز پر ایک AI نظام بنانے کی کوشش کی۔ یہاں تک کہ انہوں نے OpenAI کے ساتھ تعاون کرنے کی بھی کوشش کی، لیکن ان کی درخواست مسترد کر دی گئی۔
یہ منصوبہ 7 اکتوبر 2023 کو آپریشن طوفانِ الاقصیٰ کے بعد مزید تیزی سے آگے بڑھا، جب گوگل، میٹا، اور مائیکروسافٹ کے AI ماہرین سمیت کئی ریزروسٹ اہلکاروں کو فوج میں دوبارہ طلب کر لیا گیا تاکہ اس نظام کی ترقی میں مدد مل سکے۔
ذرائع کے مطابق، یونٹ 8200 کا مقصد اپنی انٹیلی جنس فائلوں میں موجود ہر عربی گفتگو کو AI میں ضم کرنا تھا۔ سابق انٹیلی جنس افسر سیدوف نے مبینہ طور پر کہا کہ یہ AI ماڈل خاص طور پر "وہ لہجے شناخت کرنے کے لیے بنایا گیا تھا جو ہم سے نفرت کرتے ہیں۔”
بڑے پیمانے پر نگرانی اور گرفتاریاں
یہ نیا AI ماڈل خاص طور پر مغربی کنارے میں اسرائیلی انٹیلی جنس آپریشنز میں مزید شدت لا چکا ہے، جہاں یہ وسیع پیمانے پر نگرانی اور زیادہ سے زیادہ گرفتاریوں میں مدد کر رہا ہے۔
AI ماڈل ان افراد کو نشانہ بنانے میں مدد دیتا ہے جو قابض افواج کے خلاف غم و غصہ ظاہر کرتے ہیں یا کسی ممکنہ حملے پر بات کرتے ہیں۔
یونٹ 8200 کے ایک سابق افسر نے بتایا:
"AI نگرانی ہمیں مزید افراد کے بارے میں معلومات پر کارروائی کرنے کی اجازت دیتی ہے، جس کا مطلب ہے کہ آبادی پر مزید کنٹرول۔ جب آپ کے پاس اتنی زیادہ معلومات ہوں، تو آپ اسے کسی بھی مقصد کے لیے استعمال کر سکتے ہیں۔”
فلسطینی ڈیجیٹل حقوق کے گروپوں نے AI پر مبنی نگرانی کی مذمت کی ہے۔ 7amleh کے ڈائریکٹر ندیم ناشف نے اسرائیلی قابض افواج پر تنقید کرتے ہوئے کہا کہ وہ فلسطینیوں کو "ایک فوجی AI تجربہ گاہ کے تجرباتی مضامین” میں تبدیل کر رہی ہیں۔
خطرناک نتائج
ماہرین متنبہ کر رہے ہیں کہ فوجی انٹیلی جنس میں مصنوعی ذہانت کا غیر محتاط انضمام خطرناک نتائج پیدا کر سکتا ہے۔ AI ماڈلز اکثر غلطیاں کرتے ہیں، ارادوں کو غلط سمجھتے ہیں، اور گمراہ کن نتائج پیش کرتے ہیں، جس سے بلاجواز گرفتاریوں اور بے گناہ افراد کے خلاف کارروائی کا خطرہ پیدا ہو سکتا ہے۔
وائٹ ہاؤس کی سابق قومی سلامتی افسر بریانا روزن کا کہنا ہے:
"اگرچہ AI خطرات کی نشاندہی میں مدد دے سکتا ہے، لیکن یہ غلط الزامات اور ناقص فیصلوں کا بھی باعث بن سکتا ہے۔ غلطیوں کا ہونا ناگزیر ہے، اور کچھ غلطیاں جان لیوا بھی ثابت ہو سکتی ہیں۔”
ان خدشات کو 2023 میں غزہ پر اسرائیلی فضائی حملے کے بعد مزید تقویت ملی، جس میں چار شہری مارے گئے، جن میں تین کم عمر لڑکیاں بھی شامل تھیں۔ تحقیقات کے مطابق، اس حملے میں انٹیلی جنس افسران نے AI کی غلط تشخیص کی بنیاد پر کارروائی کی۔
جب اسرائیلی فوج سے پوچھا گیا کہ وہ AI پر مبنی انٹیلی جنس میں درستگی اور انصاف کیسے یقینی بناتی ہے، تو حکام نے تفصیلات بتانے سے انکار کر دیا۔ تاہم، IOF کے ایک ترجمان نے دعویٰ کیا کہ "ہر ٹیکنالوجی کے استعمال میں مکمل انسانی نگرانی شامل ہوتی ہے۔”
عالمی تشویش
ماہرین کا کہنا ہے کہ اسرائیلی قابض افواج کا AI پر مبنی انٹیلی جنس سسٹم مغربی ممالک کی خفیہ ایجنسیوں کے مقابلے میں زیادہ وسیع پیمانے پر نگرانی کے لیے استعمال ہو رہا ہے، جو بین الاقوامی قوانین اور انسانی حقوق کے اصولوں کے خلاف ہے۔
ہیومن رائٹس واچ کے زیک کیمبل نے کہا:
"یہ ایسے افراد کا ذاتی ڈیٹا ہے، جن پر کسی جرم کا شبہ بھی نہیں، اور اسے ایک ایسے نظام کی تربیت کے لیے استعمال کیا جا رہا ہے جو بعد میں فیصلہ کرے گا کہ کسے مشتبہ سمجھا جانا چاہیے۔”

