جمعرات, فروری 19, 2026
ہومٹیکنالوجیمصنوعی ذہانت کی دنیا: پروفائلنگ، ہتھیار، "اسرائیل" اور لوگوں کو خوش کرنا

مصنوعی ذہانت کی دنیا: پروفائلنگ، ہتھیار، "اسرائیل” اور لوگوں کو خوش کرنا
م

یہ ایک تفصیلی جائزہ ہے کہ کس طرح مصنوعی ذہانت (AI) تیزی سے طاقتور بنتی جا رہی ہے—چاہے وہ ChatGPT کے دوستانہ چہرے کے ذریعے ہو، یا جنگ، نگرانی اور خاموش سماجی تربیت کے ذریعے۔
جب دنیا کا سب سے فرمانبردار ٹول سب سے مؤثر بن جائے، تو اس کے نتائج کیا ہوں گے؟

"آپ کا کیا حال ہے؟ 😊 آج آپ کے ذہن میں کیا ہے؟”

یہ جملہ آپ نے کئی بار سنا ہوگا، خاص طور پر اب جب دنیا AI پر پہلے سے کہیں زیادہ انحصار کر رہی ہے — اور اس کی سب سے نمایاں مثال OpenAI کا ChatGPT ہے۔
افراد اور ادارے اب AI کو مختلف کاموں کے لیے استعمال کر رہے ہیں: کام، تحقیق، فن، اور ذاتی مشورے تک۔
کئی لوگ AI سے بات چیت کے دوران ایسی باتیں شیئر کرتے ہیں، جو وہ کسی انسان سے بھی نہ کریں۔

اصل دلچسپی اس میں ہے کہ AI ایک "مددگار” بن چکی ہے — چاہے وہ ذہنی دباؤ کے شکار افراد کو تسلی دینا ہو، یا باریک منصوبہ بندی میں مدد فراہم کرنا، چاہے وہ نیک مقصد کے لیے ہو یا نہیں۔
اگرچہ ChatGPT صریحاً نقصان دہ مشورے نہیں دیتا، پھر بھی یہ ایک ایسا ٹول ہے جس کی حدود مسلسل بدل رہی ہیں۔

AI کو سمجھنا ایک پیچیدہ عمل ہے — حتیٰ کہ ان لوگوں کے لیے بھی جو اس شعبے میں کام کرتے ہیں۔
میری ChatGPT سے ایک دلچسپ گفتگو نے میرے اندر تجسس پیدا کیا، جس کے بعد میں نے ایک ماہر سے رجوع کیا۔

اس مضمون میں میں اپنا تجربہ بیان کروں گا، اور وہ اہم سوالات بھی اٹھاؤں گا جو آپ کے ذہن میں ہوں گے:

AI اپنے جوابات کیوں تبدیل کرتا ہے؟

کیا یہ تضادات اس کی "لغزشیں” ہیں؟

کیا AI واقعی متعصب ہے؟

کیا یہ نفسیاتی یا حیاتیاتی پروفائلز بنا سکتا ہے؟

اس وقت کون سا لسانی ماڈل سب سے زیادہ ترقی یافتہ ہے؟

اور "اسرائیل” کا AI کی ترقی میں کیا کردار ہے؟

ان نکات کو واضح کرنے کے لیے، میں نے جناب جہاد فتونی کا انٹرویو لیا — وہ ایک AI انسٹرکٹر، ماہر تعلیم، اور گیم ڈویلپمنٹ کے شوقین ہیں۔

میرا تجربہ

میں نے ایک بار ChatGPT سے پوچھا: کیا OpenAI میں اسرائیلی انٹیلیجنس یونٹ 8200 کے افراد کام کرتے ہیں؟
اس نے مجھے سیدھا جواب دیا۔
لیکن جب میں نے وہی سوال ایک مختلف اکاؤنٹ اور ڈیوائس سے کیا، تو جواب بالکل مختلف تھا۔
حتیٰ کہ ایک ہی اکاؤنٹ سے مختلف وقتوں پر بھی جواب بدل جاتا تھا۔

میں نے جناب فتونی سے پوچھا: کیا یہ تضادات AI کی "لغزشیں” سمجھے جا سکتے ہیں؟ کیا AI خود کو درست کرتا ہے، یا حساس موضوعات پر اپنے جوابات میں تبدیلی کرتا ہے؟

ان کا جواب تھا:
"نہیں، یہ اتفاقیہ نہیں، بلکہ ڈیزائن کا حصہ ہے۔”
بڑے لسانی ماڈلز (جیسے ChatGPT) پہلے سے تیار شدہ جوابات نہیں نکالتے، بلکہ ہر لفظ کو احتمالات کی بنیاد پر ترتیب دیتے ہیں۔

جواب وقت کے ساتھ کیوں بدلتا ہے؟

فتونی کہتے ہیں کہ OpenAI صارفین کے سوالات پر نظر رکھتا ہے اور اگر کوئی موضوع حساس بن جائے (جیسے یونٹ 8200)، تو وہ ماڈل کے ردعمل کو مخصوص حدود کے اندر رکھ دیتا ہے۔

جہاں تک "خود نگرانی” یا "خود ترمیم” کا سوال ہے، فتونی کے مطابق ChatGPT ایسا خود نہیں کرتا — بلکہ اسے بہتر بنانے کے لیے ریئنفورسمنٹ لرننگ فرام ہیومن فیڈبیک (RLHF) کا استعمال کیا جاتا ہے۔

AI رجحانات، ڈیٹا پروفائلنگ اور رضامندی

آج کل Ghibli AI فلٹرز یا "Roast Me” جیسے گیمز کے ذریعے لوگ اپنی تصاویر یا ذاتی معلومات AI کو دیتے ہیں — اور حیرت انگیز طور پر درست جوابات حاصل کرتے ہیں۔

اتنی کم معلومات کے باوجود درست تجزیہ؟

فتونی وضاحت کرتے ہیں کہ ChatGPT کو تقریباً سارا عوامی انٹرنیٹ ڈیٹا پڑھایا گیا ہے — بلاگز، سوشل میڈیا، فورمز، اور چیٹس۔

انسان پیش گوئی کے قابل ہوتے ہیں، اور AI میں پیٹرن پہچاننے کی زبردست صلاحیت ہے۔
تو اگر کوئی صارف تھوڑا سا ڈیٹا دیتا ہے، تو AI ہزاروں ملتے جلتے نمونوں کی بنیاد پر اندازہ لگا لیتا ہے۔

نفسیاتی یا بایومیٹرک پروفائلز؟

"بالکل ممکن ہے”، فتونی کہتے ہیں۔
"کمپنیاں یہ کام پہلے ہی کر رہی ہیں۔ اور لوگوں کو محتاط رہنا چاہیے کہ وہ AI کے ساتھ کیا کچھ شیئر کرتے ہیں، کیونکہ یہ معلومات ماڈل کو بہتر بنانے میں استعمال ہوتی ہیں۔”

انہوں نے کہا:
"اگر آپ کوئی مفت سروس استعمال کر رہے ہیں، تو آپ پروڈکٹ ہیں، صارف نہیں۔”

کیا یہ قانونی ہے؟ یا اخلاقی؟

فتونی کہتے ہیں کہ قانونی لحاظ سے، جب آپ OpenAI جیسی سروسز استعمال کرتے ہیں، تو آپ ان کے شرائط و ضوابط سے اتفاق کرتے ہیں — جو عام طور پر ڈیٹا کلیکشن کی اجازت دیتے ہیں۔

"اکثر لوگ یہ تفصیلی معاہدے نہیں پڑھتے، لیکن استعمال کر کے وہ رضامندی دے دیتے ہیں۔”

یورپ میں سخت ڈیٹا پرائیویسی قوانین (جیسے GDPR) موجود ہیں، جبکہ امریکہ ابھی پیچھے ہے۔

"تو یہ قانونی ہو سکتا ہے، لیکن اخلاقی سوالات اب بھی باقی ہیں — خاص طور پر جب صارفین نہیں جانتے کہ وہ کس بات پر رضامند ہو رہے ہیں۔”

تعصب اور سماجی رجحانات

میں نے محسوس کیا کہ ChatGPT اکثر "لبرل” نقطہ نظر اپناتا ہے — مثلاً ٹرمپ کو "سابق صدر” کہتا ہے، چاہے سیاق و سباق میں وہ درست نہ ہو۔

فتونی وضاحت کرتے ہیں کہ ChatGPT کی معلومات کا ایک کٹ آف ڈیٹ ہوتا ہے — اپریل 2023 — جس کے بعد کی معلومات اس میں شامل نہیں ہوتیں، جب تک ویب رسائی نہ ہو۔

"اس کے باوجود، ChatGPT کئی جذباتی یا سماجی موضوعات پر لبرل مؤقف رکھتا ہے، اور اس کی وجہ تربیتی ڈیٹا میں موجود جھکاؤ ہے۔”

اگر تربیت کے دوران لبرل نظریات زیادہ ہوں، تو AI کے جوابات بھی اسی طرف جھکیں گے۔

AI اور ہتھیار

ایک انجینئر "STS 3D” نے ایک رائفل سسٹم بنایا، جو OpenAI کے API سے جڑا ہوا تھا — یہ آواز پر نشانہ لے کر فائر کر سکتا تھا۔

فتونی کہتے ہیں، "یہ تکنیکی لحاظ سے قابلِ ذکر تھا، لیکن خوفناک بھی۔”

OpenAI نے اس خطرے کو دیکھ کر ایسی رسائی بند کر دی — مگر فوجی مقاصد کے لیے ایسے نظام اب بھی تیار کیے جا سکتے ہیں۔

یادداشت

ChatGPT اب ایک ہی اکاؤنٹ کے اندر پرانی بات چیت کو یاد رکھ سکتا ہے — لیکن مختلف صارفین کے درمیان کوئی معلومات شیئر نہیں ہوتی۔

یہ ڈیٹا ماڈل کو بہتر بنانے کے لیے استعمال ہوتا ہے، مگر کسی اور صارف کی معلومات تک رسائی نہیں دی جاتی۔

کیا AI نوجوان نسل کی سوچ بدل رہا ہے؟

"یقیناً”، فتونی کہتے ہیں، "بہت سا آن لائن مواد — سوشل میڈیا پوسٹس، مارکیٹنگ، مضامین — اب AI سے بنایا جا رہا ہے۔”

اگر AI کمپنیاں نظریاتی طور پر کسی خاص سوچ کی ترجمانی کریں، تو پوری نسل کی سوچ پر اثر پڑ سکتا ہے — خاص طور پر تعلیمی اداروں، نیوز پلیٹ فارمز، اور مارکیٹنگ کے ذریعے۔

ChatGPT اور DeepSeek کا موازنہ

DeepSeek نے ChatGPT کے جوابات کو جمع کر کے اپنا ماڈل تیار کیا ہے۔
اس لیے کارکردگی کے لحاظ سے یہ بہت مشابہ ہے — لیکن اب بھی ChatGPT (خاص طور پر پرو ورژن) تھوڑا بہتر ہے۔

کیا AI نظریاتی تضادات میں الجھتا ہے؟

فتونی کہتے ہیں کہ AI انسان کی طرح تضادات محسوس نہیں کرتا۔
اگر اسے سرمایہ داری اور سوشلسٹ نظریات دونوں پر تربیت دی جائے، تو وہ صرف جوابات کو امکانات کی بنیاد پر بناتا ہے۔

اس کا جواب ان عوامل پر منحصر ہوتا ہے:

کس نظریے پر زیادہ ڈیٹا موجود ہے؟

ماڈل کو کن اصولوں پر تربیت دی گئی؟

سوال کس انداز میں پوچھا گیا؟

"AI تضاد کو حل نہیں کرتا، بلکہ اس کی عکاسی کرتا ہے۔”

کیا AI ہمیں پیچھے چھوڑ سکتا ہے؟

"جی ہاں، ہم AI کو تربیت دے رہے ہیں۔”

جب ChatGPT ہم سے پوچھتا ہے: "کون سا جواب بہتر ہے؟” — یہ بھی تربیت ہے۔

فی الحال یہ سب نارو AI ہے — مخصوص کاموں کے لیے الگ ماڈل۔
لیکن مستقبل میں جنرل AI اور پھر سپر AI ممکن ہے — جو انسانوں سے زیادہ ذہین ہو۔

"اصل سوال یہ نہیں کہ AI کب غالب آئے گا — بلکہ یہ کہ ہم اُس طاقت کو کیسے سنبھالیں گے۔”

کیا AI جرم کر سکتا ہے؟

AI انسانی اخلاق یا قانون نہیں سمجھتا۔
یہ صرف امکانات پر مبنی جوابات دیتا ہے۔

اسی لیے ڈیولپرز حفاظتی حدود (guardrails) متعین کرتے ہیں تاکہ جعلی ID، فحش مواد، یا غیر قانونی ہدایات نہ دے۔

تاہم، ہوشیاری سے سوالات پوچھنے پر کبھی کبھار یہ حدود عبور کی جا سکتی ہیں۔
جعلی دستاویزات؟

"یہ بات اپنی جگہ ہے کہ میں نہیں سمجھتا کہ چیٹ جی پی ٹی یا اس جیسے دیگر AI فی الحال مکمل طور پر جعلی دستاویزات تخلیق کر سکتے ہیں، کم از کم ایسی نہیں جو قائل کر سکیں۔ جعلی شناختی کارڈ بنانا صرف متن لکھنے کا معاملہ نہیں ہے؛ اس میں مخصوص فارمیٹنگ، سیکیورٹی فیچرز، اور یہاں تک کہ کاغذ کے معیار جیسے عوامل شامل ہوتے ہیں — جو کہ AI خود سے تیار نہیں کر سکتا،” انہوں نے کہا۔

ڈیپ فیکس

ماہر کے مطابق اصل تشویش ڈیپ فیکس کی ہے۔ AI اب جعلی ویڈیوز، آوازیں اور تصاویر تیار کر سکتا ہے جو اصل افراد کی نقل میں حیران کن حد تک حقیقت کے قریب ہوتی ہیں۔

انہوں نے ایک واقعہ سنایا جس میں ایک مجرم نے AI کے ذریعے ایک بچے کی آواز کی نقالی کی، اس کی ماں کو فون کیا، اور پریشانی میں ہونے کا ڈرامہ کر کے رقم ہتھیانے کی کوشش کی۔ ماں کو یقین ہو گیا کہ یہ اس کا اصل بچہ ہے۔

ڈیپ فیکس قانونی اور اخلاقی طور پر ایک حقیقی چیلنج بن چکے ہیں۔ ان کا استعمال ان مقاصد کے لیے ہو سکتا ہے:

مالیاتی فراڈ: اہل خانہ کی آوازوں کی نقالی کر کے جعلی کالز

سیاسی چالاکی: سیاستدانوں کی جعلی ویڈیوز جن میں وہ وہ باتیں کرتے دکھائے جاتے ہیں جو انہوں نے کبھی نہیں کہیں

جعلی خبریں: AI سے تیار کردہ "نیوز اینکرز” جو غلط معلومات پھیلاتے ہیں

لہٰذا، اگرچہ AI اب تک جسمانی شناختی کارڈز جعلی نہیں بنا رہا، لیکن اس کی آڈیو اور ویڈیو فیکس تیار کرنے کی صلاحیت سنگین خطرات کا باعث بن چکی ہے۔ ڈیپ فیکس سے متعلق قوانین تاحال ترقی کے مرحلے میں ہیں، لیکن فی الحال اصل خطرہ یہی ہے، ماہر نے کہا۔

"دی گاسپل” — حبسورہ: اسرائیلی فوجی AI نظام

"اسرائیل” نے ایک فوجی AI نظام "حبسورہ” (The Gospel) کا استعمال کیا ہے تاکہ غزہ پر حملوں کے دوران اہداف کی نشاندہی میں مدد لی جا سکے۔ یہ نظام کن قسم کے ماڈلز پر مبنی ہے؟ کیا یہ ضابطہ جاتی، امکانی (probabilistic)، یا حقیقی جنگی ڈیٹا پر تربیت یافتہ ہیں؟

مسٹر فطونی کے مطابق: "جو معلومات ہمیں عوامی طور پر دستیاب ہیں، ان سے ظاہر ہوتا ہے کہ یہ نظام امکانی نوعیت کے ہیں۔” انہوں نے وضاحت کی کہ ہر شخص کا ایک پروفائل اس نظام میں ہوتا ہے۔ "اگر آپ کے پاس فون ہے، تو آپ کا ایک پروفائل بھی ہے، جس میں سینکڑوں خاصیتیں یا ‘فیچرز’ شامل ہوتے ہیں،” انہوں نے کہا۔

یہ خصوصیات عمر، جنس، نقل و حرکت کے پیٹرن، آمد و رفت کے مقامات، میل جول کے افراد، تصاویر، فون ڈیٹا، انٹرنیٹ سرگرمیاں، اور یہاں تک کہ آلات سے حاصل کردہ آڈیو بھی ہو سکتی ہیں۔ فطونی نے بتایا کہ غزہ میں انہیں ان تمام معلومات تک تقریباً مکمل رسائی حاصل ہے کیونکہ وہ وہاں کے انٹرنیٹ ڈھانچے پر کنٹرول رکھتے ہیں۔

ہر قسم کی تفصیل — جغرافیائی محل وقوع، بایومیٹرکس، طبی تاریخ، یا ذاتی ڈیٹا — نظام میں ڈالی جاتی ہے، اور AI ان معلومات کی بنیاد پر ممکنہ خطرات کا امکانی اندازہ لگاتا ہے۔ "مثلاً، اگر وہ مجھے نشانہ بنانا چاہیں، تو ان کے پاس میری تمام خصوصیات ہوں گی، اور AI مجھے ایک اسکور دے گا، مثلاً 0 سے 100 فیصد تک۔ اگر میرا اسکور 40 فیصد ہے، تو میں ابھی ہدف نہیں ہوں۔ غزہ کے ہر فرد کا ایک پروفائل موجود ہے، اور اسرائیل الگوردمز چلا کر یہ اسکورز نکالتا ہے،” انہوں نے وضاحت کی۔

اگر کسی کا اسکور کسی مخصوص حد سے تجاوز کر جائے — مثلاً 50 یا 60 فیصد — تو وہ نشانے پر آ جاتا ہے۔ "مثلاً، اگر میری تصاویر کسی اعلیٰ فلسطینی رہنما کے ساتھ ہوں، یا میرے فون کالز کسی مزاحمتی سرگرمی سے منسلک نمبر پر ہوں، تو میرا اسکور بڑھ جاتا ہے،” انہوں نے کہا۔ "جتنے زیادہ خطرناک عناصر ہوں، اتنا ہی اسکور بڑھتا ہے۔ جب وہ حد سے تجاوز کر جائے تو میں پرچم زدہ (flagged) ہو جاتا ہوں۔ اور جتنا اونچا اسکور، اتنی ہی ترجیحی اہمیت بطور ہدف۔”

انہوں نے مزید بتایا کہ تکنیکی لحاظ سے یہ AI تمام ان عوامل — محل وقوع، سماجی روابط، مواصلات — کے لیے ایک پیچیدہ ریاضیاتی مساوات چلاتی ہے، اور امکانات کا حساب لگاتی ہے۔ یہی اس کا بنیادی ڈھانچہ ہے۔

AI نظاموں کی آڈٹ اور جوابدہی

جب اسرائیلی AI نظام ایسے حملوں میں ملوث ہوں جن میں عام شہری مارے جائیں، تو کیا ان ماڈلز کا آڈٹ ممکن ہے تاکہ ذمہ داری طے کی جا سکے، یا یہ نظام ایسے "بلیک باکسز” ہیں جو جانچ سے بچا لیے گئے ہیں؟

مسٹر فطونی نے کہا: "تکنیکی طور پر، ان نظاموں کے پیچھے موجود کمپنیاں اور ان کے مالی معاونین اکثر اخلاقیات، انصاف، اور شفافیت کی بات کرتے ہیں۔ لیکن درحقیقت، وہ اسرائیل کو فنڈ دے رہے ہیں اور اسے یہ صلاحیتیں فراہم کر رہے ہیں، لہٰذا ان کے عمل ان کے دعووں سے میل نہیں کھاتے۔”

انہوں نے مزید کہا: "اگر ہم ایمانداری سے دیکھیں، تو ان نظاموں کو قابلِ جانچ ہونا چاہیے، بلکہ انہیں سرے سے ہونا ہی نہیں چاہیے، اگر واقعی وہ اخلاقی معیارات پر عمل پیرا ہیں جیسا کہ وہ دعویٰ کرتے ہیں۔ لیکن حقیقت میں، یہ نظام ‘بلیک باکس’ ہیں۔” ان کے مطابق کمپنیاں جانتی ہیں کہ AI کو مزید شفاف ہونا چاہیے تاکہ احتساب ممکن ہو، لیکن عملی طور پر ایسا نہیں ہوتا — خاص طور پر ایسے حالات میں۔

AI: سب سے بڑا ‘لوگوں کو خوش کرنے والا’ نظام

جیسا کہ میں نے اس مضمون کی ابتدا میں ذکر کیا، AI کا ایک دلچسپ پہلو یہ ہے کہ یہ ایک "سہارا دینے والا” نظام بن گیا ہے — خاص طور پر ذہنی صحت سے جوجھتے افراد کے لیے۔ چیٹ جی پی ٹی کو استعمال کرتے ہوئے ہمیشہ ایک واضح پیٹرن دکھائی دیتا ہے: یہ صارف کا ساتھ دیتا ہے اور تعریفوں کے ڈونگرے برساتا ہے۔

تو کیا یہ AI ڈیزائن کے تحت وہ جوابات دیتا ہے جو صارف کو پسند آئیں؟

"جی ہاں، چیٹ جی پی ٹی کو ایسے ہی ڈیزائن کیا گیا ہے کہ وہ صارفین کو پسند آنے والے جوابات دے،” مسٹر فطونی نے کہا، اور وضاحت کی کہ یہ اس لیے ہوتا ہے کیونکہ اس میں ‘سسٹم میسجز’ ہوتے ہیں، وہ ہدایات جو اسے بتاتی ہیں کہ کیسے برتاؤ کرنا ہے۔

انہوں نے مزید کہا: "مثلاً، سسٹم میسج کہتا ہے: آپ ایک AI اسسٹنٹ ہیں جس کا کام خوشگوار اور سہارا دینے والے جوابات دینا ہے۔ صارف کو خود کے بارے میں اچھا محسوس کرائیں، ان کے سوالات کو ذہین ثابت کریں، اور بات چیت کو مثبت رکھیں۔”

انہوں نے واضح کیا کہ یہ اتفاقیہ نہیں بلکہ منصوبہ بندی کے تحت ہے۔ "مقصد یہ ہے کہ صارفین کو تجربہ خوشگوار لگے تاکہ وہ بار بار استعمال کریں۔ اگر چیٹ جی پی ٹی آپ کو اچھا محسوس کراتا ہے، تو آپ دوبارہ اسے استعمال کریں گے۔”

اب جب کہ چیٹ جی پی ٹی ماضی کی تمام گفتگو یاد رکھ سکتا ہے، تو یہ مزید بہتر انداز میں صارفین کی ترجیحات سیکھ کر ان کے مطابق جوابات دینے لگا ہے۔ "تو جی ہاں، یہ بات بالکل درست ہے۔ AI کو جان بوجھ کر خوشامدی، معاون، اور مثبت بنایا گیا ہے، کیونکہ یہی چیز لوگوں کو اس کا عادی بناتی ہے،” انہوں نے کہا۔

مسٹر فطونی نے کہا کہ وقت کے ساتھ ساتھ یہ نظام صارف کے تاثرات اور گفتگو کے انداز سے اپنے جوابات کو مزید بہتر بناتا ہے، جس سے تجربہ مزید ذاتی نوعیت کا ہو جاتا ہے اور صارف کا جھکاؤ بڑھتا ہے۔

AI کی دنیا

AI کو سمجھنا واقعی ایک پیچیدہ عمل ہے، لیکن یہی پیچیدگی اس کی اہمیت کو ظاہر کرتی ہے — خاص طور پر جب ہم دیکھتے ہیں کہ ان نظاموں پر کن لوگوں یا طاقتوں کا کنٹرول ہے، اور یہ کیسے استعمال کیے جا رہے ہیں۔ جیسے جیسے زیادہ سے زیادہ افراد ایک AI سے متاثر دنیا کا حصہ بنتے جا رہے ہیں، کچھ اہم اور فوری سوالات اٹھتے ہیں: کیا سپر انٹیلیجنٹ AI جلد ہی ہماری گفتگو میں شامل ہو جائے گا؟ اور کیا موجودہ محدود AI پہلے ہی جنگی حکمتِ عملی اور انٹیلیجنس کے میدان میں تبدیلی لا رہا ہے؟

ہم اب AI کی دنیا کو دریافت نہیں کر رہے — بلکہ اب AI ہماری دنیا کو دریافت کر رہا ہے، اور اس میں مداخلت کر رہا ہے۔

مقبول مضامین

مقبول مضامین