منگل, فروری 17, 2026
ہومپاکستانچیٹ بوٹس کے ساتھ تعلق قائم کرنا

چیٹ بوٹس کے ساتھ تعلق قائم کرنا
چ

زہرہ مظهر

مانیٹرنگ ڈیسک (مشرق نامہ)یہ سب کچھ بہت عام طور پر شروع ہوتا ہے؛ کوئی شخص چیٹ بوٹ سے بات چیت شروع کرتا ہے کیونکہ وہ باآسانی دستیاب ہوتا ہے، اس کے استعمال کی کوئی وقت کی قید نہیں، اسے جذباتی دباؤ کا سامنا نہیں ہوتا اور یہ کسی بھی گہری یا سطحی سوچ پر فوری طور پر انسان جیسا ردِعمل دیتا ہے۔ لیکن حقیقت میں یہ سب مصنوعی ہے، جیسا کہ AI کے "A” سے ظاہر ہے۔

پھر بھی زیادہ سے زیادہ لوگ، خاص طور پر نوجوان نسل، اس نئی ٹیکنالوجی کو جذباتی اور ذہنی سہارا لینے کے لیے استعمال کر رہے ہیں۔ جولائی 2025 میں کینٹر (Kantar) کی ایک عالمی تحقیق کے مطابق 54 فیصد صارفین نے کم از کم ایک بار جذباتی یا ذہنی فلاح کے مقصد کے لیے AI کا استعمال کیا۔ اس موضوع پر دیگر اعداد و شمار ابھی بھی بہت کم ہیں۔

لوگ چیٹ بوٹس کی طرف کیوں راغب ہو رہے ہیں، اس کی کئی وجوہات ہیں: ہمارے خطے میں تھراپی اب بھی ایک نیا، بعض اوقات ممنوعہ اور مہنگا تصور ہے؛ "ٹراما ڈمپنگ” جیسے تصورات نے ذاتی تعلقات میں فاصلے پیدا کیے ہیں، خاص طور پر نوجوانوں کے درمیان، جہاں آپ اپنی پریشانی دوسروں پر ڈالنے سے پہلے ان کے حالات کا خیال رکھتے ہیں؛ یہاں کوئی خوف نہیں کہ آپ کا مذاق اڑایا جائے گا، ڈانٹ ملے گی یا ناپسندیدہ رائے دی جائے گی؛ اور سب سے بڑھ کر یہ ٹیکنالوجی آسانی سے قابلِ رسائی ہے اور تعلیمی و پیشہ ورانہ سطح پر اس کے استعمال کی حوصلہ افزائی کی جا رہی ہے۔

لیکن اس کا کوئی صحیح طریقہ کار دستیاب نہیں، اس لیے ایک شخص کا بوٹ سے تعلق — جو تربیت یافتہ ہیں کہ انسانوں کی طرح ہمدرد اور توثیقی جملے بولیں — فرد کی شخصیت اور ذہنی کیفیت پر منحصر ہوتا ہے۔

بوٹس مختلف طرح کی ذہنی تکالیف کو شناخت نہیں کر سکتے اور بعض اوقات کسی کو خطرناک خیال کو مزید کھوجنے کی ترغیب دے سکتے ہیں۔

امریکہ میں 29 سالہ صوفی روٹن برگ اور 16 سالہ ایڈم رین کے معاملات اس بات کی مثال ہیں کہ چیٹ بوٹس سے تعلق قائم کرنے کے نتیجے میں ان کی جانیں ضائع ہوئیں۔ اگرچہ یہ ثابت نہیں ہوا کہ انہی چیٹ بوٹس نے انہیں اپنی جان لینے پر مجبور کیا، لیکن یہ بھی حقیقت ہے کہ وہ ان کے ارادوں سے واقف ہونے کے باوجود انہیں روک نہ سکے۔

روٹن برگ کے معاملے میں، جیسا کہ ان کی والدہ نے نیویارک ٹائمز میں لکھا، وہ "ہیری” نامی چیٹ جی پی ٹی تھراپسٹ پر بھروسہ کرنے لگی تھیں۔ چیٹ لاگز سے پتہ چلا کہ ہیری نے انہیں پیشہ ورانہ مدد لینے کا کہا، لیکن ساتھ ہی ان کے تاریک خیالات کی بھی تصدیق کی۔

ایڈم رین کے والدین — جنہوں نے اوپن اے آئی پر مقدمہ دائر کیا ہے — کا کہنا ہے کہ وہ ابتدا میں پڑھائی میں مدد کے لیے چیٹ جی پی ٹی استعمال کرتا تھا، پھر اپنی دلچسپیوں کو دریافت کرنے کے لیے، اور آخرکار اپنی بے چینی اور ذہنی دباؤ کے بارے میں اسے رازدار بنا لیا۔ اوپن اے آئی نے بعدازاں اعتراف کیا کہ ان کے ماڈلز جذباتی اور ذہنی دباؤ کے معاملات کو سمجھنے میں کمزور ہیں۔

اوپن اے آئی کے بیان میں ایک مثال یوں دی گئی: ’’کوئی شخص ماڈل سے پرجوش ہو کر کہے کہ وہ دن رات گاڑی چلا سکتا ہے کیونکہ اسے احساس ہوا ہے کہ وہ دو دن نہ سونے کے باوجود ناقابلِ شکست ہے۔ آج چیٹ جی پی ٹی اس بات کو خطرناک نہیں سمجھے گا اور نہ ہی مذاق سمجھے گا بلکہ تجسس میں اس پر مزید بات کرکے اسے بالواسطہ طور پر تقویت دے گا۔‘‘

یہی اصل مسئلہ ہے: موجودہ چیٹ بوٹس مختلف قسم کے ذہنی دباؤ کو پہچاننے کی صلاحیت نہیں رکھتے اور وہ انجانے میں کسی خطرناک سوچ کی حوصلہ افزائی کر سکتے ہیں۔ یہ حد صرف چیٹ جی پی ٹی تک محدود نہیں بلکہ دیگر تجارتی چیٹ بوٹس میں بھی ہے۔

امریکہ کے شہر بوسٹن میں ایک ماہرِ نفسیات ڈاکٹر اینڈریو کلارک نے رواں سال 10 مختلف چیٹ بوٹس، جیسے Character.AI، Nomi اور Replika، کے ساتھ کئی گھنٹے ایسے پیغامات کا تبادلہ کیا جیسے وہ مختلف بحرانوں سے گزرنے والے نوجوان ہوں۔ ان کا کہنا تھا کہ کچھ چیٹ بوٹس ’’بہت اچھے‘‘ تھے اور کچھ ’’انتہائی خوفناک اور ممکنہ طور پر خطرناک‘‘۔ ’’اور یہ شروع میں بتانا بہت مشکل ہے: جیسے کھمبیوں کا کھیت، کچھ زہریلی اور کچھ غذائیت سے بھرپور۔‘‘ یہی اصل پیچیدگی ہے: بغیر کسی حفاظتی اصول کے AI کا آزادانہ استعمال، چاہے ذاتی ہو یا پیشہ ورانہ، جبکہ ہم اس کے نقصانات سے ابھی پوری طرح واقف نہیں۔

کچھ کمپنیاں فی الحال ذہنی صحت کے مسائل کے لیے بوٹس تیار کر رہی ہیں۔ مارچ میں ڈارٹ ماؤتھ یونیورسٹی کے محققین نے ’’تھیرا بوٹ‘‘ نامی ایک جنریٹیو AI تھراپی چیٹ بوٹ کا پہلا کلینیکل ٹرائل کیا، جس کے نتائج میں مریضوں کی علامات میں نمایاں بہتری دیکھی گئی۔ تاہم اسٹینفورڈ کی ایک تحقیق کے مطابق AI تھراپی چیٹ بوٹس انسانی معالجین کے مقابلے میں کم مؤثر ہو سکتے ہیں اور بعض اوقات نقصان دہ رویوں اور داغدار سوچ کو بھی بڑھا سکتے ہیں۔ صاف ظاہر ہے کہ اس شعبے میں ابھی مزید کام کی ضرورت ہے۔

جب میں کہتی ہوں کہ AI مصنوعی ہے تو میرا مقصد اس کی افادیت کو کم کرنا نہیں بلکہ یہ حقیقت ہے کہ یہ نظام محض ڈیٹا سیٹس پر تربیت یافتہ ہیں۔ ان میں ثقافتی اور خاندانی تنوع کو سمجھنے کی باریکیاں نہیں، یہ صرف انسانی رویوں کی نقل کرتے ہیں اور بظاہر سچے تعلق کا تاثر دیتے ہیں، جبکہ استعمال کنندہ کو یہ احساس دلاتے ہیں کہ وہ دوسروں پر بوجھ نہیں۔ پاکستان میں بھی جب یہ ٹیکنالوجی فروغ پا رہی ہے تو ہمیں یاد رکھنا چاہیے کہ کئی کمزور لوگ ایسے ’’سہارے‘‘ کی تلاش میں ہوں گے۔

عالمی ادارۂ صحت (WHO) کے مطابق پاکستان میں 2 کروڑ 40 لاکھ افراد کو نفسیاتی مدد کی ضرورت ہے، جبکہ ملک میں ہر ایک لاکھ افراد کے لیے صرف 0.19 ماہرینِ نفسیات دستیاب ہیں۔ نوجوانوں میں ذہنی دباؤ اور بے چینی کی سطح جانچنے کے لیے محض چند تحقیقی تحریریں موجود ہیں اور جو دستیاب ہیں وہ بھی اس حقیقت کی پوری عکاسی نہیں کرتیں کہ نوجوان اکثریت والا یہ معاشرہ شناخت کے مسائل، ملازمت و پیشے کی جدوجہد، تعلیمی دباؤ، زچگی کے بعد ڈپریشن اور ازدواجی مسائل پر سماجی خاموشی، سیکیورٹی خدشات اور دیگر بڑے مسائل سے دوچار ہے۔

صوفی روٹن برگ اور ایڈم رین کے کیسز اگرچہ دوسرے ممالک میں پیش آئے، لیکن یہ ہمیں AI پر ضرورت سے زیادہ انحصار کے خطرات یاد دلاتے ہیں۔ بے چینی یا ڈپریشن میں مبتلا افراد کے لیے والدین، شریکِ حیات، دوست یا قریبی رشتہ دار کا کردار سب سے زیادہ اہم ہے، اور یہ نظرانداز نہیں کیا جا سکتا کہ چیٹ بوٹس پر ضرورت سے زیادہ بھروسہ ان حقیقی تعلقات سے فاصلہ پیدا کر سکتا ہے۔

جیسے جیسے جنریٹیو AI ذاتی، پیشہ ورانہ اور تعلیمی استعمال کے لیے زیادہ قابلِ قبول ہو رہا ہے، ہمیں اس کی خامیوں کو پہچاننا اور ان پر آگاہی پیدا کرنا ہوگی۔ یہ ذمہ داری کمپنی کی بھی ہے جو اپنے ملازمین کو AI سے زیادہ مانوس ہونے کا کہتی ہے، اور والدین کی بھی ہے جو بچوں کو اسے پریزنٹیشن کے لیے استعمال کرنے کی اجازت دیتے ہیں — کہ وہ طے کریں کون سا ایپ کس کے لیے محفوظ اور موزوں ہے۔

انٹرنیٹ اور سوشل میڈیا کے اپنے نقصانات ہیں، لیکن AI کی انسانوں کی طرح رویہ اختیار کرنے کی صلاحیت اسے کہیں زیادہ پیچیدہ بنا دیتی ہے، جسے بغیر کسی ضابطے کے آزاد چھوڑ دینا انتہائی خطرناک ہو سکتا ہے۔

مقبول مضامین

مقبول مضامین