Aaj News

اتوار, دسمبر 22, 2024  
20 Jumada Al-Akhirah 1446  

چیٹ جی پی ٹی کو اپنے راز مت بتائیں ورنہ پچھتائیں گے

اے آئی ٹولز کو بتائی گئی ذاتی معلومات بعد میں آپ کے خلاف استعمال کی جا سکتی ہیں۔
شائع 28 دسمبر 2023 03:38pm

چیٹ جی پی ٹی (ChatGPT) یا ریپلیکا (Replika) جیسے اے آئی ٹولز بات چیت کرنے اور دل ہلکا کرنے کا ایک اچھا ذریعہ ثابت ہوئے ہیں۔ لیکن حالیہ مطالعے میں خبردار کیا گیا ہے کہ اے آئی ٹولز کے ساتھ گہرے راز شئیر کرنا آپ کو خطرے میں ڈال سکتا ہے۔

محققین کے مطابق، ان اے آئی ٹولز کو بتائی گئی ذاتی معلومات بعد میں آپ ہی کے خلاف استعمال کی جا سکتی ہیں۔

آکسفورڈ یونیورسٹی کے کمپیوٹر سائنس کے پروفیسر، مائیک وولریج کی طرف سے چیٹ جی پی ٹی جیسے مصنوعی ذہانت کے حامل ٹولز کے ساتھ راز اور ذاتی معلومات کا اشتراک کرنے کے بارے میں انتباہات بلند اور واضح ہیں۔

ان کا کہنا ہے کہ یہ اے آئی سسٹمز، اگرچہ سمجھدار لگتے ہیں لیکن ان میں احساسات کا فقدان ہے۔ وہ ایسے جوابات دینے کے لیے پروگرام کیے گئے ہیں جو آپ کو خوش کرتے ہیں، لیکن ان میں حقیقی جذبات یا تجربات کی کمی ہے۔

مائیک وولرج نے ڈیلی میل کو بتایا کہ ’یہ ٹیکنالوجی بنیادی طور پر آپ کو وہ بتانے کی کوشش کرنے کے لیے بنائی گئی ہے جو آپ سننا چاہتے ہیں۔ اس میں کوئی ہمدردی نہیں ہے۔‘

وولرج نے خبردار کیا کہ آپ جو بھی چیز چیٹ جی پی ٹی کے ساتھ شیئر کرتے ہیں وہ براہ راست سسٹم کے مستقبل کے ورژن میں جا سکتی ہے۔

انہوں نے اس کا موازنہ فیس بک جیسے پلیٹ فارم پر ذاتی چیزیں شیئر کرنے کے بارے میں ابتدائی انتباہات سے کیا۔

اسی لیے انہوں نے چیٹ جی پی ٹی پر گہری یا حساس باتوں سے گریز کرنے کا مشورہ دیا تاکہ معلومات کو محفوظ بنایا جا سکے۔

خیال رہے کہ اے آئی ٹولز کے حوالے سے پہلے بھی مسائل سامنے آتے رہے ہیں، گزشتہ سال ایک بڑی غلطی کی وجہ سے تقریباً 1.2 ملین صارفین کی چیٹ ہسٹری لیک ہو گئی تھی۔ یہاں تک کہ اٹلی نے اس کی وجہ سے چیٹ جی پی ٹی پر عارضی پابندی لگا دی تھی۔

ان مسائل کو حل کرنے کے لیے، چیٹ جی پی ٹی کی پیرنٹ کمپنی ”اوپن اے آئی“ نے کچھ تبدیلیاں کیں۔

اب، صارفین چیٹ کو ختم کرسکتے ہیں، لیکن ڈیٹا ہمیشہ کے لیے حذف ہونے سے پہلے تقریباً ایک ماہ تک موجود رہتا ہے۔

اوپن اے آئی کا اس حوالے سے دعویٰ ہے کہ وہ آپ کی چیٹ کو صرف اس صورت میں چیک کرتے ہیں جب کوئی مسئلہ ہو اور پھراسے اچھے طریقے سے حذف کر دیں۔

ان تبدیلیوں کے باوجود، اب بھی ایک خطرہ موجود ہے۔

جوہن ریبرگر نامی ایک سیکورٹی ماہر نے چیٹ جی پی ٹی میں ایک مسئلہ پایا جو ڈیٹا کو لیک کر سکتا ہے۔

انہوں نے پچھلے سال اس کی اطلاع دی تھی، لیکن ابھی تک اس کا کوئی مناسب حل نہیں ہوا ہے۔

اس سے ظاہر ہوتا ہے کہ آپ کی نجی چیزیں اتنی محفوظ نہ ہوں جتنی کہ چیٹ جی پی ٹی استعمال کرتے وقت ہونی چاہئیں۔

لہذا، آپ ان پلیٹ فارمز پر اگر کچھ شئیر کرتے ہیں تو محتاط رہنا بہتر ہے۔

ChatGPT

OpenAI

Telling Secrets to AI