Aaj News

جمعہ, نومبر 22, 2024  
19 Jumada Al-Awwal 1446  

خواتین کی ایک لاکھ سے زائد ڈیپ فیک برہنہ تصاویر شئیر کی گئیں

جرمن جریدے ڈئیر اشپیگل کی ایک رپورٹ کے مطابق انفارمیشن...
شائع 10 فروری 2021 01:14pm
سائنس

جرمن جریدے ڈئیر اشپیگل کی ایک رپورٹ کے مطابق انفارمیشن ٹیکنالوجی کے ماہرین نے ٹیلی گرام میں شیئر ہونے والے ایک ایسے پروگرام کا سراغ لگایا ہے، جو چند ہی کلکس میں ایک عام تصویر کو برہنہ تصویر میں تبدیل کر دیتا ہے۔ ان نقلی یا ڈیپ فیک تصاویر کی تیاری میں مصنوعی ذہانت (آرٹیفیشل انٹیلی جنس) کا استعمال کیا جاتا ہے۔ آئی ٹی اینالائز کمپنی سینسٹی کے ماہرین کی رپورٹ کے مطابق جولائی دو ہزار بیس تک ٹیلی گرام کے مختلف چینلز پر ایسی ایک لاکھ چار ہزار سے زائد ڈیپ فیک تصاویر شئیر کی جا چکی تھیں۔

ایک برہنہ تصویر بنوانے کے لیے مجرم مطلوبہ خاتون کی تصویر ٹیلی گرام کے ذریعے ایک پروگرام میں بھیجتے تھے اور کچھ ہی دیر بعد انہیں ردو بدل کرتے ہوئے برہنہ تصویر واپس بھیج دی جاتی تھی۔ سینسٹی کے ماہرین کے مطابق جو پروگرام برہنہ تصاویر تیار کرتا ہے، اس میں 'جنیریٹیو ایڈورسریل نیٹ ورکس‘ کی تیار کردہ ٹیکنالوجی استعمال کی گئی ہے اور یہ نیٹ ورک مصنوعی ذہانت کے لیے مشہور ہے۔

اس پروگرام میں نیورل نیٹ ورک کا استعمال کیا گیا ہے۔ یہ نیٹ ورک خودکار طریقے سے سیکھتا اور کام کرتا ہے۔ یہ خود ہی کسی ملبوس خاتون کے جسمانی خدوخال کا اندازہ لگاتا ہے۔ پھر یہ ایک اٹانومی تیار کرتا ہے اور ایک بالکل اصل نظر آنے والا برہنہ جسم تیار کر دیتا ہے۔

یہ سافٹ ویئر ایسے تیار کیا گیا ہے کہ صرف خواتین کی تصاویر میں ہی رد و بدل کر سکتا ہے۔ تکنیکی میگزین 'دا ورج‘ کے مطابق ڈیپ فیک برہنہ تصاویر کی کوالٹی ہمیشہ ایک جیسی نہیں ہوتی۔ کئی تصاویر سے تو لگتا ہے کہ ان میں تبدیلی کی گئی ہے لیکن کئی تصاویر حیران کن حد تک اصلی نظر آتی ہیں۔ ٹیلی گرام کے متعدد چینلز میں اس حوالے سے ہدایات دی گئی ہیں کہ کس طرح آپ اچھے نتائج حاصل کر سکتے ہیں۔

ٹیلی گرام میں یہ پروگرام بوٹ کے ذریعے آفر کیا جاتا ہے۔ چیٹ کے دوران ایک نئی ونڈو کھلتی ہے اور وہاں صارف کے سوالات کے جوابات ایک پروگرام خودکار طریقے سے فراہم کرتا ہے۔ یہی وجہ ہے کہ ابھی تک یہ نہیں پتا چلایا جا سکا کہ اس پروگرام کے پیچھے کس کا ہاتھ ہے؟ سینسٹی کے ماہرین کے مطابق یہ پروگرام صرف انگلش اور روسی زبان میں موجود ہے جبکہ ڈیپ فیک ٹیکنالوجی کا استعمال کرتے ہوئے، جو تصاویر شیئر کی گئیں، ان میں سے زیادہ تر ان ممالک کے لوگ شامل تھے، جو سابق سوویت یونین کا حصہ رہ چکے ہیں۔

اس رپورٹ کے مطابق جن تصاویر کو برہنہ تصاویر میں تبدیل کیا گیا، وہ زیادہ تر عام لوگوں کی نجی تصاویر تھیں یا پھر ان کے سوشل میڈیا اکاؤنٹس سے اٹھائی گئی تھیں۔ عام پروگرام کی طرح اس پروگرام میں بھی ایک مفت ورژن فراہم کیا گیا ہے۔ مفت ورژن پر واٹر مارک چسپاں ہوتا ہے جبکہ پریمیم ورژن کی کوالٹی بہتر ہوتی ہے اور واٹر مارک بھی نہیں ہوتا۔

سینسٹی کی رپورٹ کے مطابق، جو برہنہ تصاویر اس ٹیکنالوجی کا استعمال کرتے ہوئے تیار کی گئی ہیں، ان کی اصل تعداد اندازوں سے کہیں زیادہ ہو سکتی ہے کیوں کہ ڈیپ فیک برہنہ تصاویر ہمیشہ ہی اوپن پلیٹ فارمز پر شائع نہیں کی جاتیں۔ ڈیپ فیک سافٹ ویئر سن دو ہزار سترہ میں منظرعام پر آیا تھا۔ ماہرین کے مطابق یہ خدشہ بہت زیادہ ہے کہ ایسی تصاویر خواتین کو بلیک میل کرنے یا انہیں دباؤ میں لانے کے لیے استعمال میں لائی جاتی ہیں۔

ماہرین کے مطابق یہ ٹیکنالوجی مستقبل میں مزید خطرناک رجحان اختیار کر سکتی ہے جبکہ جمہوری معاشروں میں ابھی سے اس حوالے سے قانون سازی ضروری ہو چکی ہے۔ یہ بھی خطرہ ہے کہ وقت کے ساتھ ساتھ ڈیپ فیک اور اصل تصاویر میں فرق کرنا مزید مشکل ہوتا جائے گا۔ سینسٹی کی رپورٹ کی مطابق فی الحال اس پروگرام کا زیادہ تر استعمال نجی سطح پر ہی ہو رہا ہے۔

دریں اثناء ٹیلی گرام پر ایسے چینلز تلاش کرنا اب مشکل ہو گیا ہے۔ سینسٹی کی اندازوں کے مطابق ٹیلی گرام انتظامیہ خاص طور پر ایسے چینلز بند کر رہی ہے۔ اس حوالے سے کئی ماہرین نے ٹیلی گرام سے رابطہ بھی کیا ہے لیکن ٹیلی گرام انتظامیہ کا کوئی جواب سامنے نہیں آیا۔

Artificial Intelligence

Telegram

DeepFake