یہ آرٹیفشل انٹیلیجنس کا دور ہے۔ اس کا ہر شعبے میں منفی اور مثبت، دونوں طرح سے استعمال ہو رہا ہے۔ AI کی ایک قسم ایسی ہے جس کی مدد سے آج دنیا میں کسی بھی شخص کی جھوٹی ویڈیو یا آڈیو بنانا کوئی مشکل کام نہیں ہے۔ اس ٹیکنالوجی کا استعمال آج کل بہت زیادہ ہو رہا ہے۔ کسی بھی شخصیت کے خلاف مہم چلائی جا سکتی ہے۔ اس ٹیکنالوجی کا نام Deep Fake Technology ہے۔ آج کے اس آرٹیکل میں ہم اسی کے بارے میں بات کریں گے اور جاننے کی کوشش کریں گے کہ یہ دراصل ہے کیا اور کیسے کام کرتی ہے۔ تو چلیے شروع کرتے ہیں۔

"ڈیپ فیک” کی اصطلاح بنیادی ٹیکنالوجی "ڈیپ لرننگ” سے آئی ہے جو کہ AI کی ایک شکل ہے۔ ڈیپ لرننگ الگورتھم، جو خود کو سکھاتے ہیں کہ ڈیٹا کے بڑے سیٹ دیے جانے پر مسائل کو کیسے حل کیا جائے، انہیں ایسا میڈیا بنانے کے لیے استعمال کیا جاتا ہے جو اس قدر حقیقت کے قریب محسوس ہوتا ہے کہ اسے پہچاننا انتہائی مشکل ہو جاتا ہے۔ اس کے علاوہ اسے جعلی میڈیا بنانے کے لیے ویڈیو اور ڈیجیٹل مواد میں چہروں کو تبدیل کرنے کے لیے استعمال کیا جاتا ہے۔

Deep Fakes بنانے کے کئی طریقے ہیں۔ لیکن سب سے زیادہ عام طریقہ ڈیپ نیورل نیٹ ورکس کے استعمال پر انحصار کرتا ہے جس میں آٹو اینکوڈرز شامل ہوتے ہیں۔ یہ چہرے کو تبدیل کرنے کی تکنیک استعمال کرتے ہیں۔ کسی بھی شخص کی جعلی ویڈیو بنانے کے لیے آپ کو جس شخص کو استعمال کرنا ہے اس کا چہرہ، اور اس کے ساتھ ساتھ جس ویڈیو میں وہ چہرہ استعمال کرنا چاہتے ہیں وہ ویڈیو کلپ درکار ہوتا ہے۔

ویڈیوز مکمل طور پر غیر متعلق ہوسکتی ہیں۔ ہالی ووڈ فلم کا کلپ ٹارگٹ ہو سکتا ہے ، اور جس شخص کو آپ فلم میں ڈالنا چاہتے ہیں اس کی ویڈیوز یوٹیوب سے ڈاؤن لوڈ کیے گئے بے ترتیب کلپس ہو سکتے ہیں۔

Auto Encoder کا ایک پروگرام ہے جس کو ویڈیو کلپس کا مطالعہ کرنے کا کام سونپا گیا ہے۔ تاکہ یہ سمجھ سکے کہ وہ شخص مختلف زاویوں اور ماحولیاتی حالات سے کیسا لگتا ہے، اور پھر عام خصوصیات کو تلاش کر کے ہدف والے ویڈیو میں اس شخص کا نقشہ بناتا ہے۔

مکس میں مشین لرننگ کی ایک اور قسم شامل کی گئی ہے، جسے جنریٹو ایڈورسریئل نیٹ ورکس (GANs) کہا جاتا ہے، جو ڈیپ فیک میں کسی بھی خامی کو متعدد راؤنڈز میں تلاش کرتا ہے اور اس میں بہتری لاتا ہے، جس سے ڈیپ فیک ڈیٹیکٹرز کے لیے انہیں ڈی کوڈ کرنا مشکل ہو جاتا ہے۔ سادہ الفاظ میں اسے پکڑنا مشکل ترین ہو جاتا ہے۔

متعدد ایپس اور سافٹ ویئرز ڈیپ فیکس بنانا اس قدر آسان بنا دیتے ہیں کہ ایک نا تجربہ کار شخص بھی آسانی سے ڈیپ فیک ویڈیو بنا سکتا ہے۔ جیسے کہ چینی ایپ (زاؤ، ڈیپ فیس لیب، فیس ایپ (جو بلٹ ان AI تکنیکوں کے ساتھ فوٹو ایڈیٹنگ ایپ ہے۔

Github پر ڈیپ فیک سافٹ ویئرز کی ایک بڑی مقدار مل سکتی ہے، جو ایک سافٹ ویئر ڈویلپمنٹ اوپن سورس کمیونٹی ہے۔ ان میں سے کچھ ایپس کا استعمال خالص تفریحی مقاصد کے لیے کیا جاتا ہے – یہی وجہ ہے کہ ڈیپ فیک تخلیق کو غیر قانونی قرار نہیں دیا جاتا ہے – جب کہ اس کے غلط استعمال کا امکان بہت زیادہ ہوتا ہے۔

ڈیپ فیکس کیسے شروع ہوئے اوراسے کس نے بنایا؟

لوگ ڈیپ فیک ٹیکنالوجی کے بارے میں اس وقت آگاہ ہونا شروع ہوئے جب "ڈیپ فیکس” نامی ایک Reddit صارف نے پوسٹ کیا کہ اس نے ایک مشین لرننگ ML)) الگورتھم تیار کیا ہے جو مشہور شخصیات کے چہروں کو بغیر کسی رکاوٹ کے ویڈیوز میں منتقل کر سکتا ہے۔ بلاشبہ، انہوں نے نمونے فراہم کیے اور یہ جلد ہی بہت مشہور ہو گیا۔ سائٹ کے منتظمین کو اسے بند کرنا پڑا لیکن اس وقت تک یہ ٹیکنالوجی معروف اور دستیاب ہو چکی تھی۔ جلد ہی لوگ اسے جعلی ویڈیوز بنانے کے لیے استعمال کرنے لگے، جن میں زیادہ تر سیاستدانوں اور اداکاروں کی  جعلی ویڈیوز شامل تھیں۔

کیا ڈیپ فیکس صرف ویڈیوز ہیں؟

ڈیپ فیکس صرف ویڈیوز تک محدود نہیں ہیں۔ ڈیپ فیک آڈیو ایک تیزی سے بڑھتا ہوا فیلڈ ہے جس میں ایپلی کیشنز کی ایک بہت بڑی تعداد ہے۔

urdu-stem-deep-fake-videos

حقیقت پسندانہ آڈیو ڈیپ فیکس اب ڈیپ لرننگ الگورتھم کا استعمال کرتے ہوئے اس شخص کی آڈیو کے صرف چند گھنٹوں (یا بعض صورتوں میں، منٹوں) کے ساتھ بنایا جا سکتا ہے جس کی آواز کا کلون کیا جا رہا ہے، اور ایک بار آواز کا ماڈل بن جانے کے بعد، اس شخص کی آواز کی نقل کو بنایا جا سکتا ہے۔ جیسے کہ جب پچھلے سال دھوکہ دہی کے لیے کسی سی ای او کی جعلی آڈیو استعمال کی گئی تھی۔

ڈیپ فیک ٹیکنالوجی کو استعمال کرنے کے خطرات کیا ہیں؟

ابھی کے لیے، ڈیپ فیک ویڈیوز کا استعمال دلچسپ اورپر لطف لگتا  ہے۔ لیکن بظاہر ڈیپ فیک ٹیکنالوجی کا مذاق کے طور پر استعمال ہونے والی ٹیکنالوجی کے نیچے چھپنا ایک خطرہ ہے جو ہاتھ سے نکل سکتا ہے اور انے والے وقت میں خطرناک ہو سکتا ہے ۔

ڈیپ فیک ٹیکنالوجی ایک ایسے مقام پر ترقی کر رہی ہے جہاں حقیقی ویڈیوز اورجعلی ویڈیوز میں فرق کرنا بہت  مشکل ہو جائے گا۔ اس کے تباہ کن نتائج ہو سکتے ہیں، خاص طور پر عوامی شخصیات اور مشہور شخصیات کے لیے۔ لوگوں کے کیرئیر اور زندگیوں کو خطرہ ہو سکتا ہے۔ اور یہاں تک کہ بدنیتی پر مبنی ڈیپ فیکس سے لوگوں کی زندگی بالکل برباد ہو سکتی ہے۔ غلط ارادے رکھنے والے لوگ ان کا استعمال لوگوں کی نقالی کرنے اور اپنے دوستوں، خاندانوں اور ساتھیوں کا استحصال کرنے کے لیے کر سکتے ہیں۔ وہ بین الاقوامی واقعات اور یہاں تک کہ جنگیں شروع کرنے کے لیے عالمی رہنماؤں کی جعلی ویڈیوز بھی استعمال کر سکتے ہیں۔

urdu-stem-dangers-of-deep-fake

تاہم ایسی ویڈیوز بنانے کا خیال نیا نہیں ہے۔ 1990 کی دہائی میں، کچھ یونیورسٹیاں پہلے ہی کمپیوٹر ویژن میں اہم تعلیمی تحقیق کر رہی تھیں۔ اس وقت کے دوران زیادہ تر کوشش مصنوعی ذہانت (AI) اور ML (مشین لرننگ) کو استعمال کرنے پر مرکوز رہی تاکہ کسی شخص کے بولنے کی موجودہ ویڈیو فوٹیج میں ترمیم کی جا سکے اور اسے ایک مختلف آڈیو ٹریک کے ساتھ ملایا جا سکے۔ 1997 کے ویڈیو ری رائٹ پروگرام نے اس ٹیکنالوجی کی نمائش کی۔

بہت سے ماہرین کا خیال ہے کہ، مستقبل میں، ٹیکنالوجی کے مزید ترقی کے ساتھ ڈیپ فیکس کہیں زیادہ بہتر ہو جائیں گے اور انتخابی مداخلت، سیاسی تناؤ اور اضافی مجرمانہ سرگرمیوں سے متعلق عوام کے لیے مزید سنگین خطرات لاحق ہو سکتے ہیں۔

ڈیپ فیک ویڈیو کو سیاست میں بھی استعمال کیا گیا ہے۔ مثال کے طور پر، 2018 میں، بیلجیئم کی ایک سیاسی جماعت نے ڈونلڈ ٹرمپ کی تقریر کی ایک ویڈیو جاری کی جس میں بیلجیم سے پیرس موسمیاتی معاہدے سے دستبرداری کا مطالبہ کیا گیا۔ ٹرمپ نے کبھی وہ تقریر نہیں کی، تاہم یہ ایک ڈیپ فیک تھا۔ گمراہ کن ویڈیوز بنانے کے لیے ڈیپ فیک کا یہ پہلا استعمال نہیں تھا۔ اور سیاسی ماہرین مستقبل میں جعلی خبروں کی لہر کے لیے تیار ہیں جس میں یقینی طور پر حقیقت پسندانہ ڈیپ فیکس کی خصوصیات ہیں۔

گفتگو کا نتیجہ

لوگوں کو ڈیپ فیکس کے بارے میں سننے کی عادت پڑ گئی۔ انٹرنیٹ کے زیادہ تر لوگ جانتے ہیں کہ ڈیپ فیک کیا ہے۔ ہمیں پرانے زمانے کی طرح نئی ٹیکنالوجی تک پہنچنے اور استعمال کرنے کے لیے سالوں کا انتظار نہیں کرنا پڑتا۔

ڈیپ فیکس کے اچھے اور برے پہلو ہیں، لیکن ٹیکنالوجی کا برا یا اچھا استعمال ہم پر منحصر ہے۔ ہمیں اسے زیادہ سے زیادہ بھلائی کے لیے استعمال کرنا چاہیے۔ اس کے علاوہ کچھ قانونی انتظامات بھی کرنے ہوں گے۔

درحقیقت، ان سب کو کسی خاص مقام تک پہنچنے میں کچھ وقت لگے گا۔ ہم دیکھیں گے کہ یہ ٹیکنالوجی ہمیں کس قسم کی دنیا کی طرف لے جاتی ہے۔

جواب دیں

آپ کا ای میل ایڈریس شائع نہیں کیا جائے گا۔ ضروری خانوں کو * سے نشان زد کیا گیا ہے

This site uses cookies to offer you a better browsing experience. By browsing this website, you agree to our use of cookies.