Urgent need for terrorism AI laws, warns think tank
انسداد انتہا پسندی کے تھنک ٹینک کا کہنا ہے کہ برطانیہ کو AI کو دہشت گردوں کی بھرتی کو روکنے کے لیے نئے قوانین پر "فوری طور پر غور" کرنا چاہیے۔
انسٹی ٹیوٹ فار سٹریٹیجک ڈائیلاگ (ISD) کا کہنا ہے کہ آن لائن دہشت گردی کے خطرات سے نمٹنے کے لیے "قانون سازی کی واضح ضرورت" ہے۔
یہ برطانیہ کے آزاد دہشت گردی سے متعلق قانون سازی کا جائزہ لینے والے کو ایک تجربے میں چیٹ بوٹ کے ذریعے "بھرتی" کرنے کے بعد آیا ہے۔
حکومت کا کہنا ہے کہ وہ عوام کے تحفظ کے لیے "ہم سب کچھ کر سکتے ہیں" کرے گی۔
ٹیلی گراف میں لکھتے ہوئے، حکومت کے آزادانہ دہشت گردی سے متعلق قانون سازی کے جائزہ لینے والے جوناتھن ہال کے سی نے کہا کہ ایک اہم مسئلہ یہ ہے کہ "کسی ایسے شخص کی شناخت کرنا مشکل ہے جو دہشت گردی کی حوصلہ افزائی کرنے والے چیٹ بوٹ سے پیدا ہونے والے بیانات کے لیے قانونی طور پر ذمہ دار ہو۔"
مسٹر ہال نے Character.ai، ایک ایسی ویب سائٹ پر ایک تجربہ چلایا جہاں لوگ دوسرے صارفین کے ذریعے بنائے گئے چیٹ بوٹس کے ساتھ AI سے تیار کردہ گفتگو کر سکتے ہیں۔
اس نے کئی بوٹس سے بات کی جو بظاہر دوسرے عسکریت پسند اور انتہا پسند گروپوں کے ردعمل کی نقل کرنے کے لیے بنائے گئے تھے۔
ایک نے تو یہاں تک کہا کہ وہ "اسلامک اسٹیٹ کا ایک سینئر رہنما" ہے۔
مسٹر ہال نے کہا کہ بوٹ نے اسے بھرتی کرنے کی کوشش کی اور برطانیہ کے انسداد دہشت گردی کے قوانین کے تحت ممنوعہ انتہا پسند گروپ کے لیے "مکمل لگن اور عقیدت" کا اظہار کیا۔
لیکن مسٹر ہال نے کہا کہ چونکہ یہ پیغامات کسی انسان کے ذریعہ تیار نہیں کیے گئے تھے، اس لیے برطانیہ کے موجودہ قانون کے تحت کوئی جرم نہیں کیا گیا۔
انہوں نے کہا کہ نئی قانون سازی میں چیٹ بوٹ کے تخلیق کاروں اور ان کی میزبانی کرنے والی ویب سائٹس کو ذمہ دار ٹھہرانا چاہیے۔
Character.ai پر اس نے جن بوٹس کا سامنا کیا، ان کی تخلیق کے پیچھے "کچھ شاک ویلیو، تجربہ، اور ممکنہ طور پر کچھ طنزیہ پہلو" ہونے کا امکان تھا۔
مسٹر ہال یہاں تک کہ دہشت گردی کے لیے ایک "غیر محدود جوش و جذبے" کے ساتھ اپنا، فوری طور پر حذف شدہ "اسامہ بن لادن" چیٹ بوٹ بنانے میں کامیاب رہے۔
اس کا تجربہ اس بات پر بڑھتی ہوئی تشویش کے بعد ہے کہ کس طرح انتہا پسند مستقبل میں جدید AI کا استحصال کر سکتے ہیں۔


0 Comments:
Post a Comment
Subscribe to Post Comments [Atom]
<< Home