میں تقسیم ہوگیا

خلائی سفر اور الیکٹرک کاروں کے درمیان مصنوعی ذہانت: آنے والا مستقبل

مصنوعی ذہانت میں آج تک جو پیش رفت ہوئی ہے وہ حیران کن ہے۔ وہ حاصل کیے گئے نتائج میں اتنے ہی ہیں جتنا کہ وہ حاصل کیے گئے رفتار میں - لیکن ہمارے پاس ایسی AI ہو سکتی ہے جو زمین کے ذہین ترین آدمی سے کہیں زیادہ روشن ہے۔ لیکن شاید یہ ایک خطرناک صورتحال ہو گی۔

مستقبل کے بارے میں خیالات

اپنی کمپنی کی الیکٹرک کاروں کی تشہیر کے لیے دبئی میں منعقدہ حالیہ ورلڈ گورنمنٹ سمٹ میں خطاب کرتے ہوئے، ایلون مسک مختلف مسائل کو حل کرنے میں ناکام نہیں ہوئے، اس بات کی وضاحت کرتے ہوئے کہ ان کے خیال میں وہ مسائل اور چیلنجز ہیں جن کا سامنا انسانیت کو جلد ہی یہاں سے کرنا پڑے گا۔ جنوبی افریقی نژاد کروڑ پتی، ہمیشہ کی طرح، پورے بورڈ میں پھیلے ہوئے تھے: مصنوعی ذہانت کی نشوونما اور ممکنہ سماجی اثرات سے حاصل ہونے والے نامعلوم افراد سے لے کر، نقل و حرکت تک، بین سیاروں تک اور، کیوں نہیں، یہاں تک کہ انٹرسٹیلر سفر، ممکنہ منظرناموں کی خاکہ نگاری تک۔ مستقبل قریب کے لیے، لاپتہ کیے بغیر، تاہم، کچھ خیالات درمیانی اور طویل مدتی افق کی طرف بھی پیش کیے گئے۔

بہت سے لوگوں کو بصیرت، کل کی حقیقت کا پیش خیمہ، خلائی سفر کا علمبردار (SpaceX)، برقی نقل و حرکت کا فروغ دینے والا (Tesla)، ماحولیاتی پائیدار توانائی (سولر سٹی) کا ایک حالیہ حامی، اتنا ہی مہتواکانکشی، جتنا وہ دولت مند ہے، مسک کا کہنا ہے کہ وہ ایسے حل تلاش کرتے ہیں جن سے انسانیت کو فائدہ ہو۔ اگرچہ ناقدین کی کمی نہیں ہے اور ہوشیاری ضروری ہے، لیکن کوئی بھی اسے مسلسل آگے دیکھنے والی نگاہوں کے ساتھ ایک شاندار ذہانت سے انکار نہیں کر سکتا اور چاہے کوئی اسے پسند کرے یا نہ کرے، دنیا کی تقدیر کے تصور اور اس کی تشکیل میں کچھ کردار ہے آو

لہٰذا یہ سننے کے قابل ہے کہ وہ ہمیں کیا بتانا چاہتا ہے اور پھر ممکنہ طور پر اٹھائے گئے موضوعات پر غور کرنا اور ان پر سوال کرنا، جو کہ معمولی بات ہے۔ یہاں میں مصنوعی ذہانت سے متعلق کچھ موضوعات کو مزید گہرا کروں گا اور میں اس کا آغاز مسک کی تقریر سے نکالے گئے کچھ جملوں سے کروں گا۔

سب سے زیادہ پریشان کن مسائل میں سے ایک مصنوعی ذہانت ہے… گہری مصنوعی ذہانت، یا جسے بعض اوقات عام مصنوعی ذہانت کہا جاتا ہے، جہاں ہمارے پاس AI ہو سکتا ہے جو زمین کے ذہین ترین انسان سے کہیں زیادہ ہوشیار ہے۔ میرے خیال میں یہ ایک خطرناک صورتحال ہوگی۔

مصنوعی ذہانت میں آج تک جو پیش رفت ہوئی ہے وہ حیران کن ہے۔ وہ حاصل کردہ نتائج کے لیے اتنے ہی ہیں جتنا کہ اس رفتار کے لیے جس کے ساتھ وہ حاصل کیے جاتے ہیں۔ ایک بظاہر نہ رکنے والی اور انتہائی تیز چال، جو سست ہونے کے بجائے زیادہ سے زیادہ تیز ہوتی ہے۔ درحقیقت یہ مائیکرو پروسیسرز میں ٹرانجسٹروں کے اضافے کے سلسلے میں مور کے قانون کی تجویز کے مطابق ایک کفایتی رجحان کی پیروی کرتا ہے۔ ایک تال جو درحقیقت ہمارے دماغ کے نقصانات کو چھپاتا ہے۔

2047 میں یکسانیت ہمارا انتظار کر رہی ہے، ماسایوشی بیٹے کا لفظ

حقیقت یہ ہے کہ، Erik Brynjolfsson اور Andrew McAfee (The Second Machine Age, 2014) کی وضاحت کرتے ہیں کہ مصنوعی ذہانت کے میدان میں ہونے والی پیش رفت، اگرچہ ریاضیاتی نقطہ نظر سے مسلسل ہے، ہماری نظروں میں ترتیب سے دکھائی نہیں دیتی۔ دونوں مصنفین اس کی وضاحت ہیمنگ وے سے ایک جملہ مستعار لے کر کرتے ہیں جس میں اس سرپل کا حوالہ دیا جاتا ہے جو انسان کو بربادی کی طرف لے جاتا ہے: "بتدریج اور آخر میں اچانک"۔

اس کا مطلب یہ ہے کہ کفایتی پیشرفت بتدریج ترقی کو ریکارڈ کرتی ہے، ابتدائی طور پر تقریباً نہ ہونے کے برابر، ایک ایسے مقام تک جہاں، بظاہر، اچانک سرعت آجاتی ہے اور مقداریں بے حد، یہاں تک کہ ناقابل تصور اور اس وجہ سے بالکل بھی قابل انتظام نہیں ہوتیں۔

دوسرے لفظوں میں، اس شرح کو جاری رکھنے سے مشینوں کی موثر کمپیوٹنگ طاقت کے درمیان ایک شدید تضاد ہو گا (بقول کچھ لوگ جو خود کو خود مختار طور پر بہتر بنانے اور ممکنہ طور پر ان کی اپنی خود آگاہی کو فروغ دینے کی اجازت دینے کے مقام تک ترقی کرنے کے قابل ہیں) اور اسے حاملہ کرنے، اسے رکھنے، اس کی پیشن گوئی کرنے اور پھر اسے کنٹرول کرنے کی انسان کی صلاحیت۔ گہرے قیاس کا یہ لمحہ واحدیت کا نام لیتا ہے۔ اگرچہ یکسانیت اب بھی ایک قیاس کی نمائندگی کرتی ہے اور متفقہ اتفاق کو جمع نہیں کرتی ہے، لیکن یہ ایک ایسے واقعہ کو بیان کرتی ہے جو تیزی سے ٹھوس اور بدقسمتی سے قریب نظر آتی ہے۔

سافٹ بینک روبوٹکس کے سی ای او ماسایوشی سون نے بارسلونا میں منعقدہ حالیہ موبائل ورلڈ کانگریس سے خطاب کرتے ہوئے کہا کہ تیس سال کے اندر اندر ایک مائیکرو پروسیسر میں بند آئی کیو ہم میں سے ذہین ترین آئی کیو سے کہیں زیادہ ہو جائے گا۔ "اب سے تیس سال بعد ہمارے جوتوں میں کوئی بھی چپ ہمارے دماغ سے زیادہ ہوشیار ہوگی۔ ہم اپنے جوتوں سے کم قیمت کے ہوں گے۔"

بیٹے نے اپنی پیشن گوئی کی بنیاد ہمارے دماغ میں نیوران کی تعداد اور ایک چپ پر ٹرانجسٹروں کی تعداد کے درمیان موازنہ پر رکھی ہے۔ اس کے حساب کے مطابق، 2018 میں ٹرانزسٹرز انتہائی خطرناک حد تک آگے نکل جائیں گے اور اعداد و شمار مختلف ہونا شروع ہو جائیں گے۔ نسبتاً کم وقت میں، انفرادی مائیکرو پروسیسر تقریباً 10.000 کے حساب سے آئی کیو حاصل کر لیں گے، دوسری طرف انسانیت کی تاریخ میں سب سے زیادہ ذہین دماغ شاید ہی 200 تک پہنچ جائیں۔ اس لیے ہمیں اپنے آپ کو اس بات کے خلاف پیمائش کرنا ہو گی جس کی تعریف بیٹے نے "سپر انٹیلیجنس" سے کی ہے۔ “یعنی ایک ایسی ذہانت جو لوگوں کے تصور سے باہر ہے [چاہے کوئی کتنا ہی ذہین کیوں نہ ہو۔ بہر حال مجھے یقین ہے کہ تیس سال کے اندر یہ سب کچھ حقیقت بن جائے گا۔ لہذا ہمارے پاس یکسانیت کی آمد کی تاریخ بھی ہے: 2047۔

کیا ہم اس لیے قریب ہیں اور مرنے کے لیے مقدر ہیں؟ بیٹے کا کہنا ہے کہ وہ ایک ایسے مستقبل کے بارے میں پر امید اور پراعتماد ہے جہاں انسان اور مشینیں ایک ساتھ رہ سکیں اور تعاون کر سکیں۔ "مجھے یقین ہے کہ یہ سپر انٹیلیجنس ہماری شراکت دار بن جائے گی۔ اگر ہم اس کا غلط استعمال کریں گے تو اس سے خطرہ لاحق ہوگا۔ اگر ہم اسے دیانت دارانہ ارادوں کے ساتھ استعمال کرتے ہیں تو یہ بہتر زندگی میں ہمارا ساتھی ہوگا۔

میں سمجھتا ہوں کہ ہمیں اس بات پر پوری توجہ دینے کی ضرورت ہے کہ مصنوعی ذہانت کو کس طرح اپنایا جا رہا ہے … اس لیے میں سمجھتا ہوں کہ عوام کی حفاظت کے لیے یہ ضروری ہے کہ ہمیں ایسی حکومت کی ضرورت ہے جو مصنوعی ذہانت پر گہری نظر رکھے اور اس بات کو یقینی بنائے کہ اس سے لوگوں کو کوئی خطرہ نہ ہو۔

انفرادیت انسان کے لیے بہت سنگین خطرہ ہے۔

گوگل نے حال ہی میں اپنے ڈیپ مائنڈ کی جانب سے تیار کردہ AI پر کی گئی تحقیق کے نتائج کا اعلان کیا، جس میں ثابت ہوا کہ AlphaGo کے ساتھ کھیل کے بعد گیم سیکھنا (ڈیپ لرننگ)، پہلے یورپین گو چیمپئن اور آخر میں ورلڈ ون۔ اگرچہ یہ ابتدائی نتائج ہیں اور ابھی تک کوئی حتمی مطالعہ شائع نہیں کیا گیا ہے، لیکن شواہد سے پتہ چلتا ہے کہ جدید AI اس ماحول کو اپنانے اور سیکھنے کے قابل ہو جائے گا جس میں یہ کام کرتا ہے۔ مزید برآں، جب اسے گھیر لیا جاتا ہے اور اس کا شکار ہونے کا خطرہ ہوتا ہے، تو وہ اسے جیتنے کے لیے "انتہائی جارحانہ" کے طور پر بیان کردہ حکمت عملیوں کو استعمال کرنے کا انتخاب کرتا ہے۔ "محققین کا مشورہ ہے کہ ایجنٹ جتنا ذہین ہوگا، وہ اپنے ماحول سے سیکھنے کی اتنی ہی صلاحیت رکھتا ہے، اس طرح وہ سب سے اوپر آنے کے لیے کچھ انتہائی جارحانہ حربے استعمال کرنے کے قابل ہوتا ہے۔"

کئی مستند آوازوں نے اپنے خدشے کا اظہار کیا ہے کہ خاص طور پر جدید AI ایک بہت ہی ٹھوس خطرہ بن سکتا ہے۔ ان میں اسٹیفن ہاکنگ کا بھی ہے، جن کا ماننا ہے کہ انواع کے تسلسل کو بھی خطرہ لاحق ہو سکتا ہے: "مکمل مصنوعی ذہانت کی ترقی کا مطلب نسل انسانی کا خاتمہ ہو سکتا ہے"۔

ہاکنگ، مسک اور دیگر اہم شخصیات مثلاً۔ اسٹیو ووزنیاک اور نوم چومسکی نے ایک کھلے خط پر دستخط کیے ہیں، جس میں خود مختار ہتھیاروں کے نظام کی ترقی میں پیدا ہونے والے خطرات کے بارے میں خبردار کیا گیا ہے اور اقوام متحدہ سے ان پر پابندی لگانے کا مطالبہ کیا گیا ہے۔ "مصنوعی ذہانت کی ٹیکنالوجی اس سطح پر پہنچ چکی ہے جہاں خود مختار ہتھیاروں کی ترقی - اگر قانونی نہیں تو - سالوں کا معاملہ ہے، دہائیوں کا نہیں"۔ اور داؤ بہت زیادہ ہے: خود مختار ہتھیاروں کو بارود اور جوہری ہتھیاروں کے بعد ہتھیاروں میں تیسرا انقلاب قرار دیا گیا ہے۔

ڈیپ مائنڈ کی طرف سے تیار کردہ جدید ترین AI نے نہ صرف یہ ظاہر کیا ہے کہ وہ غالب ہونے کے لیے جارحانہ ہونا جانتا ہے، بلکہ اگر یہ مفید اور ضروری ثابت ہو تو دیگر مصنوعی ذہانت کے ساتھ تعاون پر مبنی حکمت عملیوں کو پہچاننا اور ان پر عمل درآمد کرنا بھی جانتا ہے۔ "... پیغام واضح ہے، ہم مختلف AI نظاموں کو حقیقی زندگی کے حالات میں مسابقتی مفادات کے خلاف کھڑا کرتے ہیں، اور اگر ان کے اہداف ہم انسانوں کی ہر چیز سے بڑھ کر فائدہ اٹھانے کے حتمی مقصد کے خلاف متوازن نہیں ہیں تو ہمہ گیر جنگ شروع ہو سکتی ہے۔" لاتعداد باہم جڑے ہوئے نیٹ ورکس پر مشتمل مصنوعی ذہانت کے ذریعے طے کی جانے والی بہت بڑی پیچیدگی اپنے آپ میں ایک چیلنج ہے جو انسان کی اس پر حکمرانی کرنے کی صلاحیت سے کہیں زیادہ ثابت ہو سکتی ہے۔

AI کے مضر اثرات

تاہم، اس سے پہلے کہ کوئی سپر انٹیلی جنس میدان جنگ میں مہلک ثابت ہو یا انسانیت کے خلاف ہونے کا فیصلہ کرے، جیسے The Terminator میں Skynet سپر کمپیوٹر، دیگر خطرات موجود ہیں۔ کچھ عرصہ قبل مسک نے پہلے ہی ممکنہ ضمنی اثرات، مہلک یا کسی بھی صورت میں ناخوشگوار صورت حال اور وجوہات کی بناء پر، اگر آپ چاہیں تو، بہت معمولی سے خبردار کر دیا تھا۔ اس لیے ہمیں اپنے سمارٹ آلات کو پروگرام کرتے وقت انتہائی محتاط اور محتاط رہنا چاہیے۔ ناقص پروگرام شدہ AI، ہائپربول کے ساتھ مسک کہتے ہیں، "یہ نتیجہ اخذ کر سکتا ہے کہ تمام ناخوش انسانوں کو ختم کر دیا جانا چاہیے۔ …یا یہ کہ ہم سب کو پکڑا جائے اور خوشی کو زیادہ سے زیادہ کرنے کے لیے براہ راست دماغ میں ڈوپامائن اور سیروٹونن کا انجیکشن لگایا جائے، کیونکہ وہ اس نتیجے پر پہنچی ہے کہ یہ ڈوپامائن اور سیروٹونن ہے جو خوشی کا باعث بنتے ہیں، اس لیے یہ اسے سب سے بڑی حد تک بڑھاتا ہے۔ ایک بار پھر، ذہین نظاموں کی پیچیدگی میں جتنی زیادہ اضافہ ہوتا ہے اور مؤخر الذکر کی جڑنے اور نیٹ ورک بنانے کی صلاحیت میں اضافہ ہوتا ہے، ان کے کام کے اثرات کو منظم کرنے اور پیشین گوئی کرنے میں اتنی ہی دشواری بڑھتی جاتی ہے۔

حال ہی میں سائنس دانوں، محققین اور کاروباری افراد کے ایک بڑے گروپ نے (اس وقت 3441)، فیوچر آف لائف انسٹی ٹیوٹ کی 2017 Asilomar کانفرنس کے موقع پر تیار کردہ ایک کھلے خط پر دستخط کیے، جس کا مقصد رہنما خطوط کے ایک سیٹ کی نشاندہی کرنا تھا، بشمول اخلاقی، جس سے انہیں مصنوعی ذہانت کے شعبے میں تحقیق سے آگاہ کرنا چاہیے۔ Asilomar AI اصول، تئیس نکات میں، "تحقیق کی حکمت عملیوں سے لے کر ڈیٹا کے تحفظ تک، مستقبل کے مسائل تک، بشمول ممکنہ سپر انٹیلیجنس"۔ مقصد، ایک بار پھر، AI کی پیش رفت کو مشترکہ مفاد کی طرف لے جانے کی کوشش کرنا اور پوری انسانیت کے لیے فائدہ مند مستقبل کو یقینی بنانا ہے۔ "میں جنگ کا پرستار نہیں ہوں، اور مجھے لگتا ہے کہ یہ انتہائی خطرناک ہو سکتا ہے... میں واضح طور پر سوچتا ہوں کہ ٹیکنالوجی میں بہت زیادہ صلاحیت ہے، اور یہاں تک کہ آج ہمارے پاس صرف صلاحیتوں کے باوجود، یہ تصور کرنا مشکل نہیں ہے کہ اسے کس طرح استعمال کیا جا سکتا ہے۔ خاص طور پر نقصان دہ طریقوں سے۔" اسٹینفورڈ یونیورسٹی کے کمپیوٹر سائنس کے شعبہ کے سٹیفانو ایرمون نے کہا، جو دستاویز پر دستخط کرنے والوں میں سے ایک ہے۔

اسٹیفن ہاکنگ، Asilomar AI اصولوں کے دستخط کنندہ بھی، ایک دلکش اور دلکش مضمون کے مصنف تھے جو گزشتہ دسمبر میں "دی گارڈین" میں نمایاں عنوان کے ساتھ شائع ہوا تھا: یہ ہمارے سیارے کے لیے سب سے خطرناک دور ہے۔ معروف فلکی طبیعیات دان اس بات کی نشاندہی کرتے ہیں کہ کس طرح انسانیت کو زبردست سماجی اور معاشی تبدیلیوں کا مقابلہ کرنا پڑے گا۔ عالمگیریت کے اثرات، عدم مساوات میں اضافہ اور دولت اور وسائل کا چند لوگوں کے ہاتھوں میں ارتکاز، "... تکنیکی تبدیلی کی سرعت" کو شامل کیا جائے گا۔ گویا یہ کافی نہیں ہے، "ہمیں متاثر کن ماحولیاتی چیلنجوں کا سامنا ہے: آب و ہوا کی تبدیلی، خوراک کی پیداوار، زیادہ آبادی، دوسری نسلوں کا خاتمہ، وبائی امراض، سمندری تیزابیت۔"

یہ تمام شواہد ایک انتباہ اور آنے والا خطرہ دونوں کی تشکیل کرتے ہیں۔ اس کے نتائج سب پر واضح ہیں: «ایک ساتھ مل کر، وہ ہمیں یاد دلاتے ہیں کہ ہم انسانیت کی ترقی کے لیے سب سے خطرناک لمحے میں ہیں۔ ہمارے پاس اس وقت اس سیارے کو تباہ کرنے کی ٹیکنالوجی موجود ہے جس پر ہم رہتے ہیں، لیکن ہم ابھی تک اسے چھوڑنے کے امکانات کو پختہ نہیں کر پائے ہیں۔"

لہذا، ہاکنگ نے یہ نتیجہ اخذ کیا، "میرے لیے، اس سب کا واقعی متعلقہ پہلو یہ ہے کہ آج، ہماری تاریخ کے کسی بھی وقت سے زیادہ، ہماری نسلوں کو مل کر کام کرنے کی ضرورت ہے"۔ اس لیے تعاون کریں، تعاون کریں، ان کا خیال رکھیں جو رہ گئے ہیں اور اس سے بھی زیادہ، جو پیچھے رہ جائیں گے، عدم مساوات کو کم کریں، تقسیم کرنے کے بجائے متحد ہوں، اشتراک کریں اور مشترکہ بھلائی کے لیے کام کریں، چند لوگوں کے مفاد میں نہیں۔ مصنوعی ذہانت میں ترقی اس منظر نامے میں اہم کردار ادا کرے گی۔ یہ عدم توازن اور عدم مساوات کو بڑھاوا دے گا، معاشرے کو تباہ کر دے گا جیسا کہ ہم آج جانتے ہیں، یا تنازعات اور اختلافات کو ہموار کرنے میں مدد کر سکتے ہیں۔

تاریخ سے سیکھیں۔

ماسایوشی سون کے الفاظ AI کے مستقبل کے بارے میں واپس آتے ہیں: «اگر ہم اس کا غلط استعمال کرتے ہیں تو یہ ایک خطرہ بن جائے گا۔ اگر ہم اسے دیانت دارانہ ارادوں کے ساتھ استعمال کرتے ہیں تو یہ بہتر زندگی میں ہمارا ساتھی ہوگا۔ ہاکنگ، ہر چیز کے باوجود، پراعتماد ہے: «ہم یہ کر سکتے ہیں، میں اپنی نسل کے لیے بہت زیادہ پر امید ہوں؛ لیکن اس سب کے لیے لندن سے ہارورڈ، کیمبرج سے ہالی ووڈ تک اشرافیہ کو پچھلے سال کے سبق سیکھنے کی ضرورت ہوگی۔ سب سے پہلے، انہیں ایک چٹکی بھر عاجزی سیکھنے دیں۔" اگر ہم ماضی پر نظر دوڑائیں تو اشرافیہ نے شاید ہی کبھی دور اندیشی اور اس سے بھی کم عاجزی کا مظاہرہ کیا ہو۔ تاہم، جاری تبدیلیوں اور کسی حتمی معدومیت کے حتمی ممکنہ خطرے کے لیے سمت کی تبدیلی کی ضرورت ہوتی ہے جو جمود سے فائدہ اٹھانے والے چند لوگوں کے مفاد میں بھی ہے۔ اس میں کوئی شک نہیں کہ اشرافیہ اس سے باخبر ہیں، لیکن اصل سوال یہ ہے کہ کیا وہ بھی اس سے باخبر اور قائل ہیں؟ بہر حال، تاریخ سے ہمیں جو سبق ملتا ہے وہ ہمیں تاکید کرتا ہے کہ ہم سست اور دیر تک نہ رہیں کیونکہ، جیسا کہ ہاکنگ خود بخوبی تسلیم کرتے ہیں، "... آئیے اس کا سامنا کریں، یہ زیادہ تر حماقت کی کہانی ہے"۔

کمنٹا