میں تقسیم ہوگیا

گوگل الگورتھم اور اس کی تاریخ، کیا درجہ بندی صرف ریاضی ہے؟

گوگل کے بانیوں نے، اپنے سرچ انجن کے پہلے نفاذ سے ہی، محسوس کیا کہ ویب پر ہر صفحہ کو موصول ہونے والے لنکس کی تعداد اور معیار پر مبنی درجہ بندی کا نظام دیگر موجودہ تکنیکوں سے بہتر نتائج پیدا کرے گا۔ اس پہلو کا ریاضیاتی ترجمہ ناگزیر طور پر کچھ پیرامیٹرز کے الگورتھم میں داخل ہونے کا باعث بنا جس کے نتیجے میں نہ صرف الجبری اور احتمالی حساب

گوگل الگورتھم اور اس کی تاریخ، کیا درجہ بندی صرف ریاضی ہے؟

انٹرنیٹ کے ابتدائی دنوں میں، جو لوگ نیٹ ورک پر موجود سائٹس کی بڑھتی ہوئی تعداد کو کیٹلاگ کرنے کے لیے ایک نظام پیش کرنا چاہتے تھے، ان کی بنیادی تشویش یہ تھی کہ "کے ملاپ"، یعنی احاطہ کیے گئے عنوانات اور اس زمرے کے درمیان خط و کتابت جس میں ہر سائٹ کو داخل کیا گیا تھا۔ اس کے بعد، سرچ انجن کی ضرورت پیش آئی، ایک ایسا ٹول جس نے سرفرز کو دلچسپی کے مخصوص موضوع کی تلاش میں انٹرنیٹ سائٹ کے تمام صفحات کو چھیڑنے کے کام سے نجات دلائی۔ گوگل سے پہلے، سرچ انجن کی زمین کی تزئین میں قابل ذکر مقدار میں متبادلات موجود تھے، جس کی وجہ سے آپ سادہ کلیدی الفاظ سے شروع ہونے والی معلومات تلاش کر سکتے تھے۔ ان صفحات کو آرڈر کرنے کے لیے جن میں یہ معلومات موجود تھیں، سب سے زیادہ استعمال ہونے والا نظام وہ تھا جس نے اس کی بنیاد پر ذرائع کی درجہ بندی کی اوقات کی تعداد کہ ایک تلاش کی اصطلاح اسی صفحہ پر ظاہر ہوئی۔

گوگل کے بانی سرگئی برن اور لیری پیج نے فوراً سوچا کہ ان کے سرچ انجن کو ایک برتری حاصل ہونی چاہیے اور اس لیے اس پر توجہ مرکوز کی گئی۔ درجہ بندی کی تقریب. مقصد ایسے نتائج پیدا کرنا تھا جو نہ صرف متعلقہ ہوں بلکہ مستند بھی ہوں، یعنی ویب پر مضبوط موجودگی کے ساتھ درست معلومات کے قابل اعتماد ذرائع کی درجہ بندی۔ لہذا دونوں کے ریاضیاتی مطالعہ نے ان کی توجہ "مارکوف چین"، امکانی نظریہ کا ایک ٹول جو کسی نظام کی حالت کو وقت پر غور کرنے کے قابل ہے، بلکہ اس کی کسی خاص سمت (دوسری حالت) کی طرف منتقلی کی پیشین گوئی بھی کرتا ہے، جو کہ فوری طور پر پچھلے وقت میں نظام کی حالت پر مبنی ہے۔ اس طرح - اب بھی - ویب صفحات کے لنکس کو اسکیمیٹائز کرنا ممکن ہے جو دوسرے ویب صفحات کی طرف اشارہ کرتے ہیں گویا وہ ریاستی منتقلی ہیں، ان لنکس کو ان صفحات کی تعداد اور اختیار کی بنیاد پر وزن دیتے ہیں جہاں سے وہ آتے ہیں۔ مارکوف کے عمل میں ریاستوں کے درمیان روابط کی نمائندگی کرنے والے خاکوں کا مشاہدہ کرنے سے مشابہت واضح ہوتی ہے: اعداد ایک حالت سے دوسری حالت میں بدلنے کے عمل کے امکان کو درست کرتے ہیں اور تیر اس تبدیلی کی سمت کی نشاندہی کرتے ہیں۔

برن اور پیج کے کام کی بدولت، جو یقینی طور پر اس سمت میں صرف ایک ہی نہیں تھا، 1998 کے بعد سے درجہ بندی کے الگورتھم کا نمونہ یکسر بدل گیا ہے اور تقریباً یقینی طور پر، "لنک تجزیہ درجہ بندی"، جہاں ہائپر ٹیکسٹ ڈھانچے کو ویب صفحات کی درجہ بندی کرنے کے لیے استعمال کیا جاتا ہے۔ ایک خاص معنوں میں، صفحہ Y سے صفحہ X تک ایک لنک کو صفحہ کے معیار کی منظوری کے طور پر دیکھا جا سکتا ہے۔ درجہ بندی کے فنکشن کا کام اس معلومات کو نکالنا اور ایک درجہ بندی تیار کرنا ہے جو صفحات کی متعلقہ اتھارٹی کو ظاہر کرتا ہے۔

2000 کی دہائی کے آغاز میں، گوگل ابھی تک دنیا میں سب سے زیادہ استعمال ہونے والا سرچ انجن نہیں تھا اور فرسودہ درجہ بندی کے نظام پر مبنی الگورتھم زندہ رہے، جیسا کہ "ویب ڈائریکٹریز"، پورٹلز تھے جن میں وسائل کو موضوعاتی علاقوں کے مطابق ترتیب دیا جاتا ہے اور پیش کیا جاتا ہے۔ اشاریہ جات کے طور پر یا درختوں کے طور پر جو زیادہ مخصوص نوڈس میں شاخیں بناتے ہیں۔ میٹرکس، احتمال کی تقسیم، ویکٹر اور اسٹاکسٹک عمل کی تفصیل کے مرکز میں ہیں پیٹنٹ زیر التواء2001 میں، برن اور پیج کی طرف سے ان کے لیے پیج رینک. ایک بار شروع ہونے والے متغیرات کی قدریں متعین ہو جانے کے بعد، الگورتھم ہر کلیدی فقرے کے لیے نتائج کی درجہ بندی پیدا کرنے کے قابل ہو جاتا ہے۔ الجبری اور احتمالی حساب کتابیں ورلڈ وائڈ ویب پر صفحات کی پوزیشننگ کو کنٹرول کرتی ہیں۔ پھر بھی کچھ گڑبڑ ہے۔

گوگل کے عملے کو احساس ہے کہ انہوں نے بنیادی طور پر الگورتھم کو دھوکہ دیتے ہوئے اپنی درجہ بندی میں سب سے اوپر جانے کے لیے ہدایات فراہم کی ہیں۔ مواد کے تخلیق کار خط کی تمام ہدایات پر عمل کرتے ہیں، مستند روابط کے تبادلے کے لیے مقابلہ کرتے ہیں اور اپنے صفحات کو مخصوص عنوانات سے متعلق کلیدی الفاظ سے بھرتے ہیں، لیکن پھر، سائٹ پر وہ کسی اور چیز کے بارے میں بات کرتے ہیں۔ کوئی شخص پروڈکٹس اور سروسز بیچنے کے لیے "ٹریڈنگ ٹاپکس" (سب سے زیادہ تلاش کیے جانے والے عنوانات) کا استعمال کرتا ہے۔ مجرم انہیں کمپیوٹر وائرس کا ٹیکہ لگانے کے لیے استعمال کرتے ہیں۔ مختصر میں: یہ سپیم سے, پہلے تقریباً خصوصی طور پر ای میل کے ذریعے پہنچایا گیا تھا، یقینی طور پر ویب پر آ گیا ہے۔ لیکن غلطی نہ صرف کم و بیش واضح ہے۔ سپیم (جو اب بھی متاثرین کی ایک قابل ذکر تعداد کا دعویٰ کرتا ہے)۔ یہاں تک کہ ایڈورٹائزنگ، کارپوریٹ کمیونیکیشن، کاپی رائٹنگ اور یہاں تک کہ صحافت یا تفریح ​​کی دنیا بھی "پہلی قطار کی نشست" رکھنے کے لیے جھنجھلا رہی ہے اور ایسا اس تصور پر توجہ مرکوز کرکے کرتی ہے - شاید بہت زیادہ - اس تصور پر جس کی شناخت مستقبل میں مخفف کے ذریعے کی جائے گی۔ SEO (سرچ انجن آپٹیمائزیشن)۔

ہمیں ایک نئے الگورتھم، یا شاید انسانی مداخلت کی ضرورت ہے۔ گوگل دو شراکتوں کے مرکب کا انتخاب کرتا ہے اور Yahoo سے خریدتا ہے! - 2005 میں - کا پیٹنٹ ٹرسٹ رینک، ایک لنک تجزیہ الگورتھم جو "مفید" مواد والے سپیم صفحات سے ممتاز کرنے کی صلاحیت رکھتا ہے۔ TrustRank کو PageRank کے ساتھ جوڑا بنایا گیا ہے اور جزوی طور پر اس پر مبنی ہے۔ انسانی عنصر، کہ "کوالٹی ریٹرزگوگل کے ذریعہ۔ انسانی مداخلت بالواسطہ ہے، فوری نہیں، یہ لوگوں کے ایک گروپ (جو گوگل کے ملازمین نہیں ہیں) کے مطابق غیر اطمینان بخش نتائج کو درست کرنے کے لیے کام کرتی ہے۔ چھلانگ ہو گئی ہے۔ ریاضی تھوڑا سا ایک طرف ہٹ جاتی ہے اور انسانی دماغ کام میں آتا ہے۔ گوگل کوالٹی ریٹرز کے مطابق ریٹنگ فراہم کرتے ہیں۔ عین مطابق ہدایات، لیکن حقیقی صارفین کی نمائندگی کرنا، حقیقی معلومات کی ضروریات اور انسانی فیصلے کا استعمال کرتے ہوئے نہ کہ ریاضیاتی یا امکانی حسابات کا نتیجہ۔ یہ سب کچھ پیرامیٹرز کے ذریعے الگورتھم میں داخل کیا جاتا ہے جس کا خلاصہ ایک بار پھر مخفف میں کیا جا سکتا ہے: EAT (ماہر، اتھارٹی، اعتماد) یا اختیار، قابلیت اور وشوسنییتا.

اس مقام پر یہ واضح ہونا چاہیے کہ انسانی مداخلت، SERP (سرچ انجن رزلٹ پیج) بنانے کے عمل میں، اگرچہ بالواسطہ، بہت اہم کردار ادا کرتی ہے۔ تو، جب بھی ہم سرچ انجن کی مقرر کردہ جگہ میں کلیدی لفظ ٹائپ کرتے ہیں تو گوگل کا الگورتھم کیا طریقہ کار اختیار کرتا ہے؟ سب سے پہلے تو یہ ضروری ہے کہ لفظ کے معنی پر ضروری وضاحت کر دی جائے۔یلگورتم" ریاضی کی اصطلاح "لوگارتھم" کے ساتھ اکثر الجھنے کے علاوہ - جس کا اس سے کوئی تعلق نہیں ہے - اسے غلط طور پر مصنوعی، ضروری طور پر پیچیدہ یا خالصتاً تکنیکی پہلوؤں سے متعلق سمجھا جاتا ہے۔ اس کے بجائے، یہ ایک ایسا لفظ ہے جو، اس کی کچھ خصوصیات سے معنوی طور پر چھین لیا جاتا ہے، بس "کا مترادف ہو سکتا ہے۔طریقہ کار" ہاں، کیونکہ، ایک خاص معنوں میں، یہاں تک کہ کیک بنانے کی ترکیب کو الگورتھم کی مثال کے طور پر دیکھا جا سکتا ہے۔ ایک ہدایت نامہ اس سے بھی زیادہ ہوگا۔ لیکن پھر یہ کیا ہے جو الگورتھم کو ایک "خصوصی طریقہ کار" بناتا ہے؟ حقیقت یہ ہے کہ یہ ہدایات کی ایک محدود تعداد پر مشتمل ہے (لہذا اس کی ایک اصطلاح ہے)، کہ یہ منفرد طور پر قابل تشریح ہیں اور یہ کہ وہ ہمیشہ ایک ہی تصریحات سے شروع ہوکر ایک جیسے نتائج کی طرف لے جاتے ہیں۔ مزید برآں، اس کا ایک عمومی کردار ہونا ضروری ہے، یعنی یہ سیٹ کے ان تمام مسائل پر لاگو ہونا چاہیے جن کا یہ حوالہ دیتا ہے۔ کمپیوٹر صحافتی زبان میں، چاہے تکنیکی ہی کیوں نہ ہو، الگورتھم کی اصطلاح کو اب ہدایات کی کسی بھی ترتیب تک بڑھا دیا گیا ہے جو آٹومیٹن کو کھلایا جا سکتا ہے۔

نتائج کے صفحہ تک گوگل سرچ کے اہم مراحل

گوگل الگورتھم، ہماری کرال شدہ ویب سائٹ کے صفحات کو انڈیکس کرنے کے بعد، فقرے/کی ورڈ کی ٹائپنگ کے بعد، اس طرح آگے بڑھتا ہے:

  • بالکل مماثل مطلوبہ لفظ/جملے کی تلاش (کے ملاپ)
  • معنوی مماثل فقرہ/ مطلوبہ الفاظ کی تلاش (مطلب)
  • الگورتھم کا استعمال کرتے ہوئے ویب صفحات کی ترتیب شدہ فہرست تیار کرنا (پوزیشننگ)

یہ تمام اقدامات بہت تیز ہیں کیونکہ سرچ انجن کا ڈھانچہ نام نہاد "ڈیٹا سینٹرز" کا استعمال کرتا ہے، بہت بڑا گودام جس میں اعلیٰ کارکردگی والے کمپیوٹرز ہوتے ہیں، جو واحد کاموں (سرور) میں مہارت رکھتے ہیں۔ اصل تلاش دنیا کے ان تمام کمپیوٹرز میں داخل ہونے سے نہیں ہوتی جہاں مشترکہ وسائل (ویب پیجز) موجود ہیں، بلکہ ان ڈیٹا سینٹرز میں مرتکز مشینوں کی ایک قلیل تعداد میں ہوتی ہے جن میں تمام انڈیکس شدہ سائٹس کے مواد کی کاپی ہوتی ہے۔ . پوری دنیا میں، مثال کے طور پر، i گوگل ڈیٹا سینٹر - بشمول اس کے شراکت دار - "صرف" ہیں 34۔ مارکوف کی زنجیروں کو براہ راست نہیں بلکہ گراف کی میٹرکس نمائندگی کے ذریعے تلاش کیا جاتا ہے (جو صرف ویب کے ماڈل کے طور پر کام کرتا ہے)۔ خلاصہ یہ ہے کہ الگورتھم کے عمل کا ریاضیاتی ترجمہ اس رفتار کی ضمانت دیتا ہے جو ہم تلاش کے انجن سے جواب حاصل کرنے میں دیکھنے کے عادی ہیں۔

گوگل ہماری سائٹ کو اسکین کرنے اور اس کی ایک کاپی اپنے ڈیٹا سینٹر سرورز پر بنانے کا فیصلہ کر سکتا ہے یا تو خود بخود یا ہماری طرف سے رپورٹ کی پیروی کرتے ہوئے (گوگل سرچ کنسول نامی ٹول کے ذریعے)۔ تمام صفحات کو انڈیکس نہیں کیا گیا ہے، لیکن صرف وہی جو، اس کے پیرامیٹرز کے مطابق (تمام قابل تصدیق)، مسائل پیش نہیں کرتے ہیں۔ کے بعداشاریہ سازی, ہوتا ہے – گوگل کے ذریعے تلاش کرنے والے صارفین کی درخواست پر – آن جگہ کا تعین، الگورتھم کی مداخلت کا نتیجہ۔ ہر صفحہ کی پوزیشننگ ایک خاص جملے یا مطلوبہ الفاظ سے متعلق ہے۔ یہ واضح طور پر ایک مطلق پوزیشننگ نہیں ہے۔ یہ اس جغرافیائی محل وقوع کے لحاظ سے بھی مختلف ہوتا ہے جہاں سے تلاش شروع کی گئی ہے اور مختلف ذاتی معلومات پر جو صارف نے براؤزر کو اسٹور اور شیئر کرنے کی اجازت دی ہے۔

یہ ہمیشہ الگورتھم ہوتے ہیں جو سرچ انجن کے نتائج کے صفحات (SERP) کی ترتیب شدہ فہرست تیار کرتے ہیں، ایسا کوئی دفتر نہیں ہے جس میں حقیقی لوگ ایسے مواد کو منتخب کرنے کے لیے ذمہ دار ہوں جو ایک ذریعہ کو انعام دیتا ہے اور دوسرے کو ضائع کرتا ہے۔ L'انسانی مداخلتجیسا کہ پہلے ہی بیان کیا جا چکا ہے، جائزہ لینے والوں کے تاثرات تک محدود ہے (کوالٹی ریٹرز تلاش کریں۔) اور اس فیڈ بیک کا ہمیشہ خودکار مشین لرننگ کے ساتھ ہم آہنگ پیرامیٹرز میں ترجمہ کیا جاتا ہے۔

کمنٹا