موتور جستجو چیست و چگونه کار میکنند؟ (+الگوریتمها)

مشخص شده است که دلیل اصلی عدم پیشرفت کسب و کار شما از طریق دیجیتال مارکتینگ به این دلیل است که شما از نحوه
عملکرد موتورهای جستجو بی اطلاع هستید. این موتورهای جستجو هستند که موفقیت هر وب سایت یا سرمایه گذاری آنلاین را
تضمین می کنند. اگر وب سایت شما به طور برجسته در صفحات نتایج ظاهر نمی شود، احتمالاً سطح ترافیک کاهش می یابد و این
به معنای کاهش سود است. داشتن درک بیشتر از نحوه کار موتورهای جستجو به شما این امکان را می دهد که وب سایت خود را
ارتقا دهید و موقعیت خود را در اینترنت بهتر کنید. با یادآوری اینکه دانش برای موفقیت در هر کسب و کاری ضروری است، دات وب
این مقاله را گردآوری کرده است تا بتوانید فرصت های موجود برای افزایش سودآوری را شناسایی کنید..
موتور جستجو چیست؟
قبل از شروع بحث در مورد نحوه کار موتورهای جستجو، ابتدا باید مفهوم موتور جستجو را درک کنیم. موتور جستجو هر برنامه
کامپیوتری است که برای یافتن اطلاعات خاصی در هر پلتفرمی از لیست تماس تلفن همراه گرفته تا اینترنت استفاده می شود. با این
حال، هنگامی که مردم به “موتورهای جستجو” اشاره می کنند، معمولاً به موتورهای مبتنی بر وب اشاره می کنند.
آنها سیستمهای نرمافزاری هستند که به دنبال محتوا (از جمله متن، صدا، تصاویر، ویدیوها و فایلهای دیگر) در سراسر وب میگردند
تا بهترین نتایج را بر اساس درخواست شما (کلماتی که در کادر تایپ میکنید) به شما ارائه دهند.
موتورهای جستجو از دو جزء اصلی تشکیل شده اند: پایگاه داده ها و الگوریتم ها.
موتورهای جستجو چگونه بوجود آمدند؟
ایده فهرست کردن اطلاعات برای اولین بار در مقاله “همانطور که ممکن است فکر کنیم” نوشته ونیور بوش در ماهنامه آتلانتیک در
جولای 1945 مطرح شد. در این مقاله، ونیور بوش بر اهمیت اطلاعات در آینده تاکید کرد و دانشمندان را به پیدا کردن راهی برای یکی
کردن تمام اطلاعات ترغیب کرد.در سال 1989، تیم برنرز لی، یک دانشمند انگلیسی، شبکه جهانی وب را اختراع کرد. او از تکنولوژی به
نام Hypertext Transfer Protocol (HTTP) استفاده کرد. علاوه بر این، او زبان HTML و URL را خلق کرد که تمامی ابزارهای لازم
برای راهاندازی وب را فراهم کرد.بنابراین، ایده فهرست کردن اطلاعات برای اولین بار در مقاله ونیور بوش در سال 1945 مطرح شد و
تیم برنرز لی در سال 1989 شبکه جهانی وب را اختراع کرد که از تکنولوژی HTTP، زبان HTML و URL استفاده میکرد.
در سال 1990، اولین موتور جستجو با نام آرچی (Archie) ساخته شد که به عنوان اولین موتور جستجوی وب شناخته میشود. اما
این موتور توانایی نمایش محتوای وب را نداشت و فقط عناوین را فهرست میکرد. برای استفاده از آرچی، کاربران نام دقیق فایل مورد
نظر خود را باید بدانند. دیتابیس آرچی فقط شامل نام فایلهای قابل دانلودی بود که از سایتهای FTP جمعآوری شده بودند. دو
موتور جستجوی مشابه به نامهای ورونیکا (Veronica) و جاگهد (Jughead) هم در این دوره بوجود آمدند که با هدف ایندکس
کردن متن ساده بودند. در سال 1991، Tim Berners Lee موفق شد اولین وبسایت تاریخ را ایجاد کرده و در دسترس عموم قرار دهد.
این وبسایت توضیح داده شده بود که شبکه جهانی وب چیست، چگونه میتوان یک سرور وب برپا کرد و چطور میشود یک مرورگر
در اختیار داشت. در سال 1993، متیو گری در دانشگاه MIT ربات جستجوگر وب World Wide Web Wanderer را توسعه داد تا اندازه
وب را اندازهگیری کند. این ربات برای جمعآوری URLهای فعال و نگهداری آنها در دیتابیسی به نام Wandex به کار گرفته شد. با این
حال، این ربات مشکلاتی را ایجاد کرد و سایتها را مختل کرد و دسترسی به آنها را غیرممکن کرد. در اواسط سال 1993، موتور
جستجویی W3Catalog به عنوان اولین موتور جستجو وب تاریخ بوجود آمد. این موتور جستجو به دنبال فهرستی باکیفیت از
وبسایتهای موجود بود، اما همچنان نتوانست مشکل اختلال رباتها را حل کند. به همین دلیل، موتور جستجو WebCrawler به
عنوان یکی از اولین موتورهای جستجوی وب با قابلیت جستجوی متن کامل در سال 1994 به وجود آمد. این موتور جستجو
همچنان به عنوان یک موتور جستجو وب فعالیت میکند، اما محبوبیت آن نسبت به موتورهای جستجویی مانند گوگل، یاهو،
بینگ، یاندکس و بایدو کمتر است.
تکامل موتورهای جستجو با ایجاد Aliweb آغاز شد که مخفف عبارت Archie-like Indexing of the Web است. Aliweb که در سال
1994 راه اندازی شد، اولین موتور جستجوی وب بود که به کاربران اجازه می داد مکان فایل های فهرست را در سایت های خود ارسال
کنند. این کار موتور جستجو را قادر میسازد تا صفحات وب را شامل شود و توضیحات و کلمات کلیدی نوشته شده توسط کاربر را
اضافه کند. این رویکرد به مدیران وبسایت این امکان را میدهد تا عباراتی را که کاربران را به صفحاتشان هدایت میکند، تعریف
کنند و همچنین از تنظیم رباتهایی که پهنای باند را مصرف میکنند، اجتناب میکنند.
پس از WebCrawler ، Aliweb ، در پایان سال 1993 معرفی شد. این اولین موتور جستجویی بود که سه ویژگی حیاتی یک موتور
جستجو را به طور کامل خودکار کرد: کرال کردن، ایندکس کردن و جستجو کردن. با این حال، به دلیل محدودیت منابع، نمایه سازی و
جستجو به عنوان و عنوان یک صفحه وب محدود شد.
در سال 1994، WebCrawler راه اندازی شد و اولین موتور جستجو با قابلیت فهرست بندی و یافتن تمام متن ها در یک صفحه وب
بود. این یک پیشرفت قابل توجه بود زیرا به کاربران اجازه می داد هر کلمه ای را در هر صفحه وب جستجو کنند و استانداردی را برای
همه موتورهای جستجوی اصلی از آن زمان تعیین کرد.
توسعه موتورهای جستجو با معرفی موتورهای جستجوی متعدد دیگر مانند Yahoo!، Infoseek، Altavista، Go.com و Lycos ادامه
یافت. در سال 1996، رابین لی الگوریتمی به نام RankDex برای رتبه بندی سایت ها ایجاد کرد تا هر کدام رتبه خود را در صفحه
نتایج موتورهای جستجو کسب کنند. RankDex اولین موتور جستجویی بود که از لینک ها برای ارزیابی کیفیت وب سایت ها استفاده
کرد .در همان سال لری پیج و سرگی برین فعالیت خود را در موتور جستجویی به نام BackRub آغاز کردند. این موتور جستجو از
الگوریتمی به نام PageRank استفاده می کرد که در واقع از RankDex الگوبرداری شده بود و از بک لینک برای رتبه بندی سایت ها
استفاده می کرد. الگوریتم PageRank در سال 1997 به ثبت رسید.
موتورهای جستجو چگونه کار میکنند؟
برای کشف، دستهبندی و رتبهبندی میلیونها وبسایتی که در فضای اینترنت وجود دارند، موتورهای جستجو باید ابتدا بطور دقیق
بفهمند چه نوع اطلاعاتی در دسترس است و در گام بعدی، آن اطلاعات را بطور منطقی به کاربران ارائه دهند. این فرآیند ازطریق 3
اقدام بنیادی انجام میپذیرد:
- کرال کردن (Crawling)
- ایندکس کردن (Indexing)
- رتبهبندی کردن (Ranking)
موتورهای جستجو از سه عمل برای مدیریت محتوای تازه منتشر شده استفاده می کنند. ابتدا آن را کشف می کنند، سپس در پایگاه
داده خود ذخیره می کنند و در نهایت آن را دسته بندی می کنند. این به کاربران امکان می دهد تا به راحتی به محتوای مورد نظر
دسترسی داشته باشند.حال، اجازه دهید تا باهم به بررسی هر یک از این اقدامات بپردازیم:
- کرال کردن: موتورهای جستجو از روباتهایی استفاده میکنند که به آنها خزنده یا عنکبوت نیز گفته میشود تا محتوای تازه را در وبسایتهای تازه ایجاد شده یا محتوای بهروز شده ارزیابی کنند. این ربات ها صفحات را به دقت بررسی می کنند تا موضوع و زمینه آنها را تعیین کنند. سپس، با دنبال کردن لینکهای موجود در صفحات، به صفحات دیگر رفته و آن صفحات را نیز کرال میکنند.
- ایندکس کردن: پس از فرآیند کرال کردن ، موتورهای جستجو باید اطلاعاتی را که جمع آوری کرده اند دسته بندی کنند. این فرآیند به عنوان ایندکس کردن یا ذخیره سازی صفحات کرال شده در پایگاه داده های موتورهای جستجو شناخته می شود. توجه به این نکته ضروری است که هر موتور جستجو پایگاه داده منحصر به فرد خود را دارد.
- رتبهبندی کردن: هنگامی که کاربر جستجویی را آغاز می کند، موتورهای جستجو به پایگاه داده فهرست شده خود مراجعه می کنند تا اطلاعات مربوطه را از تمام صفحاتی که ذخیره کرده اند ارائه دهند. با این حال، تعیین ترتیب ارائه این اطلاعات بسیار مهم است. موتورهای جستجو صفحات را از طریق سیستم رتبه بندی کاربران سازماندهی می کنند، و آنها به صورت خودسرانه مرتب نمی شوند. فرآیند رتبه بندی بر اساس ملاحظات متعددی مانند کیفیت صفحات وب و ارتباط با درخواست جستجوی کاربر است.
موتورهای جستجو چگونه محتوا را ارزیابی میکنند؟
برای ارزیابی محتوای صفحات وب، عنکبوت ها همه چیز را اسکن و ارزیابی می کنند. آنها ابراساس کلمات به کار رفته شده در عنوان،
، زیر عنوان ها و محتوای متنی به دنبال الگوی های مشخصی میگردند. اگر آنها تشخیص دهند که یک کلمه یا عبارت خاص به طور
مکرر تکرار می شود، احتمالاً موضوع اصلی آن محتوا است. به عنوان مثال، اگر یک صفحه دارای چندین تکرار از کلمه “شیر” باشد،
احتمالاً محتوا مربوط به پادشاه جنگل است. با این حال، اگر بحث در مورد کلسیم و استحکام استخوان نیز بچرخد، محتوای آن به شیر
پاستوریزه مربوط می شود.
گوگل از بیش از 200 فاکتور رتبه بندی در الگوریتم خود استفاده می کند، اما هدف همه آنها رضایت کاربر است. هرچه محتوای شما
برای کاربران مفیدتر باشد، عوامل بیشتری را ملاقات کرده اید. کاربران هنگام جستجوی اطلاعات در مورد شیر پاستوریزه، بالاترین
کیفیت، دقیق ترین و کامل ترین توضیحات را می خواهند. برخی از مهم ترین عوامل رتبه بندی برای بهبود رتبه سایت شما در نتایج
جستجو عبارتند از: محتوای با کیفیت، بک لینک، هدف جستجو و ارتباط محتوا، سرعت بارگذاری وب سایت، اعتبار دامنه، بهینه سازی
کلمات کلیدی، ساختار وب سایت، امنیت وب سایت و موارد دیگر.
. با این حال، مهم است که توجه داشته باشید که گوگل تمایل دارد اطلاعات مربوط به نحوه عملکرد الگوریتم های رتبه بندی آنها را
محدود کند و عوامل زیادی وجود دارد که به طور مستقیم یا غیرمستقیم بر رتبه بندی شما تأثیر می گذارد.
نتایج جستجو بر اساس مجموعهای از عوامل پیچیده و همیشه در حال تغییر رتبهبندی میشوند که هدف همه آنها تضمین رضایت
کاربر است. به عنوان مثال، اگر به دنبال اطلاعاتی در مورد شیر پاستوریزه هستید، باید دقیق ترین، جامع ترین و با کیفیت ترین
توضیحات را ارائه دهید. رتبه بندی نتایج جستجو تحت تأثیر عواملی مانند اعتبار و محبوبیت صفحه است که با معیارهایی مانند
تعداد پیوندهای خارجی و کیفیت محتوای صفحه تعیین می شود.
الگوریتم چیست و چه نقشی در نحوه عملکرد موتورهای جستجو دارد؟
هر موتور جستجو از مجموعه ای منحصر به فرد از معیارها برای سازماندهی نتایج جستجوی خود استفاده می کند که توسط الگوریتم
های خاصی تعیین می شوند. الگوریتم در اصل روش یا فرمولی است که اطلاعات ذخیره شده را به شیوه ای منطقی و معنادار بازیابی
و سازماندهی می کند. این الگوریتم ها ثابت نیستند. آنها به طور مداوم به روز و اصلاح می شوند تا کیفیت نتایج جستجو را افزایش
دهند. الگوریتم ها تحت تأثیر ترکیبی از عوامل داخلی و خارجی هستند. عوامل داخلی عناصری هستند که در خود الگوریتم قابل کنترل
هستند، مانند چگالی کلمات کلیدی و پیوندهای داخلی. چگالی کلمه کلیدی به فراوانی یک کلمه کلیدی خاص در رابطه با تعداد کل
کلمات در یک صفحه وب اشاره دارد. این یک جنبه حیاتی در بهینه سازی موتور جستجو (SEO) است، اما باید با کیفیت و ارتباط
محتوا متعادل شود. از سوی دیگر، پیوندهای داخلی به ساختار صفحه وب و بهبود زمینه و ارتباط آن برای موتورهای جستجو کمک
می کنند. عوامل خارجی، برعکس، عناصری هستند که تحت تأثیر فعالیت های خارج از الگوریتم قرار می گیرند. اینها شامل بک لینک
ها و سیگنال های اجتماعی است. بک لینک ها لینک هایی از سایر وب سایت ها هستند که به سایت شما اشاره می کنند و عامل
مهمی در سئو محسوب می شوند. آنها اعتبار و ارتباط محتوای شما را با موتورهای جستجو نشان می دهند . سیگنال های اجتماعی به
فعالیت های انسان در شبکه های اجتماعی مانند لایک، اشتراک گذاری و کامنت اشاره دارد. در حالی که آنها یک فاکتور رتبه بندی
مستقیم برای سئو نیستند، اما به طور غیرمستقیم با افزایش دید و احتمال به دست آوردن بک لینک های بیشتر بر روی سئو تاثیر می
گذارند.
به طور خلاصه، عوامل داخلی و خارجی نقش مهمی در عملکرد الگوریتم ها دارند. در حالی که شما کنترل کاملی بر عوامل داخلی دارید،
عوامل خارجی نیاز به برنامه ریزی استراتژیک و مشارکت خارج از وب سایت شما دارند.
بطور کلی، نحوه عملکرد الگوریتمها اینگونه است:
گام نخست: تجزیه و تحلیل کوئری کاربران
موتورهای جستجو فرآیند خود را با درک نوع اطلاعات مورد نیاز کاربر آغاز می کنند. آنها این کار را با تجزیه پرس و جو جستجوی کاربر
به کلمات کلیدی معنی دار انجام می دهند که هر کدام هدف خاصی را دنبال می کنند. به عنوان مثال، اگر کاربر «چگونه محتوای
ارزشمند ایجاد کنیم» را جستجو کند، موتور جستجو کلمه کلیدی «چگونه» را به عنوان درخواست راهنمایی تفسیر میکند و بنابراین،
نتایجی را با دستورالعملهای مرتبط ارائه میکند. به طور مشابه، اگر کاربر «خرید لپتاپ» را جستجو کند، موتور جستجو «خرید» را به
عنوان قصد خرید تفسیر میکند و نتایجی را ارائه میکند که شامل گزینههای خرید آنلاین میشود.
سیستم هوش مصنوعی خودآموز ماشینی (Machine Learning) که در الگوریتمهای موتورهای جستجو بکار رفته است، به آنها کمک
کرده است تا کلمات کلیدی مرتبط را به یکدیگر ربط بدهند. مثلا، آنها میدانند که معنی عبارت “چگونه آنتیویروس را بروزرسانی
کنیم” با معنی عبارت “چگونه آنتیویروس را آپدیت کنیم” یکسان است. آنها همچنین، به قدری هوشمند هستند که متوجه غلطهای
املایی بشوند و افعال جمع را نیز از مفرد تشخیص دهند.
سیستمهای هوش مصنوعی خودآموز ماشینی (Machine Learning) مورد استفاده در موتورهای جستجو به آنها کمک کرده است تا
کلمات کلیدی مرتبط را به یکدیگر ربط بدهند. به عنوان مثال می توانند تشخیص دهند که معنای عبارت “چگونه آنتی ویروس را به روز
کنیم” با معنای عبارت “چگونه آنتی ویروس را آپدیت کنیم” یکسان است. آنها همچنین می توانند اشتباهات املایی را تشخیص دهند
و بین افعال جمع و مفرد تمایز قائل شوند. موتورهای جستجو از یادگیری ماشینی برای تشخیص الگو استفاده می کنند تا هرزنامه یا
محتوای تکراری را شناسایی کنند. محتوای با کیفیت پایین معمولاً شباهتهای مشخصی دارد، مانند وجود چندین پیوند خروجی به
صفحات نامرتبط، استفاده زیاد از کلمات توقف یا مترادفها، و میزان وقوع کلمات کلیدی «هرزنامه» شناساییشده.
گام دوم: پیدا کردن صفحات مطابق
فرآیند تصمیم گیری برای اینکه کدام صفحات بهترین پاسخ به یک پرس و جو هستند، یک گام مهم در فرآیند جستجو هم برای
موتورهای جستجو و هم صاحبان وب سایت است. موتورهای جستجو باید بهترین نتایج ممکن را در کوتاه ترین زمان ممکن ارائه
دهند تا رضایت کاربران خود را جلب کنند، در حالی که صاحبان وب سایت می خواهند سایت آنها در بین این نتایج قرار گیرد تا
بازدید بیشتری داشته باشد. برای موتورهای جستجو، این شامل مرور پایگاه دادههای آنها برای یافتن مرتبطترین صفحاتی است که با
عبارت جستجو مطابقت دارند. برای صاحبان وبسایت نیز ، این شامل بهینهسازی صفحات آنها برای مرتبطتر کردن آنها با جستجو
کاربر و بهبود شانس آنها برای رتبه بالاتر در نتایج جستجو است.
اینجا همچنین، مرحلهای است که بکارگیری موثر تکنیکهای سئو میتواند بر تصمیم الگوریتمها اثر بگذارد.
موارد زیر، مهمترین فاکتورهایی هستند که در این مرحله اثرگذار خواهند بود:
- مرتبط بودن عنوان و محتوا: عنوان و محتوای صفحه چقدر با موضوعی که کاربر جستجو کرده است مطابقت دارد.
- نوع محتوا: زمانی که کاربران عکس ها را جستجو می کنند، به جای نتایج متنی، نتایج عکس دار را دریافت خواهند کرد.
- کیفیت محتوا: اطلاعات ارائه شده در صفحه باید جامع، ارزشمند، آموزشی و بی طرف باشد.
- کیفیت وبسایت: برای یک وب سایت بسیار مهم است که استانداردهای موتور جستجو را از نظر کیفیت کلی رعایت کند.
- تاریخ انتشار: برای کوئری مربوط به اخبار یا موارد دیگری که بهروز بودن محتوا اهمیت ویژهای دارد (مانند سایتهای هواشناسی یا نرخ ارز)، تاریخ انتشار محتوا نیز در رتبهبندی سایت نقش دارد. .
- محبوبیت صفحه: اهمیت یک صفحه وب با حجم ترافیک آن تعیین نمی شود، بلکه بیشتر با درک سایر وب سایت ها نسبت به آن تعیین می شود. صفحهای که توسط وبسایتهای متعدد دیگر به آن پیوند داده میشود، در مقایسه با صفحاتی که لینک کمتری یا بدون لینک دارند، برجستهتر است.
- زبان صفحه: نوشتن صفحات وب به زبان مخاطب خاص آنها بسیار مهم است.
- سرعت صفحه: صفحاتی که به سرعت بارگذاری میشوند، احتمال بیشتری برای جذب کاربران نسبت به صفحاتی که کند هستند، دارند.
- نوع دستگاه: کاربرانی که با استفاده از تلفن همراه خود جستجو می کنند، نتایجی دریافت خواهند کرد که باید ریسپانسیو یا واکنش گرا باشند.
- موقعیت جغرافیایی: صفحاتی که با موقعیت جغرافیایی کاربران تطبیق مییابند، در اولویت برای نمایش قرار میگیرند.
بخش اول: درخواست و ثبت جستجو
موتورهای جستجو بر اساس دو اصل اساسی کار می کنند: دریافت جست و جو و ارائه پاسخ. در ابتدا کاربران جستجوی خود را وارد
موتور جستجو می کنند و در ادامه نتایج بر اساس محاسبات الگوریتمی موتور جستجو تولید می شود.
تصور کنید که شبکه جهانی اینترنت (World Wide Web) یک سیستم مترو از یک شهر بزرگ است.
در این سیستم تعداد زیادی توقف و شروع دوباره وجود دارد. فرض کنید هر توقف یک سند از یک جستجوی منحصر به فرد است.
موتورهای جستجو باید راهی برای حرکت و توقف به موقع در این سیستم داشته باشند. پس آنها از بهترین راه موجود برای سرعت
بخشیدن به دستیابی به اطلاعات مورد نظر استفاده میکنند یعنی لینکها!
اهمیت لینک ها برای موتورهای جستجو
هدف از پیوندها در وب ایجاد ارتباط بین تمام صفحات وب است که یک شبکه گسترده به هم پیوسته را تشکیل می دهد. این
پیوندها به خزندههای موتورهای جستجوی هوشمند و خودکار که «عنکبوت» یا «ربات» نیز نامیده میشوند، اجازه میدهند تا در
میلیونها سند مرتبط بهصورت یکپارچه بخزند.
هنگامی که خزنده ها این صفحات را پیدا می کنند، ایندکس می شوند و اطلاعات مربوط به آنها در هارد دیسک های بزرگ و گسترده
ذخیره میکنند. این امکان جست وجوی سریعتر اطلاعات را در جست و جوهای آینده فراهم می کند و اطمینان حاصل می کند که
نتایج با بیشترین سرعت ممکن نمایش داده می شوند.
موتورهای جستجو مسئولیت حیاتی ذخیره و مدیریت میلیاردها صفحه را دارند که در کسری از ثانیه قابل دسترسی و نمایش هستند.
برای انجام این کار، موتورهای جستجو مراکز داده ای را ایجاد کرده اند که در سراسر جهان در مکان های مختلف واقع شده اند.
این موتورهای جستجو برای برآورده ساختن نیازهای عظیم خود برای ذخیره سازی داده ها، از دستگاه های ذخیره سازی غول پیکری
استفاده می کنند که مجهز به هزاران واحد پردازشی هستند که قادر به مدیریت حجم وسیعی از داده ها هستند. با این حال، هنگامی
که افراد در موتورهای جستجوی اصلی جستجو می کنند، انتظار نتایج تقریباً آنی را دارند. حتی یک یا دو ثانیه تاخیر می تواند منجر
به نارضایتی شود. به این ترتیب، موتورهای جستجو به طور خستگی ناپذیری تلاش می کنند تا در سریع ترین زمان ممکن به کاربران
پاسخ دهند.
بخش دوم: ارائه پاسخها توسط موتور جستجو
در اصل، موتورهای جستجو را می توان ماشین پاسخگویی در نظر گرفت. هر زمان که شخصی یک جستجوی آنلاین را آغاز می کند،
موتورهای جستجو باید میلیاردها سند مختلف را برای مکان یابی و بازیابی نتایج قابل بررسی دقیق و غربال کنند. موتورهای جستجو
برای رسیدن به نتیجه مطلوب باید دو وظیفه حیاتی را انجام دهند:
بهینه سازی موتور جستجو (SEO) حول دو عامل کلیدی می چرخد. اولاً، موتورهای جستجو باید نتایج و پاسخهایی را به کاربران
ارائه دهند که مستقیماً با جستجوی جستجوی آنها مرتبط است و واقعاً برای نیازهای آنها مفید است. ثانیاً، الگوریتم موتور جستجو
باید مهم ترین و مرتبط ترین نتایج را با بالاترین امتیاز و درصد ارتباط شناسایی و اولویت بندی کند. این تاکید بر “ارتباط” و “اهمیت”
در نتایج جستجو، اصل اساسی است که زیربنای SEO است.
برای یک موتور جستجو، مرتبط بودن، معنی مهمتری نسبت به جستجو و یافتن آسوده یک صفحه با کلمات دقیق را دارد. به عبارت
دیگر مرتبط بودن نتایج پیدا شده با کلمهٔ جستجو شدهٔ کاربر از اهمیت بیشتری نسبت به جستجوی یک طرفه برخوردار است.
در سالهای اولیه اینترنت، موتورهای جستجو عمدتاً بر الگوریتمهای پایهای تکیه میکردند که صفحات وب را بر اساس عبارات
جستجوی دقیق وارد شده تجزیه و تحلیل و فهرستبندی میکردند. در نتیجه، نتایج جستجو اغلب نادرست بود و ارزش کمی برای
کاربران فراهم می کرد. با این حال، با بروز حوادث سوء استفاده و دستکاری موتورهای جستجو، موتورهای جستجو شروع به اتخاذ
الگوریتم های پیچیده تری کردند که بهتر می توانست تعیین کند کدام نتایج برای کاربران ارزشمندتر است. این پیشرفت ها امکان
تحویل سریع و کارآمد نتایج جستجوی با کیفیت بالا را به کاربران فراهم کرده است .
چگونه موتورهای جستجو اهمیت داشتن یک جستجو را تعیین میکنند؟
موتورهای جستجو ارتباط و اهمیت یک صفحه وب را بر اساس محبوبیت آن ارزیابی می کنند. با استفاده از این روش، وبسایتها
یا صفحاتی که نرخ ترافیک و تعامل بالایی را دریافت میکنند، ارزشمندتر در نظر گرفته میشوند و بنابراین در نتایج جستجو در اولویت
قرار میگیرند. در نتیجه، محبوبیت و فراوانی بازدید از یک صفحه وب به طور مستقیم بر ارزش درک شده و رتبه آن در فهرست
اطلاعات موتور جستجو تأثیر می گذارد.
این فرضیه به صورت تقریبی در نتایج و آمار آزمایشات ثابت شده است. موتورهای جستجو به افزایش رضایت مندی کاربرانشان با
استفاده از این معیار یعنی اولویت قرار دادن جستجوهای محبوب ادامه میدهند.
تعیین محبوبیت و مرتبط بودن جستجو یک فرآیند دستی نیست. موتورهای جستجو برای انجام این تصمیمات بر هوش مصنوعی با
محاسبات ریاضی دقیق و الگوریتمهای پیچیده تکیه میکنند. به طور معمول، این الگوریتم ها از هزاران مؤلفه مجزا تشکیل شده اند که
به طور یکپارچه با هم کار می کنند تا نتایج جستجوی دقیق، مرتبط و محبوب را ارائه دهند.
برای دستیابی به رتبه های بالا در نتایج جستجوی گوگل، درک سئو ضروری است.
سئو شامل بهینه سازی وب سایت شما برای موتورهای جستجو برای دستیابی به همان محبوبیت و عوامل مرتبط ذکر شده است.
برای مثال موتورهای جستجو هنگام جستجوی کلمه دانشگاه ، ایالت اوهایو را بر هاروارد اولویت می دهند، زیرا ایالت اوهایو نسبت
به هاروارد عمومی تر و محبوب تر است و بنابراین به طور کلی به کلمه جستجو شده نزدیک تر است. این اولویت بندی بر اساس
الگوریتم ها و محاسبات پیچیده است که ارتباط و محبوبیت یک جستجو را تعیین می کند و اطمینان می دهد که مرتبط ترین نتایج
به کاربر بازگردانده می شود.