الگوریتم های گوگل چیست؟معرفی الگوریتم های جدید گوگل

  • oxinset
  • 7 مرداد 1399
الگوریتم های گوگل چیست؟معرفی الگوریتم های جدید گوگل
سئو و بهینه سازی 50

الگوریتم های گوگل هر یک دارای مقاصد مختلفی هستند ولی در مجموع هدف همگی آنها بصورت کلی انتخاب بهترین وب سایت ها جهت نمایش در صفحه نتایج جستجو برای کاربران است. در این مطلب الگوریتم های گوگل ابتدا به اجمال معرفی شده است که در پست های آتی بصورت کامل هر کدام از آنها تشریح خواهند شد. شرکت گوگل به عنوان یکی از برترین شرکت های موتور جستجو که تمام تمرکز آن بر روی جستجوی مشتریانش است باید شرایطی را ایجاد کند که کاربرانی که از این موتور جستجو استفاده می کنند در کمترین زمان ممکن به نتیجه دلخواه خود برسند. به کلیه تکنیک ها و روشهایی که در داخل و خارج از وب سایت انجام می شود که باعث شده جایگاه وب سایت در موتورهای جستجو بهبود پیدا کند سئوگفته می شود.

همواره وب سایت های بسیاری هستند که برای دستیابی به رتبه های برتر در موتور جستجوی گوگل و بهینه سازی سایت همچنین آوردن کلمات کلیدی خود به صفحه اول گوگل از روش های نادرستی استفاده می کنند ولی الگوریتم های گوگل  که توسط تیم برنامه نویسی شرکت گوگل به روز رسانی می شوند این وظیفه را بر عهده دارند که جلوی این کارهای غیر اخلاقی را بگیرند. الگوریتم های گوگل را در این مطلب برای شما به طور خلاصه معرفی می کنیم و برای توضیح کامل در مورد هر یک از این الگوریتم ها شما را به مقالات بعدی ارجاع می دهیم.

 

 

الگوریتم گوگل چیست؟

 در یک تعریف عمومی به مجموعه ای از دستور العمل ها و فرمول هایی که با زبان رسا و دقیق به همراه جزئیات لازم و به صورت مرحله به مرحله به گونه اجرا شده باشند که هدف خاصی را دنبال کنند و شروع و پایان آنها نیز مشخص باشد، الگوریتم گفته می شودالگوریتم های گوگل برای بهینه سازی و سئو در گوگل مورد استفاده قرار می گیرد. فرآیندی که موتور های گوگل بر اساس آن تجزیه و تحلیل وب سایت ها را انجام می دهند. الگوریتم های گوگل شامل معادلات گوناگون و متفاوت و تابع است که برای کاربر نمایش داده شود. خزنده موتور های جستجو همه اطلاعات و داده ها را گرد آوری کرده و ذخیره و نگهداری می نماید. در حقیقت اگوریتم ها به شکل ریاضی می باشند که محتویات و اطلاعات توسط آنها طبقه بندی می شود تا زمانی که به این داده ها کاربر احتیاج داشته باشد.

 

 

آخرین تغییرات الگوریتم های گوگل

گوگل برای آن که دست متقلبان سئو را از بازار قطع کند و مالکان وب سایت ها را مجبور کند تا وب سایت هایی با سئوی درست و بهینه در اختیار کاربران قرار بدهند، الگوریتم های گوگل را همواره تغییر می دهد و به عبارتی بروزرسانی می کند تا بهترین نتایج به دست بیایددر ابتدای آغاز کار الگوریتم های گوگل نمایان شدن وب سایت ها در رتبه های بالا کار دشواری نبود و حتی در برخی مواقع این کار به سادگی گذاشتن تعدادی کد در وب سایت بود که به آن متا تگ یا کلمات کلیدی می‌گویند. متاتگ یا کلمات کلیدی به موتورهای جستجو نشان می دهند که اطلاعات موجود در هر صفحه در رابطه با چه موضوعی استهرچه موتور جستجوی گوگل قوی تر شد، صاحبان گوگل تمرکز خود را روی جلب رضایت کاربران گذاشتند و اینگونه بود که همواره الگوریتم های جدیدتری برنامه نویسی می کنند.

در حال حاضر هر یک از الگوریتم هایی که در ابتدا از آنها نام بردم بارها به روزرسانی شده اند که اطلاعات دقیق آنها را کارشناسان بهینه سازی سایت پارسیان مهر می دانند اما بعضی از آنها در نزد شرکت گوگل هستند. یک مثال کوتاه بیان می کنم. برخی از این فاکتورهایی که ما می دانیم و قطعا مهم هستند و پایه به شمار می آیند داشتن یک عنوان توصیفی خوب است (که باید بین تگ های<title></title> درج شده باشد). در این بین موارد دیگری هستند که درباره آن گمانه زنی می شود مانند تاثیر داشتن و یا نداشتن گوگل پلاس روی رتبه بندی یک وب سایتدر ابتدای کار نتایج موتور جستجوی گوگل به ندرت تغییر می کرد و در واقع به این معنا بود که اگر وب سایت شما در رتبه 1 گوگل برای یک کلمه کلیدی خاص قرار می گرفت، تضمین می شد که تا بروزرسانی بعدی الگوریتم های گوگل در همان رتبه باقی می ماند و این موضوع گاهی ماه ها طول می کشیدبروزرسانی الگوریتم ها با راه اندازی الگوریتم کافئین "Caffeine" در سال 2010 تغییر کرد. از زمانیکه کافئین راه اندازی شد، نتایج موتور جستجو چند بار در یک روز تغییر می کرد، این در حالی بود که قبل از آن ماه ها یا هفته ها طول می کشیدآمارها نشان می دهند که گوگل بیش از 600 تغییر در الگوریتم های خود در یک سال ایجاد می کند و اغلب آن ها را اعلام نمی کند و باید توسط متخصصان فعال در این زمینه پیگیری و اجرا شوند؛ البته زمانی که گوگل یک تغییر اساسی ایجاد می کند و روی آن یک نام می گذارد. تمامی این موضوعات را بیان کردم تا بگویم لازم است که همواره طبق آخرین بروزرسانی های الگوریتم های گوگل پیش بروید تا به نتیجه برسیدتا به حال 8 الگوریتم اساسی توسط گوگل معرفی شده اند که به توضیح تک تک آنها خواهم پرداخت.

 

  • الگوریتم بوستون (Google Boston)

الگوریتم بوستون به عنوان اولین آپدیت و بروزرسانی الگوریتم های گوگل بود که در سال 2003 در یک کنفرانس علمی مهندسی ارائه شد. این الگوریتم، تصمیم گرفت که در روند بررسی، مطالب را به صورت ماهانه یا حتی زودتر انجام دهد. در گام‌های بعدی تغییراتی در این الگوریتم بوجود آمد که در جریان آن مطالب به صورت روزانه بررسی می‌شد و کاربران به فکر انتشار روزانه محتوا در وب سایت خود بودند.

 

  • الگوریتم فلوریدا (Google Florida)

 این الگوریتم در ماه نوامبر سال 2003 منتشر شد و به نوعی وبمسترهای آن زمان را تحت تأثیر قرار داد. در واقع در این الگوریتم به وبمسترها نشان داده شد که از چه تکنیکی برای جذب ترافیک ارگانیک استفاده کند. به عنوان مثال، استفاده از کلمات کلیدی یا حتی استفاده از لینک‌های داخلی و خارجی مواردی بود که در این الگوریتم رنگ واقعیت به خود گرفت.

 

  • الگوریتم شخصی سازی نتایج جستجو (Google Personalized Search)

این الگوریتم در ژوئن سال 2005 از طرف گوگل منتشر شد و در آن کاربران می‌توانستند از تاریخچه‌ جستجوی خود برای جستجوهای جدید استفاده کنند. در واقع، تلاش‌ها و جستجوهای قبلی کاربران در این الگوریتم ذخیره شده و گوگل در جستجوهای بعدی این موارد را به آنها نشان می‌داد. این الگوریتم نشان دهنده دسترسی گوگل برای اولین بار به تاریخچه جستجوی کاربران است.

 

  • الگوریتم جستجوی کلی (Google Universal Search)

 این الگوریتم در ماه می سال 2007 برای سهولت کاربران گوگل راه‌اندازی شد و می‌توان آن را به عنوان یکی از بهترین به‌روزرسانی‌های گوگل در نظر گرفت. تا قبل از به وجود آمدن این الگوریتم، کاربران به هنگام جستجو، نتایجی شامل تصاویر، اخبار، کتاب‌ها و موارد مشابه دریافت می‌کردند. این در حالی است که الگوریتم جستجوی کلی باعث تفکیک هر کدام از این نتایج بود و ما از این تاریخ به بعد می‌توانیم اخبار، تصاویر گوگل یا هر مطلب متفرقه دیگری را به صورت مجزا بگیریم. تصویر زیر نشان می‌دهد که منظور این الگوریتم چیست.

 

  • الگوریتم پیشنهاد گوگل (Google Suggest)

 پس از 4 سال استفاده آزمایشی، بالاخره الگوریتم پیشنهاد گوگل در آگوست سال 2008 راه اندازی شد. در این الگوریتم، تمرکز بر روی استفاده از عبارات کلیدی یا همان کوئری (Query) بود. این الگوریتم به کاربران کمک می‌کرد که علاوه بر کلمه یا عبارت کلیدی خود، کلمات کلیدی محبوب را نیز ببیند و از بین آنها گزینه‌های بهتر را انتخاب کنند. این الگوریتم به عنوان مقدمه برای الگوریتم Google Instant بود که در سال 2010 پیشنهاد شد و نوع پیشرفته دیگری از الگوریتم های گوگل است.

 

  • الگوریتم کافئین (Google Caffeine)

تا قبل از به وجود آمدن الگوریتم کافئین، سیستم ارائه محتوا در گوگل و نتایج جستجو به صورت لایه لایه بود که فقط سایت‌های دارای رتبه بالاتر در همان جستجوی اول نشان داده می‌شدند و اغلب سایت‌های جدید دیده نمی‌شدند. گوگل برای حمایت از وب سایت‌های جدید و وب سایت‌های ضعیف‌تر، در سال 2009 یک الگوریتم به نام الگوریتم کافئین معرفی کرد که راه اندازی آن به ژوئن 2010 موکول شد. در این سیستم دیگر خبری از لایه بندی بودن سایت‌ها با توجه به قیمت آنها نبود و در حقیقت جستجوی کاربران به صورت کلی و در بین همه سایت‌ها انجام می‌گرفت.

 

  • الگوریتم پاندا (Google Panda)

الگوریتم پاندا در ابتدا با نام Farmer منتشر شد که به نوعی به صورت غیرمستقیم ریز شدن گوگل در مزارع محتوا و ارائه یک محتوای با کیفیت توسط وی را نشان می‌داد. اما در هر صورت این الگوریتم در سال 2011 با نام رسمی پاندا ارائه شد که نام آن از نام مهندس سازنده الگوریتم برگرفته شده است. در حقیقت این الگوریتم در پاسخ به تعداد روز افزون شکایت جامعه جهانی به سایت‌های با محتوای بی‌کیفیت ساخته شد. پاندا عمدتاً به سراغ سایت‌هایی با محتوای ضعیف می‌رود که مطالب سایر سایت‌ها را کپی کرده و به عنوان محتوای خود منتشر می‌کنند. الگوریتم پاندا یکی از مهم‌ترین ابزارهای بود که با هدف مبارزه با نتایج جستجوی خاکستری یا همان سئو کلاه خاکستری به وجود آمد.

 

  • الگوریتم پنگوئن (Google Penguin)

الگوریتم پنگوئن را می‌توان الگوریتم تراشکار گوگل معرفی کرد که هدف اصلی آن کاهش رتبه بندی سایت‌هایی بود که از طریق غیر قانونی و با نقض دستورالعمل‌های کیفی گوگل خود را به رتبه‌های بالاتر رسانده بودند. این الگوریتم در ماه آوریل سال 2012  منتشر شد و هنوز هم به عنوان یکی از مهمترین اصول کار گوگل شناخته می‌شوداصولاً سایت‌هایی که از تکنیک‌های مختلف مانند روش‌های اسپم، به کار بردن بیش از حد کلمات کلیدی و همچنین لینک‌های غیرقانونی استفاده می‌کنند، آمار بازدیدها و ترافیک و ارگانیک را کاهش می‌دهند. این به روزرسانی در الگوریتم های گوگل سایت‌های مختلف استفاده کننده از سئو کلاه سیاه را به شدت مجازات می‌کند. بنابراین وبمسترها مجبور هستند که سایت‌هایی با کیفیت محتوای بالا ایجاد کنند و تجربیات مثبتی در اختیار کاربران قرار دهند تا تجربه کاربری وب سایت نیز رشد کند.

به طور کلی، مبارزه با لینک‌های به دست آمده از سایت‌های اسپم، تشخیص لینک‌های پولی و یا کلیک‌های خریداری شده و همچنین تشخیص بهینه سازی بیش از حد، از نقاط قوت پنگوئن هستند.

 

  • الگوریتم Google Knowledge Graph

این مورد از الگوریتم های گوگل به این دلیل راه اندازی شده که کاربران و جستجوگران خیلی راحت‌تر و سریع به اطلاعات علمی دسترسی داشته باشد. الگوریتم Google Knowledge Graph در ماه می سال 2012 معرفی شد و روال کار آن بدین صورت است که‌ یک نمودار از اطلاعات در سمت راست نتایج به کاربر نشان می‌دهد. گوگل اعلام کرده است که این الگوریتم به درک بهتر جستجوگران از جهان واقعی و روابط آنها با یکدیگر کمک می‌کند. جالب است بدانید که این الگوریتم در هنگام راه‌اندازی، اطلاعات مربوط به 500 میلیون شی خاص و همچنین اطلاعات درباره ارتباط بین سه و نیم میلیارد مورد مختلف را، به‌طور کامل داشته است.

برای درک این موضوع توصیه می‌کنم که کلمه مدیر وب را در گوگل سرچ کنید. نتایج جستجو علاوه بر اطلاعات و موارد معمولی که در هر حالتی نشان داده می‌شوند، یک نمودار مجزا در سمت راست را نیز نمایش می‌دهد که به عنوان اطلاعات تکمیلی به شما داده می‌شود. این اطلاعات معمولاً شامل آدرس، نوع کسب و کار و حوزه فعالیت کلمه کلیدی جستجو شده است.

 

  • الگوریتم مرغ مگس خوار (Google Hummingbird)

 به مرور زمان، گوگل متوجه شد که عکس العمل جستجوگران نسبت به کوئری ها بسیار خاص و منحصر به فرد است و ترجیحاً آنها به شکلی است که فقط به سراغ یک عبارت یا چند کلمه مربوطه بروند. این موضوع نشان می‌داد که کاربران نسبت به نتایج جستجو حساسیت بالایی دارند و ترجیح می‌دهند که نتایج بسیار نزدیک‌تر و دقیق‌تر باشد. بنابراین یکی دیگر از الگوریتم های گوگل تحت عنوان الگوریتم مرغ مگس خوار در سال 2013 منتشر شد این الگوریتم نسبت به مدل‌های قبلی تغییر آن چنانی و بسیار بزرگی نداشت، اما توانایی آن بسیار مهم و تاثیرگذار بود که باعث جلب رضایت کاربران می‌شد. جستجو‌های گوگل نشان می‌دهد که استفاده از الگوریتم مرغ مگس خوار تقریباً نزدیک به 90 درصد از نتایج جستجو را تحت تأثیر قرار داده و نتایج بهینه شده را به کاربران عرضه می‌کنند.

 

  • الگوریتم کبوتر (Google Pigeon)

 توصیه می‌کنم که در همین ابتدا به کبوتر نامه بر فکر کنید تا درک درستی از این الگوریتم داشته باشد. الگوریتم کبوتر ژوئن سال 2014 توسط شرکت گوگل معرفی شد که برای جستجوهای محلی طراحی شده است. این الگوریتم جدید به گوگل این امکان را می‌دهد که از بین نتایج مختلف، بهترین گزینه را از نظر موقعیت مکانی و جغرافیایی پیشنهاد دهد. در واقع الگوریتم کبوتراز قابلیت الگوریتم پیشنهاد گوگل، الگوریتم نمودار دانش، الگوریتم تشخیص زبان و همچنین الگوریتم مرغ مگس‌خوار خود استفاده می‌کند تا بهترین گزینه ممکن را با توجه به موقعیت مکانی جستجوگر، به او پیشنهاد دهد. این یکی از جامع‌ترین و بهترین الگوریتم های گوگل در جستجوهای محلی است.

 

  • الگوریتم Mobilegeddon

 شرکت گوگل با توجه به پیش بینی‌هایی که در مورد استفاده از گوشی‌های هوشمند و روند رو به رشد کاربرد آنها داشته است، یک الگوریتم به همین موضوع اختصاص داده است. الگوریتم جدید Mobilegeddon در ماه آوریل سال 2015 پخش شد و وظیفه آن بررسی وب سایت‌های مرتبط با تلفن همراه و محتوای آنهاست. در واقع این الگوریتم در نگاه کلی به وب سایت این نکته را مد نظر قرار می‌دهد که سایت مورد نظر تا چه اندازه متناسب با گوشی‌های هوشمند و تبلت‌ها طراحی شده است. حتماً بحث ریسپانسیو بودن طراحی سایت را شنیده‌اید که دقیقاً برای تناسب با این الگوریتم مطرح شده‌است.

 

  • الگوریتم رنگ برین (Google RankBrain)

شرکت گوگل الگوریتم رنک برین را بدین شکل معرفی می‌کند که یک سیستم هوش مصنوعی یادگیری ماشین است که موتورهای جستجو را در ایجاد رابطه بین کلمات مختلف کمک کرده و نتایج را بهینه سازی می‌کند. کاری به معنی تحت اللفظی این الگوریتم نداریم و بیشتر می‌خواهیم عملکرد آنها را بررسی کنیم. فرض بگیرید که شما در مورد الگوریتم های گوگل جستجو می‌کنید. در الگوریتم رنک برین، نتایج مختلفی با توجه به این کلمه کلیدی بررسی می‌شود و نزدیک‌ترین آنها را به شما پیشنهاد می‌دهد. در واقع، این الگوریتم مانع می‌شود که نتایج مربوط به خود کلمه گوگل یا خود کلمه الگوریتم در نتایج اصلی آورده شود تا کاربر نتایج را به صورت دقیق و مرتبط دریافت کند.

 

  • الگوریتم موش کور (Possum)

الگوریتم موش کور را می‌توان نسخه بهبود یافته الگوریتم کبوتر معرفی کرد که در سپتامبر سال 2016 معرفی شد. این الگوریتم پا را فراتر گذاشته و محدوده جستجوهای محلی را بسیار کوچک‌تر کرده است. به عنوان مثال، این الگوریتم به شما این امکان داده می‌شود که کسب و کارهای خارج شهر را از کسبوکارهای داخل شهر تفکیک کنید. حتی با کمک این ابزار امکان تعیین مسافت تا محل مورد نظر نیز به جستجوگران داده می‌شوند. به طور کلی مزایای استفاده از الگوریتم موش کور در سه مورد خلاصه می‌شود:

این الگوریتم مشاغل و کسب و کارهای خارج از محدوده شهری را نسبت به مشاغل داخل شهر تفکیک می‌کنند تا تناسب آنها با کلمه‌ کلیدی بهتر باشد؛

 از این الگوریتم برای فیلتر کردن مکان‌های نزدیک به هم و دارای آدرس یکسان استفاده می‌شود؛

محل فیزیکی فرد جستجوگر یا تایپ کننده تأثیر زیادی بر نتایج دارد. این یعنی اگر شما در منطقه خاصی از تهران به دنبال رستوران بگردید، بدون شک الگوریتم موش کور شما را به سراغ گزینه‌هایی می‌برد که به منطقه مورد نظر نزدیک‌تر باشد.

 

  • الگوریتم پنگوئن نسخه 4

 بروزرسانی و آپدیت کردن فقط به معنای معرفی نسخه‌های جدید نیست و می‌توان الگوریتم های گوگل را با شیوه‌های مختلف به روز رسانی کرد. یکی از این موارد، الگوریتم پنگوئن 4 است که در سال 2016 و در سپتامبر معرفی شد. این نسخه از الگوریتم پنگوئن دو مزیت بزرگ دارد که یکی از آنها به کار بردن جستجوی زمان لحظه‌ای در نتایج است. یعنی در این لحظه نتایج جستجو با 5 دقیقه دیگر ممکن است تفاوت داشته باشد.

همچنین در نسخه 4 این الگوریتم برای کسانی که در نسخه‌های قبلی متضرر شده‌اند راهکارهایی پیشنهاد شده است که بتواند رتبه‌های قبلی خود را به دست می‌آورند. در واقع اگر این افراد یا وب سایت‌ها اقدامات لازم برای پاکسازی لینک‌های اسپم و دیدگاه‌های بدون هویت انجام دهند، به همان رتبه قبلی خود برمیگردند.

 

  • الگوریتم Intrusive Interstitial Penalty

 ظهور الگوریتم Intrusive Interstitial Penalty در ماه ژانویه سال 2017 را می‌توان بهترین خبر برای جستجوگران و بازدیدکنندگان در نظر گرفت. در حقیقت، این یکی از بهترین الگوریتم های گوگل برای ایجاد تجربه کاربری خوب و مناسب بین کاربران است. حتماً این تجربه را داشته‌اید که با مراجعه به یک سایت، بلافاصله یک پاپ آپ باز می‌شود یا یک صفحه مزاحم جلوی چشم شما قرار می‌گیرد که حتماً باید آن را ببندید. این موضوع بارها و بارها تکرار می‌شود و در نتیجه کاربر از حضور در چنین سایتی پشیمان می‌شود.

گوگل برای جلوگیری از این موضوع، الگوریتم Intrusive Interstitial Penalty را معرفی کرده است. این الگوریتم سه دسته از وب سایت‌ها را مجازات می‌کند:

وب سایت‌هایی که دارای یک صفحه نمایش پنجره‌ای هستند که بلافاصله پس از ورود کاربر به وب سایت، باز شده و کاربر مجبور است که آن را ببندد؛

وب سایت‌هایی که یک کادر و مستطیلی تبلیغاتی در جلوی چشم کاربر قرار می‌دهند و بازدیدکننده مجبور است که برای رسیدن به محتوای اصلی آن را رد کند؛

 وب سایت‌هایی که در بخش فوقانی صفحه اصلی خود یک کادر می‌گذارند که محتوای آن با محتوای اصلی وب سایت متفاوت است و ممکن است کاربر را از موضوع اصلی دور کند.

 

  • الگوریتم فرد (Google Fred)

به روز رسانی الگوریتم فرد در ماه مارس سال 2017 رخ داد. این الگوریتم بیشتر سایت‌های را مورد هدف قرار می‌داد که کسب درآمد و تبلیغات را بیش از تجربه کاربران در اولویت خود قرار می‌دهند. استفاده از اسم فرد برای این الگوریتم توجیه خاصی ندارد و در واقع طراح آن، به نوعی از یک اسم شوخی و غیر رسمی برای آن استفاده کرده استوب سایت‌هایی با محتوای بی‌کیفیت، دارای لینک‌های نامطلوب و نرخ تبدیل بیش از حد، پاپ آپ ها وشیوه های تبلیغاتی بیش از حد بر روی صفحه، به اصطلاح به دنبال کم کردن ترافیک ارگانیک و بردن کاربران به سمت انتقال بازدید هستند. جالب است بدانید که بعضی از این سایت‌ها تا 90 درصد از ترافیک خود را به جاهای دیگر منتقل می‌کنند و از حربه‌هایی مانند تبلیغات بنری و تبلیغات کلیکی استفاده می‌کند الگوریتم فرد به این وب سایت‌ها اجازه کار نمی‌دهد و معتقد است که این موضوع به کاربران گوگل لطمه می‌زند. بنابراین، وب سایت‌هایی که از این شیوه استفاده می‌کنند، باید در انتظار مجازات گوگل باشند که همان پنالتی شدن است.

 

  • الگوریتم Google BROAD CORE

در 1 آگوست سال 2018، گوگل در توییتر تأیید کرد که در این هفته به روز رسانی الگوریتم های مرکزی به شکل گسترده انجام گرفته است. با وجود اینکه گوگل هر روز تغییراتی به صورت ریز و غیر محسوس در نتایج خود به وجود می‌آورد، اما برخی از آنها گسترده‌تر و متمرکزتر هستند. این مورد باعث می‌شود که الگوریتم های جدیدی به وجود بیایند که این الگوریتم نیز در بین آنها قرار می‌گیرد. کارایی الگوریتم Google BROAD CORE این است که هیچ کدام از وب سایت‌ها محل امنی برای حضور ندارند و اگر یک وب سایت بتواند محتوای عالی و با کیفیت و البته «تخصصی» تولید کند، بدون توجه به رتبه سایت، می‌تواند خود را به بالاترین رتبه ممکن برساند.

 

  • الگوریتم Google MEDIC UPDATE

 این الگوریتم بخشی از الگوریتم اصلی Google BROAD CORE است که همزمان با آن شروع به کار کرده است. در ابتدا از این الگوریتم با عنوان Medic یاد می‌شد، زیرا بیشتر وب سایت‌های مربوط به بخش پزشکی و بهداشتی را تحت تأثیر قرار می‌دهد. اما بعد از مدتی گوگل با تغییراتی در آن، اعلام کرد که حوزه‌های دیگر صنعتی و حقوقی را نیز توسط این الگوریتم تحت تأثیر قرار می‌دهداین در واقع یک ترفند از طرف گوگل برای تقویت سایت‌های تخصصی است. اما می‌بینید که برای این یک مطلب پزشکی تخصصی وقتی جستجو می‌کنید، بیشتر وبلاگ‌هایی بالا می‌آیند که رتبه بهتری دارند. با وجود الگوریتم Medic، این موضوع منتفی شده و شما برای هر بحث تخصصی به همان وبسایت تخصصی آن هدایت می‌شوید.

دیدگاه خود را ثبت کنید

شماره تماس
02166230358
آدرس ایمیل
info@oxinset.com