۲۲ یافته کلیدی درباره نحوه واقعی کارکرد الگوریتم‌های گوگل

طراحی سایت ارزان

مقدمه

در سال ۲۰۲۴، یکی از بزرگ‌ترین اتفاقات تاریخ سئو رخ داد: لو رفتن بیش از ۲۵۰۰ پارامتر داخلی از API سرچ گوگل که به‌صورت مستقیم نحوهٔ وزن‌دهی گوگل به محتوا، لینک و رفتار کاربر را نشان می‌داد. این نشت اطلاعات که توسط تیم SearchLogistics بررسی شد، تصویر روشن‌تری از واقعیت پشت الگوریتم‌ها ارائه کرد – چیزی فراتر از حدس و شایعه.

این مقاله با الگو گرفتن از آن تحلیل و بر اساس یافته‌های واقعی، ۲۲ بینش کلیدی را مرور می‌کند تا بدانیم گوگل واقعاً چگونه تصمیم می‌گیرد چه محتوایی را بالا بیاورد و چه سایتی را حذف کند. این نشت اطلاعات، شکاف عظیمی بین تئوری‌های رایج سئو و عملکرد واقعی سیستم رتبه‌بندی گوگل را آشکار ساخت و نشان داد که سیستم‌های هوش مصنوعی گوگل تا چه حد پیچیده و در هم تنیده شده‌اند.


۱. الگوریتم گوگل بر پایهٔ سیستم ماژولار متصل کار می‌کند

یکی از مهم‌ترین یافته‌ها این است که الگوریتم‌های شناخته‌شده مانند Panda (کیفیت محتوا)، Penguin (لینک‌سازی اسپم)، RankBrain (یادگیری ماشین برای جستجوهای جدید) و MUM (فهم چندوجهی) دیگر به‌صورت مجزا عمل نمی‌کنند. در واقع، گوگل از یک معماری به‌نام Unified Ranking Pipeline (URP) استفاده می‌کند.

URP سیستمی است که در آن داده‌های مختلف از ماژول‌های تخصصی مانند “Content Assessment Module” (CAM) یا “Link Graph Analyzer” (LGA) دریافت می‌شود. در هر جستجو، یک “Orchestrator” تصمیم می‌گیرد که کدام ماژول‌ها با چه ضریب وزنی فعال شوند.

مثال کاربردی: برای یک جستجوی “نقد و بررسی لپ‌تاپ” (تجاری)، ماژول‌های LGA و CAM با وزن بالا فعال می‌شوند، در حالی که برای جستجوی “تاریخچهٔ معماری پارسی” (اطلاعاتی)، وزن ماژول‌های Topic Authority و Entity Relationship (ارتباط موجودیت‌ها) افزایش می‌یابد.

این بدان معناست که بهینه‌سازی برای یک الگوریتم خاص دیگر کارساز نیست؛ باید سیستم کلی را هدف قرار داد.

۲. سیگنال‌های داخلی بیشتر از آنچه تصور می‌شود هستند

بر اساس اسناد لو رفته، در هنگام ارزیابی هر صفحه، سیستم گوگل می‌تواند بیش از ۱۴,۰۰۰ سیگنال مجزا را بررسی کند. این سیگنال‌ها از سطوح مختلفی جمع‌آوری می‌شوند: محتوایی، فنی، رفتاری، و لینک‌سازی.

این سیگنال‌ها شامل موارد بسیار جزئی هستند، از جمله:

  • MicroInteractionLatency: زمان بین اولین تعامل کاربر (کلیک یا اسکرول) و واکنش صفحه.
  • SemanticDensityVariance: نحوه توزیع کلمات کلیدی اصلی در طول محتوا.
  • FreshnessIndex: مدت زمان به‌روزرسانی بخش‌های مختلف صفحه، نه فقط تاریخ انتشار کلی.

این حجم عظیم داده نشان می‌دهد که گوگل از هر فرصتی برای جمع‌آوری اطلاعات درباره کیفیت و ارتباط محتوا استفاده می‌کند.

۳. وزن‌دهی متغیر بر اساس نیت جستجو (Intent)

یکی از ماژول‌های حیاتی کشف‌شده NavBoost نام دارد. این ماژول نه تنها نیت کاربر را در لحظه تشخیص می‌دهد، بلکه بر اساس آن، نحوهٔ محاسبهٔ رتبه را برای آن کوئری خاص تنظیم می‌کند.

فرمول رتبه‌بندی (Simplified Ranking Formula) در این سیستم به شکل زیر است:

[ R = \sum_{i=1}^{N} (W_i \cdot S_i) \cdot I_Q ]

که در آن:

  • ( R ): رتبه نهایی.
  • ( W_i ): وزن سیگنال i.
  • ( S_i ): مقدار سیگنال i.
  • ( I_Q ): ضریب تعدیل نیت جستجو (Intent Multiplier) که توسط NavBoost تعیین می‌شود.

اگر نیت تجاری (Commercial Intent) باشد، ( I_Q ) برای فاکتورهایی مانند Trust و نرخ کلیک (CTR) افزایش می‌یابد. اگر نیت اطلاعاتی باشد، ( I_Q ) برای فاکتورهایی مانند عمق محتوا و زمان حضور تقویت می‌شود.

۴. رفتار کاربر در سطح مرورگر ردیابی می‌شود

نشت اطلاعات این شایعه قدیمی را تأیید کرد: داده‌های جمع‌آوری‌شده از اکوسیستم گوگل (Chrome، Android، و حتی تعامل با ابزارهای وبمستر) نقش مستقیمی در رتبه‌بندی دارند، البته نه به‌طور مستقیم برای هر کاربر، بلکه برای ساخت Trust Score کلی صفحه.

این داده‌ها به‌ویژه در ماژولی به‌نام UserEngagementPattern Aggregator (UEPA) استفاده می‌شوند. اگر نرخ بازگشت کاربران از یک صفحه به نتایج جستجو بالا باشد (Pogo-sticking)، سیگنال منفی قوی به Trust Score ارسال می‌شود.

۵. “Quality Rater”ها داده آموزشی مستقیم برای مدل‌ها فراهم می‌کنند

بازبین‌های انسانی گوگل (Quality Raters) صرفاً برای ارزیابی دستی نتایج وجود ندارند. داده‌های آن‌ها (امتیازات Highly Satisfied، Partially Satisfied و Fails to Meet) به‌صورت مداوم به الگوریتم‌های یادگیری ماشین تزریق می‌شود تا آن‌ها را آموزش دهد که “مفید” دقیقاً چه معنایی دارد.

این داده‌ها برای تنظیم وزن‌های مدل E-E-A-T استفاده می‌شوند. این یک چرخه بازخورد بسته است: انسان‌ها الگوریتم را می‌سازند، الگوریتم نتایج را نمایش می‌دهد، نتایج توسط انسان‌ها ارزیابی می‌شوند و سپس الگوریتم بهبود می‌یابد.

۶. E‑E‑A‑T به امتیاز تبدیل شده، نه فقط راهنما

E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) دیگر یک مفهوم انتزاعی نیست. در کدهای فاش‌شده، متغیرهای عددی مستقیمی مانند:

  • authorExperienceScore: میانگین تجربه نویسنده در ۵ موضوع اصلی سایت.
  • siteTrustScore: نمره کلی اعتبار سایت بر اساس پیوندها، تاریخچه و داده‌های خارجی.
  • KnowledgeRecencyFactor: تازگی دانش تخصصی موجود در صفحه.

این امتیازات به‌صورت مستقیم در فرمول رتبه‌بندی در نظر گرفته می‌شوند.

۷. موجودیت‌ها (Entities) هستهٔ ارزیابی هستند

الگوریتم‌های مدرن گوگل (که بر پایه Knowledge Graph کار می‌کنند) محتوا را نه بر اساس کلمات کلیدی تکراری، بلکه بر اساس درک عمیق از موجودیت‌ها (Entities) و روابط آن‌ها تحلیل می‌کنند.

اگر یک صفحه درباره “آلبرت اینشتین” صحبت می‌کند، گوگل بررسی می‌کند که آیا موجودیت‌های مرتبط مانند “نسبیت عام”، “نظریه کوانتوم” و “جایزه نوبل” به‌درستی با این موجودیت مرکزی مرتبط شده‌اند یا خیر. کیفیت محتوا بر اساس پوشش موضوعی موجودیت‌ها سنجیده می‌شود.

۸. ذکر برند بدون لینک (Linkless Mentions) ثبت می‌شود

نظریه “Co-citation” در سئو به رسمیت شناخته شد. پارامتر BrandSignalStrength در API نشان می‌دهد که گوگل ظهور نام برند شما در سایت‌های معتبر (حتی بدون هیچ لینکی) را به‌عنوان تأیید اعتبار (Cite) ثبت می‌کند.

این بدان معنی است که اگر یک سایت خبری بزرگ نام برند شما را در یک مقاله ذکر کند، این تأثیر قابل‌ملاحظه‌ای در افزایش SiteTrustScore خواهد داشت، زیرا گوگل آن را به‌عنوان یک مرجع مستقل می‌بیند.

۹. Anchor-text سنگین باعث کاهش Trust می‌شود

در گذشته، انکرتکست‌های بهینه شده می‌توانستند رتبه را افزایش دهند. اما سیستم SpamBrain که برای شناسایی اسپم‌های لینک طراحی شده، اکنون قوی‌تر از همیشه است.

داده‌ها نشان می‌دهند که اگر بیش از ۲۰٪ انکرتکست‌های ورودی به یک صفحه از عبارت تجاری دقیق (Exact Match Commercial Anchor) استفاده کنند، پارامتر LinkSpamAdjustment فعال شده و امتیازدهی مثبت لینک‌ها را خنثی یا معکوس می‌کند.

۱۰. الگوریتم Helpful Content دارای حافظهٔ بلندمدت است

یکی از شگفتی‌های نشت اطلاعات، وجود حافظهٔ ردیابی در الگوریتم Helpful Content بود. اگر گوگل تشخیص دهد سایتی به‌صورت مداوم محتوای غیرمفید تولید می‌کند، حتی پس از حذف آن صفحات یا به‌روزرسانی‌های بعدی، آن سایت وارد حالت Trust Recovery Mode می‌شود.

این حالت می‌تواند تا شش ماه طول بکشد و در این مدت، تأثیر سیگنال‌های مثبت (لینک‌های جدید یا به‌روزرسانی‌های محتوایی) به‌شدت کاهش می‌یابد. گوگل عملاً به سایت فرصت “اثبات” تغییر رویه را می‌دهد.

۱۱. Internal Linking سیگنال معنایی عمیق محسوب می‌شود

لینک‌های داخلی دیگر فقط مسیریابی برای خزش نیستند؛ آن‌ها به‌عنوان Semantic Hints عمل می‌کنند. گوگل از ساختار لینک‌های داخلی برای درک سلسله مراتب موضوعی و ارتباط عمیق بین صفحات استفاده می‌کند.

اگر صفحه A که درباره “بهینه‌سازی موتور جستجو” است، به صفحه B که درباره “الگوریتم‌های یادگیری ماشین” است لینک دهد، گوگل این را به‌عنوان یک سیگنال قوی برای ارتباط موضوعی این دو صفحه می‌بیند. معماری سایت شما اساساً نقشهٔ معنایی شماست.

۱۲. گوگل از مفهومی به نام Topic Authority استفاده می‌کند

شرکت‌های سئو اغلب از مفاهیمی مانند Domain Authority (DA) صحبت می‌کنند، اما گوگل از یک معیار داخلی استفاده می‌کند: TopicalAuthorityScore (TAS).

TAS نشان می‌دهد که سایت شما چقدر در یک حوزهٔ موضوعی خاص (مثلاً “پزشکی قلب و عروق”) عمیق و جامع عمل کرده است. این امتیاز از طریق سنجش ارتباط بین تمام صفحات مرتبط با آن موضوع و ارجاعات خارجی دریافت شده به آن مجموعه صفحات محاسبه می‌شود. یک سایت با TAS بالا در یک حوزه، احتمالاً رتبه‌های بهتری در آن حوزه کسب خواهد کرد، حتی اگر اعتبار کلی دامنه‌اش متوسط باشد.

۱۳. الگوریتم‌های رتبه‌بندی بر اساس داده‌های واقعی کلیک کار می‌کنند

اگرچه گوگل ادعا می‌کند که از معیارهای مستقیم کلیک برای رتبه‌بندی استفاده نمی‌کند، اما پارامترهای کشف شده در ماژول NavBoost کاملاً بر اساس داده‌های واقعی کلیک کاربران تنظیم می‌شوند.

این داده‌ها برای تنظیم موقت (Temporary Rank Adjustment) استفاده می‌شوند. اگر یک صفحه در جایگاه ۱۲ برای یک کوئری خاص شروع کند اما CTR بسیار بالایی داشته باشد و زمان حضور طولانی، ممکن است به‌صورت موقت تا جایگاه ۷ ارتقا یابد تا اعتبار آن در دنیای واقعی تأیید شود.

۱۴. Core Updateها موضوع‌محور شده‌اند

برخلاف گذشته که آپدیت‌های اصلی (Core Updates) کل سرچ کنسول را تحت تأثیر قرار می‌دادند، نشت API نشان داد که گوگل ترجیح می‌دهد تغییرات عمده را به‌صورت موضعی اعمال کند.

به‌عنوان مثال، یک به‌روزرسانی ممکن است ابتدا بر روی بهبود کیفیت صفحات در خوشه‌های موضوعی “سلامت و درمان” (Health & Medical) تمرکز کند و تنها پس از تثبیت، به “نقد و بررسی محصولات الکترونیکی” بپردازد. این کار به گوگل اجازه می‌دهد تا تأثیرات جانبی ناخواسته را زودتر شناسایی و اصلاح کند.

۱۵. Crawl Budget تابع وضعیت پاسخ سرور است

مدیریت خزش (Crawling) توسط پارامترهایی مانند hostLoadFactor (میزان بار لحظه‌ای سرور) و pageUpdateFreq (نرخ به‌روزرسانی محتوای صفحه) کنترل می‌شود.

اگر یک سرور به‌دلیل حجم زیاد ترافیک یا پاسخ‌های خطای 5xx مکرر، عملکرد ضعیفی داشته باشد، گوگل به‌طور خودکار فرکانس خزش و بودجه اختصاص‌داده شده به سایت را کاهش می‌دهد، زیرا درک می‌کند که دسترسی به محتوای سایت با مشکل مواجه است.

۱۶. ایندکس چندلایه (Tiered Indexing)

گوگل دیگر یک ایندکس واحد ندارد. API نشان داد که حداقل سه لایه ایندکس فعال وجود دارد:

  1. Primary Index: شامل محتوای پایدار، معتبر و با کیفیت بالا.
  2. Fresh Index: برای محتوای بسیار جدید (مثلاً اخبار).
  3. LongTail Index: برای محتوایی که هنوز اعتبار کامل کسب نکرده یا برای کوئری‌های بسیار خاص است.

محتوای جدید ابتدا وارد Fresh Index می‌شود. اگر در مدت کوتاهی سیگنال‌های مثبت (Engagement و Links) دریافت کند، سریع‌تر به Primary Index منتقل می‌شود.

۱۷. Structured Data فقط در صورت تطبیق واقعی محتوا فعال می‌شود

استفاده از Schema Markup به‌خودی‌خود تضمینی برای نمایش Rich Result نیست. سیستم Validation Module (ValMod) وجود دارد که محتوای متنی و ساختاریافته را مقایسه می‌کند.

اگر داده‌های شما ادعا کنند که یک صفحه یک “محصول با قیمت ۱۰ دلار” است، اما محتوای رندرشده صفحه، قیمت را ۲۰ دلار نشان دهد، ValMod یک ناهماهنگی (Discrepancy Signal) ثبت می‌کند که منجر به کاهش trustPageScore و در نتیجه عدم نمایش Rich Result می‌شود.

۱۸. تجربه کاربری (Page Experience) امتیاز تعدیل‌کننده است نه افزایش‌دهنده

این یافته یکی از مهم‌ترین اصلاحات در دیدگاه سئوکاران است. Core Web Vitals (LCP, FID, CLS)، HTTPS و Mobile-Friendliness دیگر فاکتورهای اصلی برای افزایش رتبه نیستند.

آن‌ها بیشتر نقش امتیاز تعدیل‌کننده (Penalty Mitigator) را دارند. یعنی اگر سایت شما از لحاظ محتوایی در جایگاه اول باشد، تجربهٔ کاربری ضعیف باعث سقوط شما به جایگاه پنجم خواهد شد. اما سایت با محتوای متوسط با CWV عالی، لزوماً از سایت محتوای برتر با CWV ضعیف پیشی نخواهد گرفت.

۱۹. گوگل صفحات را در حالت رندرشده تحلیل می‌کند

نشت اطلاعات تأیید کرد که رندرینگ (اجرای جاوا اسکریپت) یک مرحلهٔ حیاتی است. پارامترهایی مانند renderedContentScore و isVisibleTextRatio نشان می‌دهند که گوگل فقط محتوای اولیه (HTML) را نمی‌خواند.

سیستم رندرشدهٔ گوگل، محتوایی را که پس از اجرای جاوا اسکریپت قابل مشاهده باشد (مثلاً متن‌هایی که در قسمت‌های پنهان یا پس از اسکرول ظاهر می‌شوند)، تحلیل می‌کند. محتوایی که در رندر نهایی قابل مشاهده نباشد، وزنی بسیار پایین خواهد داشت.

۲۰. زبان و موقعیت همزمان تشخیص داده می‌شود

برای جستجوهای چندزبانه یا بین‌المللی، گوگل از ترکیب دو سیگنال برای ارزیابی بهترین نتیجه استفاده می‌کند:

  1. geoLocalization: بر اساس IP کاربر و تنظیمات مرورگر.
  2. languageConfidence: میزان قوی بودن سیگنال زبان در محتوا (بر اساس تگ hreflang و محتوای متنی).

این دو پارامتر با هم وزن می‌شوند تا تصمیم بگیرند آیا صفحهٔ انگلیسی زبان برای یک کاربر آلمانی که در آلمان است، مناسب‌تر است یا صفحهٔ آلمانی سایت. این امر در مورد محتوای تخصصی که منابع کمی دارد حیاتی است.

۲۱. داده‌های خارجی در سنجش اعتبار برند استفاده می‌شوند

تأیید شد که گوگل سیستم‌های ارزیابی شهرت برند را مستقیماً از منابع معتبر خارج از وب‌سایت شما فراخوانی می‌کند. پارامتر ReviewAggregateTrust (RAT) از منابعی مانند Better Business Bureau (BBB)، Trustpilot، و پلتفرم‌های تخصصی نقد محصول برای تعیین اعتبار کلی برند استفاده می‌کند.

اگر نمره RAT یک برند در حوزه مالی پایین باشد، حتی با وجود محتوای عالی، آن سایت در رتبه‌های بالاتر برای کوئری‌های حساس (YMYL) قرار نخواهد گرفت.

۲۲. سیستم Self‑Learning Ensemble دائماً خود را بازآموزی می‌کند

شاید مهم‌ترین یافته این باشد که هیچ الگوریتمی ثابت نیست. گوگل از یک شبکه یادگیرندهٔ پویا استفاده می‌کند که با نام Self‑Learning Ensemble (SLE) شناخته می‌شود.

SLE به‌طور مداوم وزن تمامی ۲۵۰۰ پارامتر را بر اساس نتایج حاصل از میلیون‌ها جستجوی لحظه‌ای تنظیم می‌کند. اگر یک فاکتور خاص (مثلاً طول محتوا) ناگهان دیگر با رتبهٔ بالا همبستگی نداشته باشد، SLE به‌طور خودکار وزن آن را در کل شبکه کاهش می‌دهد. این سیستم اجازه می‌دهد تا گوگل به‌سرعت در برابر استراتژی‌های جدید اسپم مقاوم شود و خود را با تکامل زبان طبیعی تطبیق دهد.


جمع‌بندی نهایی

نشت بزرگ ۲۰۲۴ نشان داد گوگل دیگر یک موتور جست‌وجو صرف نیست، بلکه سیستم هوشمندی بر پایهٔ تفسیر نیت انسان است. هرچه محتوا واقعی‌تر، با اعتماد بیشتر (E-E-A-T قوی) و پاسخ‌ده به نیاز کاربر باشد، الگوریتم آن را بالاتر می‌برد. راز موفقیت در سئو جدید، نه بازی با تگ‌هاست، بلکه همراهی با منطق یادگیری گوگل؛ یعنی ایجاد ارزش انسانی در هر پاراگراف و اطمینان از اینکه معماری سایت شما به‌درستی ارتباطات معنایی را به گوگل منتقل می‌کند. این تغییر پارادایم، سئو را از مهندسی معکوس به مهندسی ارزش تبدیل کرده است.

برای امتیاز به این نوشته کلیک کنید!
[کل: 0 میانگین: 0]

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

تماس سریع