На відміну від ситуації в SEO років 10 тому, платні посилання не мають магічної сили. Вони не виведуть сторінку в ТОП і можуть зашкодити ранжуванню. Google алгоритми суворіше оцінюють контент, і його патенти затверджують тенденцію.

Google algo

Боти щоденно сканують сайти й постачають системам машинного навчання величезні масиви даних для аналізу. Поглинаючи інформацію, штучний інтелект вдосконалюється, і результати його діяльності щораз більше нагадують висновки людини-експерта. Перед повномасштабним впровадженням, ключові поновлення алгоритмів отримують оцінки від найнятих Гуглом рейтерів, після чого програми коригують і знову піддають тестуванню.

Щоб бути в курсі Google Core Updates та відстежувати зміни на сторінці результатів пошуку, достатньо заглядати на цю сторінку, де Google офіційно оголошує про зміни в алгоритмах ранжування.

Вхідні посилання, надійність і авторитет сайту

Кількість та якість вхідних посилань сторінки (зовнішніх і внутрішніх) + сукупний профіль сайту = чіткі сигнали вагомості сторінки для пошукових систем.

В Google за облік посилань відповідає алгоритм PageRank. З 2000 року PR-число вебсторінки можна було дізнатися просто у браузері, але потім цю можливість прибрали: оцінки провокували вебмайстрів на маніпуляції, що завдало значної шкоди чистоті Веб. Проте Google PageRank і досі живий: патент на нього переоформлено у 2017, і діятиме він аж до 2027. Але нам не варто відтворювати розрахунки: PR – один з сотень складників рангу, й окремо від інших він непридатний для прогнозу позицій.

З доменом (адресою сайту) пов’язані ще такі поняття, як рівень довіри й авторитет: вони характеризують надійність і впливовість домену, а також глибину його зв’язків з іншими поважними ресурсами. На цих абстракціях ґрунтується низка цікавих фірмових метрик (DA, TF, TTF), однак ми їх пропустимо. Тому що Гугл, обраховуючи ранг, радше спиратиметься на власні моделі й методи.

Потік посилань, накопичення ваги Яку роль відіграють вага (link equity, капітал) і авторитет? Вони накопичуються і розподіляються за допомогою посилань: що більш серйозні сайти посилаються на ресурс, тим вищий буде рівень довіри до нього пошукових систем. Зворотне правило теж діє: без припливу якісних посилань сайт матиме проблеми з довірою.

Для новачків це означає, що їхня головна сторінка нескоро переважить в Пошуку головні авторитетних конкурентів. Природних посилань на себе швидко не заробиш, а в інші навчені досвідом алгоритми не повірять.

Проте перший програш – ще не поразка, адже чинників ранжування більше!

Дебютанти можуть створювати контент під будь-які пошукові фрази, най попервах і низькочастотні. Якщо Гугл вважатиме, що сторінка допоможе запитувачу реалізувати намір, вона точно посяде гідне місце.

Отже, уявімо, що наша сторінка з’явилася хоча б у Топ-12 результатів регіонального Google-пошуку.  А далі…

Поведінкові чинники ранжування (дії та реакція користувача)

Далі набуває сили поведінковий фактор. Що б там в різні часи не казали гуглери, вплив «неявного відгуку» користувача на ранжування підтверджується емпірично, і частково пояснюється патентами. Думаю, поведінка юзера на цільовій сторінці і в Пошуку (до й після переходу на сайт) враховується машиною модифікації рангу.

З очевидного: дії відвідувача, що повернувся в Пошук, можуть сказати системі, чи справдилися його очікування щодо сайту і чи задоволений він результатами Google загалом. Визначає це, ймовірно, алгоритм RankBrain.

Алгоритми Google оцінять, чи задоволений користувач сайтомЗвичайно, він не читає думок, натомість аналізує контекст запиту та взаємодіяння юзера зі сторінкою результатів. Разом з відомими в SEO алгоритмами Панда, Пінгвін (антиспам) та Голуб (локальні результати), RankBrain спочатку став частиною комплексного пошукового алгоритму – Колібрі (Hummingbird). Але вже за рік, у 2016, почав обробляти більшість запитів й виділився в окрему сутність.

Ніхто не розголошуватиме перелік поведінчих чинників, що впливають на ранжування. Проте з патентів Google та інших джерел зрозуміло, що могли були впроваджені оцінки, засновані на:

  • порівнянні поведінки в Пошуку з типовою схемою, що зберігається в профілі користувача (швидкість 1-го кліка, частіше вибирані позиції тощо);
  • врахуванні інтересу відвідувача до тематики (з історії пошуку й переглядів);
  • статистиці кліків для кожного фрагменту сторінки Пошуку (% кліків, час очікування кліку і т.ін.);
  • тривалості вивчання цільової сторінки і відсотку повернень з неї в Пошук.
Приклад до п.1. Є два юзери: один зазвичай клікає на першу-другу позиції і тим задовольняється, а інший читає описи й обирає різні варіанти. Якщо юзер №2 зайде на сторінку-переможця і вже не повернеться до Пошуку, це додасть їй більше значущості, ніж якби те саме зробив менш вимогливий користувач.
Ґрунтується на тезах патенту US8661029B1

Тепер щодо сайту в цілому: кілька звітів на зразок цього демонструють прямий зв’язок між рейтингом сайту і кількістю переглядів його сторінок, й обернений – між рейтингом та відсотком відмов. Результат очікуваний, проте він НЕ означає, що з кожної зв’язці є причина і наслідок.

В реальності факторів ранжування може бути більше. До речі, чи є в Гугла спосіб дізнатися про вчинки юзера поза сторінкою Пошуку? Теоретично – є: звіти власної аналітики, скрипти якої працюють на більшості сайтів, журнали Chrome браузера та/aбо розширень.

Щодо скриптів Google Analytics: я не вважаю, що наявність їх на сторінці або зібрана ними інформація впливає на ранг тієї сторінки. Однак важко було б повірити, що дані (у знеособленому виді) не використовуються для виявлення поведінкових закономірностей.

Пам’ятаймо, що відвідувач взаємодіє не тільки з контентом, а і з інтерфейсом сайту: якщо щось пригальмовує, реакцію гостя спрогнозувати неважко. Гуглбот теж не любить чекати на завантаження ресурсів, тому: продуктивність сайту і його оптимізація для мобільних – необхідні умови виживання в мережі.

Підсумовуємо: ані «вага посилань», ані «сік посилань» суттєво не допоможуть сторінці, яка не здатна затримати відвідувача. З іншого боку, корисні матеріали можуть отримати невеличку фору і час від часу з’являтись в Пошуку на помітних позиціях.

Що важливіше: авторитет домену чи якість вмісту сайту?

Відповідь залежить від частотності запиту, конкуренції в ніші, локалі, наміру користувача та… хто знає від чого ще. Зрозуміло, всі хочуть бачити цифри. Тому я назву їх умовно, але з цим, щонайменше, можна сперечатися.

Що важливіше для ранжування: авторитет сторінки чи якісний контент?

Для висококонкурентних комерційних запитів («купити смартфон», «seo оптимізація») співвідношення таке:

  • 30%  успіху забезпечує авторитет домену;
  • 20% – посилання сторінки та текст якорів;
  • 20% – релевантність вмісту, мікророзмітка, географічна близькість компанії до юзера;
  • 20% – HTTPS, швидкість і зручність сайту, в т.ч. на мобільних;
  • 10% – явна та неявна оцінка від користувача (явна – письмовий відгук, згадка про бренд на форумі; неявна – взаємодіяння з ресурсом і поведінка в Пошуку).
Чому на якість самого сайту відведено лише 20%? Тому що компанії з продажу консалт-послуг чи ґаджетів за цим показником мало відрізняються. Але в інших онлайн-нішах відсоток може бути більшим.
Схвалення від користувача теж не головне: відвідувача треба спершу привести з Пошуку, що через конкуренцію непросто. Аудиторія, що прийде напряму або за посиланням, навряд чи вплине на результат.

Натомість коли йдеться про запити з довгим хвостом («виховати цуценя чемним собакою», «щось оригінальне виразистого такого кольору», сторінка без жодного зовнішнього посилання може піднятися до Топ-3 завдяки тематичному влучанню «в яблучко» Додаткових умов дві: щоби домен не був новим і в його профілі знайшлося хоч щось вартісне. Тоді й №1 досяжний, якщо не пошкодуєте часу на роботу з ключовими словами, додасте кунштиків і почекаєте пару місяців, поки результат стабілізується.

В профілі домену… порожньо? Тоді на додачу до основного можна «виховати ведмедя» чи «зібрати смартфон з калькулятора та кишенькового дзеркальця», аби лише воно вкладалося в тематику. Коли сайт виросте з пісочниці, до якої пошукові алгоритми трохи упереджені, буде легше опановувати й поширені інформаційні запити.

Ще з обнадійливого. Картки продуктів інтернет-магазину реально вивести в Топ без зовнішніх посилань і попри авторитет конкурентів, якщо: Для ранжування продуктів необхідна розмітка Schema.org з ціною і наявністю товару

  1. Опис не повністю скопійований у виробника і містить важливу для клієнта інформацію: фото/відео, порівняння, особливості, умови гарантії тощо.
  2. Товар є у продажу за фіксованою ціною, і на його сторінці впроваджено розмітку Product з Offer відповідно до Schema.org.
  3. Є відгуки від користувачів. Якщо нема, варто стимулювати покупця оцінити товар, але це не критично, коли не йдеться про мейкап і ґаджети.
  4. Сторінки продуктів оптимально перелінковані між собою і доступні з категорії за 1-2 кліки (ботам – також).
  5. Магазин давно працює онлайн і з зовнішніх відгуків зрозуміло, що він не фіктивний і дійсно-таки продає.

Найскладніше у ранжуванні доводиться сторінкам-хабам, як от товарні категорії чи homepage блогу. Самі вони не здатні задовольнити потребу користувача, їхня місія – спрямувати на відповідну сторінку. Без зовнішніх посилань та підтримки авторитетного домену вони швидко розтратять капітал і будуть неспроможні втримувати позиції.

Про якість контенту

Добре. Ви вірите у власні сили й вирішили підкорювати Олімп якістю контенту. Підтримую. Втім, є нюанси. Щоб попередити розбіжності з Google щодо якості, не зашкодить переглянути методичку для оцінювачів (en), статтю Гугл про апдейти (en) або переклад її ключового фрагмента. В ньому в формі питань до себе викладено основи E-A-T концепції.

Ілюстрація тези про вирішальне значення вмісту сайту Про E-A-T десятьма словами: написати – замало, автор мав би наперед уславитися як експерт з тематики. В першу чергу це стосується сайтів, що діють за принципом YMYL – «гаманець або життя».

Легко впізнати серед них інтернет-ресурси, що продають медичні послуги: їм слід знати, що після медапдейту 08.2018  компетентність автора контенту стала головним чинником ранжування. Статті про здоров’я, не підкріплені авторитетом автора чи рецензента, прогрАють позиції фаховим публікаціям.

Це й зрозуміло: пошукова машина не має кваліфікації для перевірки правдивості нової інформації. Щоб не підвести людей на лихо, Google вивіряє відомості про автора з метою підтвердити наявність професійного досвіду. Втім, достовірність і точність інформації все ж важливі. В усякому разі пошуковик зіставить повідомлення з фактами своєї бази знань: якщо невідповідностей буде багато, і пояснень цьому не знайдеться, якість контенту буде визнана сумнівною.

Мабуть, читач помітив, що серед показників якості вмісту не згадано відсоток унікальності  й густоту ключових слів  (широко відому як щільність ключових слів ). — Так, про них варто було б забути багато років тому. Якщо сторінка містить плагіат або спам, автору це відомо. В інших випадках не варто згущувати ключові слова чи підтягувати унікальність всупереч здоровому глузду. Краще перевірити, чи все найважливіше сказано.

Чому в Топ-10 трапляються сайти невисокої проби

Якщо пошукові системи об’єктивні, як до результатів пошуку потрапляють заштатні ресурси, і за якими правилами з ними можна змагатись за місце в десятці?

Результати Google пошуку не завжди досконалі Людина в розпачі

Результати пошуку Google бувають недосконалими, якщо системі не вдалося звести новий запит до більш поширеного або вона просто не має достатньо об’єктивних даних для навчання. Можливо, тематика невиразно представлена ​​в Інеті, або в галузі панує бажання миттєво заробити, що провокує просідання стандартів. І хоч окремі сайти можуть пропонувати корисні матеріали, не факт, що вони будуть показані на перших позиціях.

Несправедливо, однак закономірно. Штучний Інтелект ще не напрацював інтуїцію, яка підказала б йому, де добре, а де погане. І діє за якимсь безідейним планом B, уразливим до маніпуляцій.

Ось рецепт, який і досі допомагає декому обмахорити пошукові алгоритми. Застосовний до нечастих, і тому незрозумілих системі запитів.

  1. Створити акуратну непоказну сторінку.
  2. Добрати заголовки кількох рівнів, які б нормально сприймалися людиною.
  3. Нафарширувати розділи фрагментами релевантного контенту, що містять споріднені й уточнювальні фрази.
  4. Тексту хай буде більше, хоча б на три екрани ПК.

Формально текст відповідний до запиту, і легковірний юзер буде скролити, прагнучи врозуміти, як та маячня має вирішити його проблему. Вийде чи ні, але часу на сторінці буде проведено достатньо.

Років 5-10 тому ще можна було запроторити оптимізований псевдотекст у підвал сайту, але потім алгоритми порозумнішали й припинили цінити те, що складно побачити.

То задля чого люди займаються шахрайством? Щоб заробити рекламою або – найчастіше – спрямувати трафік на інший сайт. Класичні дорвеї, які переспрямовують одразу, майже віджили своє, але поодинокі екземпляри ще можна зустріти:

Сніпет дорвею

Зрештою, шкоди від цього немає, адже перспективи ранжування дорвеїв незмінно прямують до нуля.

Добре те, що гуглботи вже вивчили JavaScript і зазвичай передбачають редирект (програмну підміну URL). Тому тепер шахраї прагнуть замаскувати переспрямування під добровільний вибір юзера, щось на кшталт:

Дуже підозрілий додаток

Зрозуміло, краще втриматися і нічого на підозрілих сайтах не натискати. Та й взагалі краще не заходити, бо можна випадково клікнути прозоре посилання або дочекатися проґавленого ботами редиректу.

Нащо потрібні ті виверти з заміною адрес? Чи не можна мати на сайті 2 версії сторінки: ботам показувати текст, вартий місця в Топ-10 Пошуку, а людей, що прибуватимуть звідти, зустрічати вже за столом казино

Можна, але про маскування вмісту (клоакінг) все одно стане відомо, хоча б завдяки можливості поскаржитися на несовісні сайти. Санкцій від Google порушнику не уникнути (адже голосування з цього приводу навряд чи призначать:). З іншого боку, коли клоакінг використовують суто для вщеплення ключових фраз, відвідувач навряд чи це помітить і навряд чи поскаржиться.

Update: На що здатний BERT – новий алгоритм Google?

З впровадженням алгоритму BERT в жовтні 2021 Google почав краще розуміти фрази. Коли Берт запрацює на повну силу всіма мовами, можна буде питати в Гугла по-людськи, не упорядковуючи слова за спаданням значущості: «товар колір купити недорого регіон». До того ж система обіцяє уважніше ставитися до прийменників, заперечних часток і таке інше. Нарешті: 9 грудня 2019 BERT заговорив українською!

Висновки (оптимістичні)

Машини, як і люди, не завжди справедливі. Однак за кожне синє посилання Google ручиться репутацією, тому цілком щиро прагне забезпечити якість результату. З часом алгоритми виправляться і навчаться відсівати зерно від полови, а поки не завадить трохи їм допомогти: запропонувати зразки контенту для дослідження .

Найголовніше, аби матеріал було вчасно проіндексовано, а вже належну ціну най йому буде складено й потім. Сторінка матиме більше шансів привернути відвідувача, якщо для неї вдасться сформувати розширений сніпет – фрагмент з описом на сторінці Пошуку.

Коли користувач обере ваш сайт серед 10 інших, завітає й залишиться надовго, пошуковик швидше збагне, що ви пропонуєте щось змістовне.