Як Google ранжує сайти й на які чинники можна вплинути?
- Вхідні посилання й довіра до сайту
- Поведінкові чинники ранжування
- Авторитет домену VS якість контенту
- Як до Топ-10 Google потрапляють неякісні сайти?
На відміну від ситуації в SEO років 10 тому, платні посилання не мають магічної сили. Вони не виведуть сторінку в ТОП і можуть зашкодити ранжуванню. Google алгоритми суворіше оцінюють контент, і його патенти затверджують тенденцію.
Боти щоденно сканують сайти й постачають системам машинного навчання величезні масиви даних для аналізу. Поглинаючи інформацію, штучний інтелект вдосконалюється, і результати його діяльності щораз більше нагадують висновки людини-експерта. Перед повномасштабним впровадженням, ключові поновлення алгоритмів отримують оцінки від найнятих Гуглом рейтерів, після чого програми коригують і знову піддають тестуванню.
Щоб бути в курсі Google Core Updates та відстежувати зміни на сторінці результатів пошуку, достатньо заглядати на цю сторінку, де Google офіційно оголошує про зміни в алгоритмах ранжування.
Вхідні посилання, надійність і авторитет сайту
Кількість та якість вхідних посилань сторінки (зовнішніх і внутрішніх) + сукупний профіль сайту = чіткі сигнали вагомості сторінки для пошукових систем.
В Google за облік посилань відповідає алгоритм PageRank. З 2000 року PR-число вебсторінки можна було дізнатися просто у браузері, але потім цю можливість прибрали: оцінки провокували вебмайстрів на маніпуляції, що завдало значної шкоди чистоті Веб. Проте Google PageRank і досі живий: патент на нього переоформлено у 2017, і діятиме він аж до 2027. Але нам не варто відтворювати розрахунки: PR – один з сотень складників рангу, й окремо від інших він непридатний для прогнозу позицій.
З доменом (адресою сайту) пов’язані ще такі поняття, як рівень довіри й авторитет: вони характеризують надійність і впливовість домену, а також глибину його зв’язків з іншими поважними ресурсами. На цих абстракціях ґрунтується низка цікавих фірмових метрик (DA, TF, TTF), однак ми їх пропустимо. Тому що Гугл, обраховуючи ранг, радше спиратиметься на власні моделі й методи.
Яку роль відіграють вага (link equity, капітал) і авторитет? Вони накопичуються і розподіляються за допомогою посилань: що більш серйозні сайти посилаються на ресурс, тим вищий буде рівень довіри до нього пошукових систем. Зворотне правило теж діє: без припливу якісних посилань сайт матиме проблеми з довірою.
Для новачків це означає, що їхня головна сторінка нескоро переважить в Пошуку головні авторитетних конкурентів. Природних посилань на себе швидко не заробиш, а в інші навчені досвідом алгоритми не повірять.
Проте перший програш – ще не поразка, адже чинників ранжування більше!
Дебютанти можуть створювати контент під будь-які пошукові фрази, най попервах і низькочастотні. Якщо Гугл вважатиме, що сторінка допоможе запитувачу реалізувати намір, вона точно посяде гідне місце.
Отже, уявімо, що наша сторінка з’явилася хоча б у Топ-12 результатів регіонального Google-пошуку. А далі…
Поведінкові чинники ранжування (дії та реакція користувача)
Далі набуває сили поведінковий фактор. Що б там в різні часи не казали гуглери, вплив «неявного відгуку» користувача на ранжування підтверджується емпірично, і частково пояснюється патентами. Думаю, поведінка юзера на цільовій сторінці і в Пошуку (до й після переходу на сайт) враховується машиною модифікації рангу.
З очевидного: дії відвідувача, що повернувся в Пошук, можуть сказати системі, чи справдилися його очікування щодо сайту і чи задоволений він результатами Google загалом. Визначає це, ймовірно, алгоритм RankBrain.
Звичайно, він не читає думок, натомість аналізує контекст запиту та взаємодіяння юзера зі сторінкою результатів. Разом з відомими в SEO алгоритмами Панда, Пінгвін (антиспам) та Голуб (локальні результати), RankBrain спочатку став частиною комплексного пошукового алгоритму – Колібрі (Hummingbird). Але вже за рік, у 2016, почав обробляти більшість запитів й виділився в окрему сутність.
Ніхто не розголошуватиме перелік поведінчих чинників, що впливають на ранжування. Проте з патентів Google та інших джерел зрозуміло, що могли були впроваджені оцінки, засновані на:
- порівнянні поведінки в Пошуку з типовою схемою, що зберігається в профілі користувача (швидкість 1-го кліка, частіше вибирані позиції тощо);
- врахуванні інтересу відвідувача до тематики (з історії пошуку й переглядів);
- статистиці кліків для кожного фрагменту сторінки Пошуку (% кліків, час очікування кліку і т.ін.);
- тривалості вивчання цільової сторінки і відсотку повернень з неї в Пошук.
Приклад до п.1. Є два юзери: один зазвичай клікає на першу-другу позиції і тим задовольняється, а інший читає описи й обирає різні варіанти. Якщо юзер №2 зайде на сторінку-переможця і вже не повернеться до Пошуку, це додасть їй більше значущості, ніж якби те саме зробив менш вимогливий користувач.Ґрунтується на тезах патенту US8661029B1
Тепер щодо сайту в цілому: кілька звітів на зразок цього демонструють прямий зв’язок між рейтингом сайту і кількістю переглядів його сторінок, й обернений – між рейтингом та відсотком відмов. Результат очікуваний, проте він НЕ означає, що з кожної зв’язці є причина і наслідок.
В реальності факторів ранжування може бути більше. До речі, чи є в Гугла спосіб дізнатися про вчинки юзера поза сторінкою Пошуку? Теоретично – є: звіти власної аналітики, скрипти якої працюють на більшості сайтів, журнали Chrome браузера та/aбо розширень.
Щодо скриптів Google Analytics: я не вважаю, що наявність їх на сторінці або зібрана ними інформація впливає на ранг тієї сторінки. Однак важко було б повірити, що дані (у знеособленому виді) не використовуються для виявлення поведінкових закономірностей.
Пам’ятаймо, що відвідувач взаємодіє не тільки з контентом, а і з інтерфейсом сайту: якщо щось пригальмовує, реакцію гостя спрогнозувати неважко. Гуглбот теж не любить чекати на завантаження ресурсів, тому: продуктивність сайту і його оптимізація для мобільних – необхідні умови виживання в мережі.
Підсумовуємо: ані «вага посилань», ані «сік посилань» суттєво не допоможуть сторінці, яка не здатна затримати відвідувача. З іншого боку, корисні матеріали можуть отримати невеличку фору і час від часу з’являтись в Пошуку на помітних позиціях.
Що важливіше: авторитет домену чи якість вмісту сайту?
Відповідь залежить від частотності запиту, конкуренції в ніші, локалі, наміру користувача та… хто знає від чого ще. Зрозуміло, всі хочуть бачити цифри. Тому я назву їх умовно, але з цим, щонайменше, можна сперечатися.
Для висококонкурентних комерційних запитів («купити смартфон», «seo оптимізація») співвідношення таке:
- 30% успіху забезпечує авторитет домену;
- 20% – посилання сторінки та текст якорів;
- 20% – релевантність вмісту, мікророзмітка, географічна близькість компанії до юзера;
- 20% – HTTPS, швидкість і зручність сайту, в т.ч. на мобільних;
- 10% – явна та неявна оцінка від користувача (явна – письмовий відгук, згадка про бренд на форумі; неявна – взаємодіяння з ресурсом і поведінка в Пошуку).
Чому на якість самого сайту відведено лише 20%? Тому що компанії з продажу консалт-послуг чи ґаджетів за цим показником мало відрізняються. Але в інших онлайн-нішах відсоток може бути більшим.
Схвалення від користувача теж не головне: відвідувача треба спершу привести з Пошуку, що через конкуренцію непросто. Аудиторія, що прийде напряму або за посиланням, навряд чи вплине на результат.
Натомість коли йдеться про запити з довгим хвостом («виховати цуценя чемним собакою», «щось оригінальне виразистого такого кольору», сторінка без жодного зовнішнього посилання може піднятися до Топ-3 завдяки тематичному влучанню «в яблучко» Додаткових умов дві: щоби домен не був новим і в його профілі знайшлося хоч щось вартісне. Тоді й №1 досяжний, якщо не пошкодуєте часу на роботу з ключовими словами, додасте кунштиків і почекаєте пару місяців, поки результат стабілізується.
В профілі домену… порожньо? Тоді на додачу до основного можна «виховати ведмедя» чи «зібрати смартфон з калькулятора та кишенькового дзеркальця», аби лише воно вкладалося в тематику. Коли сайт виросте з пісочниці, до якої пошукові алгоритми трохи упереджені, буде легше опановувати й поширені інформаційні запити.
Ще з обнадійливого. Картки продуктів інтернет-магазину реально вивести в Топ без зовнішніх посилань і попри авторитет конкурентів, якщо:
- Опис не повністю скопійований у виробника і містить важливу для клієнта інформацію: фото/відео, порівняння, особливості, умови гарантії тощо.
- Товар є у продажу за фіксованою ціною, і на його сторінці впроваджено розмітку Product з Offer відповідно до Schema.org.
- Є відгуки від користувачів. Якщо нема, варто стимулювати покупця оцінити товар, але це не критично, коли не йдеться про мейкап і ґаджети.
- Сторінки продуктів оптимально перелінковані між собою і доступні з категорії за 1-2 кліки (ботам – також).
- Магазин давно працює онлайн і з зовнішніх відгуків зрозуміло, що він не фіктивний і дійсно-таки продає.
Найскладніше у ранжуванні доводиться сторінкам-хабам, як от товарні категорії чи homepage блогу. Самі вони не здатні задовольнити потребу користувача, їхня місія – спрямувати на відповідну сторінку. Без зовнішніх посилань та підтримки авторитетного домену вони швидко розтратять капітал і будуть неспроможні втримувати позиції.
Про якість контенту
Добре. Ви вірите у власні сили й вирішили підкорювати Олімп якістю контенту. Підтримую. Втім, є нюанси. Щоб попередити розбіжності з Google щодо якості, не зашкодить переглянути методичку для оцінювачів (en), статтю Гугл про апдейти (en) або переклад її ключового фрагмента. В ньому в формі питань до себе викладено основи E-A-T концепції.
Про E-A-T десятьма словами: написати – замало, автор мав би наперед уславитися як експерт з тематики. В першу чергу це стосується сайтів, що діють за принципом YMYL – «гаманець або життя».
Легко впізнати серед них інтернет-ресурси, що продають медичні послуги: їм слід знати, що після медапдейту 08.2018 компетентність автора контенту стала головним чинником ранжування. Статті про здоров’я, не підкріплені авторитетом автора чи рецензента, прогрАють позиції фаховим публікаціям.
Це й зрозуміло: пошукова машина не має кваліфікації для перевірки правдивості нової інформації. Щоб не підвести людей на лихо, Google вивіряє відомості про автора з метою підтвердити наявність професійного досвіду. Втім, достовірність і точність інформації все ж важливі. В усякому разі пошуковик зіставить повідомлення з фактами своєї бази знань: якщо невідповідностей буде багато, і пояснень цьому не знайдеться, якість контенту буде визнана сумнівною.
Мабуть, читач помітив, що серед показників якості вмісту не згадано відсоток унікальності й густоту ключових слів (широко відому як щільність ключових слів ). — Так, про них варто було б забути багато років тому. Якщо сторінка містить плагіат або спам, автору це відомо. В інших випадках не варто згущувати ключові слова чи підтягувати унікальність всупереч здоровому глузду. Краще перевірити, чи все найважливіше сказано.
Чому в Топ-10 трапляються сайти невисокої проби
Якщо пошукові системи об’єктивні, як до результатів пошуку потрапляють заштатні ресурси, і за якими правилами з ними можна змагатись за місце в десятці?
Результати пошуку Google бувають недосконалими, якщо системі не вдалося звести новий запит до більш поширеного або вона просто не має достатньо об’єктивних даних для навчання. Можливо, тематика невиразно представлена в Інеті, або в галузі панує бажання миттєво заробити, що провокує просідання стандартів. І хоч окремі сайти можуть пропонувати корисні матеріали, не факт, що вони будуть показані на перших позиціях.
Несправедливо, однак закономірно. Штучний Інтелект ще не напрацював інтуїцію, яка підказала б йому, де добре, а де погане. І діє за якимсь безідейним планом B, уразливим до маніпуляцій.
Ось рецепт, який і досі допомагає декому обмахорити пошукові алгоритми. Застосовний до нечастих, і тому незрозумілих системі запитів.
- Створити акуратну непоказну сторінку.
- Добрати заголовки кількох рівнів, які б нормально сприймалися людиною.
- Нафарширувати розділи фрагментами релевантного контенту, що містять споріднені й уточнювальні фрази.
- Тексту хай буде більше, хоча б на три екрани ПК.
Формально текст відповідний до запиту, і легковірний юзер буде скролити, прагнучи врозуміти, як та маячня має вирішити його проблему. Вийде чи ні, але часу на сторінці буде проведено достатньо.
Років 5-10 тому ще можна було запроторити оптимізований псевдотекст у підвал сайту, але потім алгоритми порозумнішали й припинили цінити те, що складно побачити.
То задля чого люди займаються шахрайством? Щоб заробити рекламою або – найчастіше – спрямувати трафік на інший сайт. Класичні дорвеї, які переспрямовують одразу, майже віджили своє, але поодинокі екземпляри ще можна зустріти:
Зрештою, шкоди від цього немає, адже перспективи ранжування дорвеїв незмінно прямують до нуля.
Добре те, що гуглботи вже вивчили JavaScript і зазвичай передбачають редирект (програмну підміну URL). Тому тепер шахраї прагнуть замаскувати переспрямування під добровільний вибір юзера, щось на кшталт:
Зрозуміло, краще втриматися і нічого на підозрілих сайтах не натискати. Та й взагалі краще не заходити, бо можна випадково клікнути прозоре посилання або дочекатися проґавленого ботами редиректу.
Нащо потрібні ті виверти з заміною адрес? Чи не можна мати на сайті 2 версії сторінки: ботам показувати текст, вартий місця в Топ-10 Пошуку, а людей, що прибуватимуть звідти, зустрічати вже за столом казино
Можна, але про маскування вмісту (клоакінг) все одно стане відомо, хоча б завдяки можливості поскаржитися на несовісні сайти. Санкцій від Google порушнику не уникнути (адже голосування з цього приводу навряд чи призначать:). З іншого боку, коли клоакінг використовують суто для вщеплення ключових фраз, відвідувач навряд чи це помітить і навряд чи поскаржиться.
Update: На що здатний BERT – новий алгоритм Google?
З впровадженням алгоритму BERT в жовтні 2021 Google почав краще розуміти фрази. Коли Берт запрацює на повну силу всіма мовами, можна буде питати в Гугла по-людськи, не упорядковуючи слова за спаданням значущості: «товар колір купити недорого регіон». До того ж система обіцяє уважніше ставитися до прийменників, заперечних часток і таке інше. Нарешті: 9 грудня 2019 BERT заговорив українською!
Висновки (оптимістичні)
Машини, як і люди, не завжди справедливі. Однак за кожне синє посилання Google ручиться репутацією, тому цілком щиро прагне забезпечити якість результату. З часом алгоритми виправляться і навчаться відсівати зерно від полови, а поки не завадить трохи їм допомогти: запропонувати зразки контенту для дослідження .
Найголовніше, аби матеріал було вчасно проіндексовано, а вже належну ціну най йому буде складено й потім. Сторінка матиме більше шансів привернути відвідувача, якщо для неї вдасться сформувати розширений сніпет – фрагмент з описом на сторінці Пошуку.
Коли користувач обере ваш сайт серед 10 інших, завітає й залишиться надовго, пошуковик швидше збагне, що ви пропонуєте щось змістовне.