Всупереч розповсюдженій думці, SEO – це не тільки робота з копірайтерами та побудова масиву вхідних посилань. Першочергове завдання цієї дисципліни – діагностика здоров'я сайту в цілому, і її можна провести самостійно!

Виконати технічний SEO аудит сайту самостійно!

Первинний технічний аудит сайту полягає у перевірці того, що:

  1. Всі корисні сторінки відкриті для доступу пошукових систем, а допоміжні – навпаки, закриті.
  2. Пошуковий робот отримує все необхідне для відображення сторінки (стилі, скрипти), і достатньо швидко.
  3. Сайтом легко користуватися з мобільного, плюс він адаптований для скрінрідера.
  4. Зі структури сайту зрозуміло, які сторінки найважливіші і як із ними пов'язані всі інші.
  5. Кожна сторінка, включно з пагінацією, має правильно заповнені тайтл, метатеги й канонічне посилання.
  6. В текстах та навігації немає посилань на сторінки, що не існують (т.зв. биті посилання, або помилка 404).
  7. URL-адреси не є абракадаброю: людина здатна їх прочитати, а може і запам'ятати.
  8. Сторінки мають небагато спільного контенту. Або всі «двійники» посилаються на спільний canonical.
  9. Жоден елемент, з яким можна взаємодіяти (фільтр, сортування) не генерує дублів сторінок з різними URL.
  10. Пошукова система зможе з'ясувати призначення кожної кнопки й прочитати, що зображено на кожній ілюстрації з сайту.

Звісно, це лише основа SEO аналізу. Якщо сайт створювався з думкою про пошукові системи, пункти з наведеного переліку мають виконуватись автоматично. Однак не всі розробники, а тим паче онлайн-конструктори сайтів замислюються про це. Тому без технічного SEO не обійтись.

Вирішили обійтись, занадто багато справ? Перевірте сайт хоча б на Siteliner: це безплатно, в один клік. Принаймні будете впевнені, що битих посилань немає. Буде вільний час – повертайтеся, все зробимо як слід!

Насправді брудну роботу роблять спеціальні програми – краулери. Завдання SEO-аудитора в тому, щоб система­тизувати помилки на сайті й порадити розробникам, як виправити їх так, щоб сайт став більш зрозумілим для пошукових систем. Про краулери буде далі, а поки скажу, що для невеликих сайтів буде корисною безпосередня перевірка Google SERP (пошукової видачі).

SEO-аналіз сайту за допомогою Google

Якщо маєте невеликий сайт і аналогічний бюджет на його підтримку, з аудитом можна впоратись голіруч. У рядок Google пошуку вбийте запит site:ваш-сайт і придивіться до результатів.

Google Search on site:wikipedia.org

  • Чи всі ваші важливі сторінки є в Google?
  • Чи немає в стрічці однакових заголовків? Принципово, щоб title і description сторінки були унікальними.
  • Чи не потрапили до індексу сторінки з приватною інформацією (база клієнтів, замовлень тощо)? Якщо так, треба терміново подати запит на вилучення URL, запаролити доступ та заборонити індексування.
Рядки над синіми заголовками насправді не є URL-адресами: вони формуються з breadcrumbs (більше про хлібні крихти в цьому пості). Щоб побачити повний URL, просто наведіть мишку на синє посилання в видачі.

Зверніть увагу на ті перші рядки сніпетів, на ілюстрації їх підкреслено зеленим.

  • Чи немає серед них адрес з www і без www? Важливо, щоб на сайті був дотриманий єдиний принцип: або всі сторінки починаються з www, або жодна.
  • Аналогічно з https: і  http:. Якщо наявні обидва протоколи, це ознака того, що сайт не повністю «переїхав» на HTTPS і треба уважно слідкувати за розвитком подій.
  • Чи немає в адресах фрагментів, які починаються зі знаку «?», містять «=» і ще якусь нісенітницю, подібну до «?v=19243242.twr&rt=AA&s=price». Навіть якщо є, це поки не шкідливо – просто негарно.

А от коли знайдете дві різні адреси, побудовані за схемами

ваш-сайт/.../?x=cat & y=dog   і   ваш-сайт/.../?y=dog & x=cat ,

відкрийте кожну зі сторінок. Вони однакові? – Це класичний приклад дубльованого контенту. Зверніться до того, хто сайт робив, з вимогою перенастроїти формування URL, а також «склеїти» проіндексовані дублі 301 редиректом.

Ось букмарклет inURL search: я користуюсь ним, щоб отримати в Ґугл перелік урлів з параметрами («?search=») або помилково проіндексовані технічні сторінки сайту («/admin/»). Перетягніть скрипт на панель закладок браузера і запустіть з довільної сторінки на домені google.com. Відкриється таке віконце.

bookmarklet UI for inurl: search

Задайте фрагмент чи одразу кілька для пошуку: скрипт обійде результати, а знайдені URL запише в textarea, звідки їх зручно копіювати. Ось приклад сайту, який не закрив сортування від індексації.

Indexed sorting pages

Звичайно, якщо ви власник сайту, який аналізуєте в Пошуку, Google запропонує вам спробувати Search Console. До консолі вебмайстра обов'язково треба навідуватись, щоб розуміти, як пошуковик індексує сторінки, чи бачить на них розмітку Schema.org і т.п. Про проблеми на сайті консоль поінформує вебмастера по email (на жаль, запізно). Ще дуже раджу створити аккаунт в Bing Webmaster tools.

Життєво важливі показники. Перфоманс сайту

Наповнення сайту й актуальність інформації – завжди №1. Однак, якщо сайт працює повільно, вибороти високі позиції в Пошуку буде непросто. Адже ще у 2021-му Ґугл заявив, що Core Web Vitals (завантаження, інтерактивність, стабільність макета) стають фактором ранжування.

Вкрай важливо перевірити performance (продукційність) головної та типових сторінок сайту: категорії, продукту і т.ін. Pagespeed Insights – вдумливий оцінювач: він не лише виявить проблеми, а й підкаже шляхи усунення. Для прикладу – невтішні показники сайту mon.gov.ua.

Pagespeed insights for mon.gov.ua

Жорстко. Втім, хоч на скріні й не побачиш, червоні трикутнички розгортають корисні підказки з оптимізації.

На додачу до перфоманса не завадить перевірити якість коду, доступність сайту для зчитувачів екрана та SEO рівня сторінки: Web.dev зробить це автоматично, а ви отримаєте наочний результат. Update! В Google вирішили закрити цей сервіс, повністю перенісши функціонал на Pagespeed Insights (посилання вище).

Наступний крок – переконатися, що сайт оптимізовано для мобільних. Ось відповідний інструмент від Google: Mobile-friendly Test покаже сторінку такою, якою її бачить ґуглбот для смартфонів.

А це інший корисний сервіс, що дає поради з оптимізації коду: Yellowlab Tools. Для тестування можна обрати режими Десктоп, HD, Смартфон і Планшет. Інструмент оцінює лише найважливіше і видає структурований звіт. Для прикладу – оцінка того ж сайту МОН. Нижче скріншот, а інтерактивний результат тут.

Yellowlab audit for mon.gov.ua

Оцінка низька не через вагу сторінки: в звіті вказано, що завантажуються дві jQuery...

Букмарклети для відправки сторінок на тестування «з льоту»: Pagespeed * Mobile * Yellowlab. Додайте в закладки й натискайте зі сторінки, яку треба перевірити.

Якщо результати аудиту вашого сайту неоптимістичні, доведеться звертатись з рекламацією до розробника або шукати серед знайомих експерта з HTML-JS-CSS.

Корисно ще виміряти затримку відповіді сервера, провести паралельне завантаження сторінок і т.п. – це тут, на Webpagetest. Не хочете занадто занурюватись? Тоді на Pingdom: він видасть просту і зрозумілу відповідь.

Хай там як, провальні тести не означатимуть кінець всьому. Поки що сайти можуть ранжуватись, користуючись з посилань та якісного контенту, але далі буде складніше. Тож, бажано виправити вади сайту якнайшвидше!

Free Web Crawlers, або Обираємо черв'ячка на сайт задарма

Тут будуть не лише безплатні, але й free trial краулери, якими можна користуватися задарма обмежений період. Серед них ви оберете SEO софт, з яким протестуєте сайт не гірше за профі. Складність буде в тому, як той звіт інтерпретувати та як виправити помилки, нічому не зашкодивши.

Перед тим, як відкрити будь-яку програму, пригадайте, будь ласка, термінологію. Най-найнеобхідніший мінімум:

  • canonical – основна версія сторінки, вказується в href лінку з атрибутом rel="canonical";
  • redirect – переспрямування на інший URL, може бути постійним 301 або тимчасовим 302;
  • robots.txt – файл, в якому можна заборонити одному або кільком ботам доступ до сторінок, файлів чи директорій на сайті;
  • noindex – директива, яка вимагає вилучити дану сторінку з індексу.
  • sitemap.xml – карта сайту з переліком індексованих сторінок; зазвичай знаходиться в кореневому каталозі.
  • hreflang – атрибут link, специфікує мову та географічне таргетування даної сторінки.

Тепер можна обирати софт. Розрізняють хмарні (cloud-based) і десктопні вебкраулери. Щоб побачити сайт таким, як його бачить Ґугл, або щоб уникнути блокування, кожен краулер може вдати з себе Googlebot'а, підробивши значення User Agent. Але це можна викрити додатковою перевіркою.

Хмарні краулери

Незамінні для великих сайтів з сотнями тисяч сторінок. Як розумієте, краулінг в такому масштабі безплатно ніхто не забезпечить.

Best free-trial cloud-based crawlers

Втім, Teracrawler дозволить вам задарма перевірити до 10 тисяч URL, а Oncrawl запропонує пробний 14-денний доступ до платформи. Окремо відмічу український хмарний краулер Sitechecker: простий в налаштуванні, позиціює себе як найкращий вибір для онлайн комерції, але пробний період лише 7 днів.

Десктопні краулери (спайдери)

Годящий варіант, але краулінг буде обмежений можливостями машини, на яку встановлено програму. Назву трьох виробників SEO софту, беззаперечно вартих вашої уваги.

Best free-trial desktop crawlers

  • Аудитор Sitebulb: йому немає рівних у класифікації помилок, поясненні можливих причин їх виникнення і потенційної шкоди. Він знайде приховані вади сайту, намалює граф-карту, все розкладе по полицях і пояснить англійською. Власники пропонують двотижневий trial без прив'язки карти.

Недолік для неспеціаліста: звіт Sitebulb надасть стільки інформації, що без практики в ній можна загубитись. Якщо боїтеся, раджу почати з іншої програми.

  • Спайдери Screaming Frog та Netpeak Spider мають багато спільного. Перший старший і ширше розповсюджений; другий створено на заміну лідеру: він сучасний (український:) та, можливо, краще адаптований для деяких задач. Для найпростішого SEO аналізу відмінності між програмами неважливі.

Обидва інструменти потребують гідної оплати. Але Netpeak пропонує 14-денний trial, натомість Screaming Frog надає безкоштовну обмежену версію, яка перевіряє не більше 500 сторінок з одного домену.

Думаю, ця трійця сервісів здатна на 99.9% закрити проблему SEO-техогляду для будь-якого сайту, навіть повністю побудованого з JavaScript.

On-page SEO: перевіряємо сторінки «на лету» букмарклетами

Тож, що маємо результати краулінгу і хочемо вручну перевірити проблемні сторінки. Прихильники швидких рішень запросять в Ґугл «check on-page seo online», чи щось таке.

Втім, якщо попередні етапи аналізу пройдено, я не рекомендую шукати додаткові сервіси. До звітів від краулерів та валідаторів якості коду суттєво додати нічого. Проте On-page SEO валідатори, вірогідно, знайдуть «вади» і порадять додати 5 слів до першого абзацу і таке інше. От тільки це вже терени суб'єктивізму, а не технічне SEO.

1. Про вимоги до тайтлу, дескріпшену і ключових слів є в пості про сніпети. А тут пропоную букмарклет, який покаже Title+meta-tags+canonical поточної сторінки. Перетягніть до панелі закладок і користуйтеся.

Якщо канонікал не збігається з поточним URL, значить, поточна сторінка рекомендує пошуковику ранжувати замість себе іншу – канонічну. Це має бути свідомий вибір! Спрацює лише для сторінок зі схожим контентом та спільним призначенням. Якщо збираєтеся за допомогою canonical розв'язати проблему пагінації в індексі, краще поглянути на статтю за посиланням.

2. Наступний крок – передивитись посилання сторінки: ось букмарклет All-page-links. Він відкриє вікно зі списком всіх посилань, включно зі значковими: для них замість анкора буде залучено текст з атрибутів title або aria-label.

Якщо на сайті є кнопки без тексту, але з іконкою, вони мають бути accessible – доступними для тих, хто іконку не бачить. Тобто, елемент кнопки має містити спеціальні атрибути з інформацією для програм-зчитувачів.

3. Не завадить придивитись до заголовків та виділеного тексту на сторінці. Приміром, якщо є <h1>,<h3>, але немає <h2> – це недобре. Заголовками користуються лише для структурування! Ні в якому разі не можна задіювати <h3>, коли просто хочете мати великий шрифт. З курсивом та жирним також є тонкощі.

Теги <strong> та <em> є семантичним, смисловими, а їхні двійники <b> та <i> – декоративними. Виділений ними текст виглядає однаково: жирний /b, strong/ або курсив /i, em/, але для пошуковика різниця є.

Пропоную букмарклет H1-h6, strong, b, em, який розфарбує підзаголовки, а також семантичні і звичайні виділення на сторінці. Придивіться: може, десь <b> доцільно замінити на <strong>, чи навпаки?

4. Треба перевірити, чи всі ілюстрації мають заповнені альт-атрибути. Тримайте закладку: Alt text for images. Цей скрипт замінить фото та малюнки їхніми описами з альтів або попередить, що альтернативного тексту не існує.

Пошукові машини розпізнають зображення, але поки не ідеально. До того ж у відвідувача сайту фото може не завантажитись: як тоді дізнатись, що на ньому було? Для цього картинка повинна мати альт-текст, наприклад: alt="Людина поспішає застосувати відомості про технічне SEO".

Нюансів безліч, але... Думаю, план власноручного технічного аудиту сайту виконано. Якщо вважаєте, що тут чогось не вистачає, пишіть коментар: доповнимо цей гід разом!

Титульне зображення посту згенеровано Dall-E2 від OpenAI.