5 дурних SEO-помилок, які допускають навіть професіонали

По мірі того, як комплексний інтернет-маркетинг міцно закріпився на Олімпі онлайн-просування, пошукова оптимізація дещо відійшла на задній план. Навіщо витрачати час на ключові слова, теги та посилання (всі ці технічні штуки), якщо є платна реклама, соцмережі та контент? Незважаючи на зневажливе до нього ставлення, SEO все ще грає дуже важливу роль для пошукової ефективності сайту. Компания smart-web расскажет в данной статье, что может помешать правильному продвижению вашего сайта.

Використовуючи потенціал внутрішньої і зовнішньої оптимізації, можна гарненько прокачати свій сайт (наприклад, поліпшити результати пошукової видачі, залучити більше трафіку, підвищити конверсії). Проблема в тому, що грамотне застосування SEO звучить просто лише на словах. SEO не стоїть на місці, а Google продовжує розробляти оновлення для пошукових алгоритмів одне за іншим.

Досить складно постійно залишатися в курсі подій і підтримувати свій сайт на рівні, згідно з новими пошуковими реаліями. Не дивно, що SEO професіонали постійно моніторять інформаційний простір, щоб вивудити цінні крихти інформації про майбутні зміни і оновлення. Біда в тому, що в постійній гонитві за новими фактами багато допускають елементарні помилки.

У цій статті я представляю огляд п'яти дурних, але згубних SEO-помилок, які допускають навіть професіонали. Уникайте будь-яку ціну, тому що вони можуть зруйнувати всю вашу маркетингову кампанію. Отже, поїхали!

5 SEO-помилок, яких потрібно уникати

#1 Закритий від індексації сайт .htaccess

Якщо займаєтеся SEO, тоді, найімовірніше, ви чули про .htaccess. Одним словом, це файл конфігурації, який використовується для зберігання певних директив, які блокують або надають доступ до кореневих каталогів.

Не можу в черговий раз не акцентувати увагу на важливості файлів .htaccess. Якщо ви знаєте, як ними керувати, то ви можете:

● Створити більш детальну мапу сайту
● Згенерувати більш зрозумілі і читабельний Урли
● Удосконалити кешування, щоб поліпшити час завантаження

Якщо коротше, то .htaccess – це дуже важливий інструмент для налагодження процесу індексації і, відповідно, поліпшення пошукової видачі.
Однак, потрібно бути справжнім професіоналом, щоб правильно встановити файл .htaccess. Навіть маленька помилка може привести до сумних наслідків. Наприклад, можна повністю закрити свій сайт від індексації ось таким чином:

RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*Bing.*
RewriteRule ^/dir/.*$ – [F]

Якщо ви бачите ці рядки коду в своєму файлі .htaccess, пошукові боти не зможуть переглянути і проіндексувати ваш сайт. Попросіть розробників видалити код або зробіть це самі.

Перевіряйте ваш файл .htaccess кожен раз перед запуском чергового проекту. Деякі сеошники просувають і оптимізують сайти місяцями, навіть не підозрюючи, що всі їхні спроби марні. А ви ж не хочете опинитися в їх числі.

#2 Заборона на індексацію в CMS

SEO-плагіни CMS платформ, таких як WordPress, Joomla та Drupal, можуть поставити під загрозу всю вашу оптимізацію. У них є вбудовані функції, які дають користувачам можливість задавати пошуковим системам інструкції про те, що сайт індексувати не потрібно. Все, що потрібно зробити, це зайти в розділ Налаштування – Читання – Заборонити пошуковим системам індексувати сайт. Ставите галочку напроти пункту і забороняєте пошуковим ботам індексувати сайт.

Перевіряйте цей пункт принаймні раз на тиждень. Зрештою, кожен, у кого є доступ до CMS, може помилково поставити галочку, а це безсумнівно матиме негативний ефект на вашу кампанію.

На замітку: Іноді пошукові системи можуть продовжувати індексувати ваш сайт навіть якщо ви поставили галочку. Тому, якщо ви дійсно хочете закрити сайт від індексації, то краще це зробити через файли .htaccess і robots.txt.

#3 Відкритий для індексації файл robots.txt

Гірше цього не придумати. Запам'ятайте: ніколи не залишайте свій файл robots.txt повністю відкритим для індексації, оскільки це загрожує серйозними проблемами в частині конфіденційності. Можна втратити свій сайт повністю з-за витоку інформації.

Якщо ви новачок, то витратьте деякий час на вивчення інформації про налаштуванні і управлінні файлом robots.txt. І дійте негайно, якщо побачите щось схоже:

User-Agent: *
Allow: /

Це означає, що пошукові боти можуть пройти на кожну сторінку сайту і проіндексувати її. Наприклад, проіндексувати адмінку, сторінку авторизації, кошик, а також динамічні сторінки (пошук і фільтри). Закривайте і захищайте персональні сторінки користувачів. Просісти у видачі за десятки спамний динамічних сторінок вам явно не хочеться, так?

Як би там не було, переконайтеся, що ви закрили сторінки, які повинні бути заблоковані, і відкрили ті, які повинні підлягати індексації. Звучить просто, але потрібно час, щоб навчитися цьому.

#4 Вихідні посилання без атрибуту "nofollow"

Сеошники знають, що посилання досі є важливим фактором ранжирування. На жаль, вони зосереджуються на зовнішніх посиланнях і іноді забувають, що їх сайти можуть віддавати практично весь посилальну вагу інших сайтів. Що вам потрібно, так це і залучати високоякісні зовнішні посилання, і утримувати весь вагу у себе на сайті.

Отже, ваша стратегія виглядає просто:

● Пропустіть свій сайт через сканер (Я використовую Xenu)
● Відсортуйте посилання по адресах, щоб визначити вихідні
● Створіть файл Excel з усіма вихідними посиланнями (або скачайте стандартний HTML звіт)
● Перевірте кожну посилання зі списку на наявність атрибута "nofollow", якщо в ньому є необхідність

Однак не перестарайтеся з атрибутом "nofollow". У спробах приберегти весь "сік" посилань для себе, ви провокуєте інших додати "nofollow" до посилань на ваш сайт. Словом, не зловживайте.

#5 Неперевірений в валідаторі код

Ваш сайт складається з коду, і чим краще його якість, тим краще будуть результати видачі вашого сайту. Все це тому, що стрункий і зрозумілий код дозволяє пошуковим ботам індексувати ваш сайт більш ефективно, не залишаючи поза увагою жодну сторінку.

Тому кожен раз, коли ви отримуєте новий проект під просування та оптимізацію, переконайтеся, що ви перевірили код. Для цього зовсім не потрібно бути розробником. Ви просто копіюєте URL сайту і вставляєте його в адресний рядок The W3C Markup Validation Service. А після – попросіть розробників виправити помилки. На картинці нижче зображено типовий звіт з валідатора:

Хоча Google і не карає сайти за невалідний HTML і CSS, вам все одно краще скористатися валідатором. Зрештою, це не займає багато часу, але покращує продуктивність сайту в очах користувачів і ботів.

Висновки

Пошукова оптимізація еволюціонує, і SEO-фахівцям потрібно постійно працювати, щоб встигати за останніми оновленнями тактик і алгоритмів. Добре, якщо ви постійно тримаєте руку на пульсі SEO (це обов'язково, взагалі-то), тільки не забувайте про елементарні речі. Від дурних помилок завжди більше шкоди.