Продовжимо з вами наш маленький екскурс в фільтри пошукових систем. Ми вже розглянули з вами такі фільтри google як «пісочниця» і «Supplemental Results» під які, в тій чи іншій мірі, потрапляють практично всі сайти. Але є фільтри, попадання під які загрожує значними втратами фінансів і часу на вихід з-під них, ну і на додачу це ще й психологічний розлад ? До таких фільтрів можна віднести «АГС» від яндекса, ну і Google Duplicate Content, про який і замовимо сьогодні кілька слівець. Насправді пошукові роботи Гугла використовують більше сотні різних фільтрів, більшу частину яких корпорація Гугл тримає в строгому секреті. Але це не привід для смутку, тому що нам відомі найголовніші з гугловських фільтрів, і найважливіший з них фільтр «Неунікального Контенту» або «НК!».

У зв’язку з цим погана новина наповнювати свої сайти і блоги чужими статтями, думаючи, що активне посилання під кожною з них може врятувати вас від бана. Ні, в пошуковій видачі ви зможете знайти цю статтю, особливо якщо поряд з її назвою ви поставите адресу свого сайту. Але от інші користувачі Інтернету, а їх мільйони і мільярди, ніколи не побачать її. І у всьому винен фільтр «НК!».

Як він працює? Та дуже просто – знайшовши крадений або скопійований вміст, фільтр той час позначає його значком неунікальність, після чого надходить з цією сторінкою виключно на власний розсуд, іноді показуючи її в результатах пошукових запитів, але частіше – ні.

Запозичені і крадені сторінки фільтр «НК!» оцінює за наступними параметрами:
— наскільки раніше щодо інших копій була опублікована ця сторінка;
— наскільки раніше інших проіндексована;
— як багато активних посилань веде на неї з інших сайтів і блогів;
— яка кількість відвідувачів вашого сайту читали її;
— як багато коментарів під нею залишили.

Саме виходячи з цього, вибираючи з 1000 однакових сторінок, Гугл може показати лише 5, які відповідають якого-небудь з перерахованих вище критеріїв. І найсумніше, що не завжди це сторінка першоджерело – в цій гонці часто перемагає не авторський, а більше розкручений сайт. На жаль, але у мене вже є подібний негативний досвід, коли крадені статті з моїх блогів були у видачі вище, ніж оригінал.

Всі інші, автоматично відправляються в сміття.

Як вивести сайт з-під фільтра:

Та дуже просто – очистіть свій сайт від усього, що ви зібрали в своїх подорожах по Мережі. Наповніть його новим контентом (а той же рерайт чужих статей чудово виводить сайт з-під фільтра «НК!»). А якщо ви не вмієте самостійно писати або переробляти чужі статті, то замовте їх на біржі контенту.

І останнє, пам’ятайте, що тексти, пропущені через синонимизаторы, Гугл давно навчився розпізнавати як неунікальні, а значить і відправляти під бан. Не вірите? Спробуйте розмістити кілька постів, чия унікальність була створена за допомогою підміни слів, і ви переконаєтеся, що хоч вони і пройшли індексацію, знайти їх в результатах запитів практично неможливо, а значить – пошуки тексту, його переробка і розміщення на вашому сайті були даремно витраченим часом.

Для тих, кому цікава тема сео — можете прогулятися по блогу Вадима Захарова, знайдете чимало цікавих статей.
Ну і ще один ресурс — Kazan-zakaz — Створення і просування сайтів в Казані і по всіх регіонах Російської Федерації. Можна знайти статті з відстеження нових алгоритмів пошукових систем, виведення в топ пошукових систем по ключових запитах, внутрішня оптимізація сайту і так далі.

Схожі записи

  • Google Пінгвін — аналіз вижили і вироблення протиотрути.
  • Google Penguin (Пінгвін) — алгоритм викликає безсоння, нудоту і напади панічного страху.
  • Фільтр Google для сайтів «Мінус 30» (проти спамерського просування сайту).
  • Фільтр Гугла для сайтів Supplemental Results (повна або відносна неунікальність).
  • Фільтр Google Sandbox або пісочниця для сайтів.
  • FAQ: Все про новий алгоритм Google – Hummingbird
  • Робота з Google Analytics, помилки, яких не варто допускати