Оформити заявку

«Чорне SEO» в поточних реаліях: напад і захист.

«Чорне SEO» в поточних реаліях: напад і захист. - Фото 1
20/11/2013
admin

Буквально кілька місяців тому корпорація Google ввела в експлуатацію новий пошуковий алгоритм, який отримав яскраву назву «Колібрі». В результаті нововведень багато веб-ресурси, які були оптимізовані під роботу попередників «Колібрі» – «Пінгвіна» і «Панду» – зазнали суттєвих втрат трафіку, причому не тільки з пошукової системи Google, але і з деяких, на перший погляд, більш лояльних систем. Що ж сталося?

Перш за все, хотілося б акцентувати увагу на тому, що вимоги до якості контенту істотно зросли. Всі нові пошукові алгоритми спрямовані на видачу більш якісних пропозицій за запитами.

Простіше кажучи, так зване «чорне SEO» найближчим часом, на думку фахівців, зживе себе як явище. Сьогодні сайти, які пропонують контент низької якості, «напханий» ключовими словами і рясніє, м’яко кажучи, дивними посиланнями, в кращому випадку назавжди оселяться «на задвірках» пошукової видачі, в гіршому – отримають цілком заслужений «бан».

Головна вимога сучасних пошукових алгоритмів – релевантність і високу якість контенту!

А про те, як не стати «чорним сеошник» і домогтися просування «по-білому», мова піде нижче.

Отже, почнемо з самого початку, так би мовити, з джерел виникнення «чорного SEO».
Нелегітимні методи оптимізації веб-ресурсів з’явилися з тих пір, як почали функціонувати перші пошукові системи. Фахівці з просування, зрозумівши технічну сторону роботи пошукового алгоритму, тут же знайшли різні заборонені методи (а треба відзначити, будь-які способи впливу на пошукову систему, є забороненими), які дозволили штучно впливати на пошукову видачу.

З тих самих пір і почалася «війна» між «чорними СЕОшнікаі» і розробниками пошукових алгоритмів.

А оскільки, «на війні всі засоби хороші», то розробники застосовували і ускладнення пошукових алгоритмів, і різні санкції, аж до повного видалення «негідного» ресурсу, але «чорні СЕО-фахівці» теж не відставали, вигадуючи все більш витончені методи впливу на пошукову видачу. І це все було до недавнього часу.

Сьогодні «чорна оптимізація» почала зворотний відлік і час її існування вже обчислюється не місяцями, а тижнями. Справа в тому, що сучасні пошукові системи навчилися фіксувати будь-який вплив на їх функціонування, і навіть те, що ще сьогодні працює на благо сайту, завтра обов’язково завдасть йому непоправної шкоди.

Ось кілька перевірених способів, які обов’язково «потоплять» інтернет-проект:
1. «Перенасичення» ключовими словами, на мові пошукових систем «СПАМ».
Це один з найбільш поширених і улюблених багатьма фахівцями з просування сайтів метод. Раніше його вплив на пошукову видачу було складно переоцінити, і хороший фахівець міг за короткий час тільки завдяки цьому простому методу вивести ресурс в ТОП 10.

Але це було раніше, коли пошуковики приділяли значну увагу виключно релевантності сторінок запитом, введеному в пошукове поле. Сьогодні така «переоптімізацію» нічого доброго не принесе.

Щоб не перетворити свій веб-ресурс в сховище спаму, слід уникати наступного:

– високого відсотка ключових слів в текстах статей;

– використання великої кількості заголовків, в яких є ключові слова;

– використання тегів для виділення ключових слів;

– уникати «гри в хованки» з текстом і посиланнями. Наприклад, для того, щоб від читача приховати непотрібний текст або посилання, їх роблять одного кольору з основним фоном сторінки або істотно зменшують розмір тексту, застосовують в посиланнях малопомітні символи і так далі.

2. Реєстрація в максимальній кількості каталогів.
Очевидно, що саму по собі реєстрацію в каталогах ніхто заборонити не зможе, але величезна кількість посилань з різних каталогів, або, так званий «прогін», пошукові системи ідентифікують, як спробу штучно впливати на видачу.

В результаті посилання не дадуть ніяких результатів.

3. Продаж посилань.
Більшість блогерів знає, що саме продаж посилань є одним з найбільш поширених способів заробити на власному блозі.

Як правило, веб-майстри торгують нетематичними посиланнями, розташованими на сторінках, які знаходяться в прихованих розділах, і на головній сторінці не анонсуються.

4. Застосування сервісів і систем, які автоматично просувають інтернет-ресурс.
Діяльність таких систем, як, наприклад, Sape, легко розпізнається пошуковими системами, не варто їх застосовувати.

5. Застосування JavaScript редиректів.
Не слід використовувати перенаправлення відвідувачів на сторінки, які істотно відрізняються від тих, які вони вже бачать.

Дарт Вейдер, книга, чорне сео

6. Плагіат або використання на своєму веб-ресурсі чужого контенту.
Це один з найбільш поширених методів, але захистити себе від крадіжки можна і потрібно, використовуючи методи запобігають копіювання контенту. Хоча, при цьому, і самим не варто використовувати чуже.

Все эти методы в той или иной степени попадают под санкции поисковых систем, но, как утверждают разработчики, в скором будущем они будут караться более жестко. Так что, наверное, стоит от них отказаться уже сегодня.

Конечно, иногда запрещенные методы используются специалистами по продвижению сайтов не умышленно, а в результате допущенных ошибок.
Вот некоторые наиболее часто встречаемые ошибки СЕО-оптимизации:

1. Дублирование текстов.

Под дублированием контента следует подразумевать наличие двух и более страниц, содержащих одинаковый текст. Другими словами, страницы с разными «урлами», имеющие одинаковое наполнение, необходимо защищать от индексации, например, с помощью такого файла, как Robots.txt.

2. Неумышленное «перенасыщение» текста ключевыми словами.

Данная ошибка возможна при создании текстов, поэтому очень важно со всей осторожностью и ответственностью относиться к написанию контента.

Чтобы избежать «переоптимизации», лучше придерживаться следующего алгоритма написания:

  • 1 ключевая фраза в заголовке;
  • 1 в описаниии;
  • 2-3 употребления в тексте, то есть прямое вхождение, и пару раз в измененном виде.

При этом не следует слишком доверять SEO-плагинам, так как большинство из них сильно устарели и могут только испортить текст.

3. Слишком много исходящих ссылок.

Эта ошибка типична для «молодых» сайтов. Как правило, на новых сайтах разработчики очень часто для удобства в использовании помещают большое количество различных форм подписки, счетчиков, кнопок с социальными закладками и прочим. С одной стороны, такой сайт удобен для пользователей, так как все предусмотрено, с другой – поисковые системы, могут неверно интерпретировать такое «нагромождение» ссылок. Поэтому лучше придерживаться «золотой середины» и не переусердствовать.

Кроме этого, поисковыми системами могут расцениваться как «черное SEO» и такие моменты, как:

– наличие ссылок с одинаковыми анкорами;

– наличие вирусов на веб-ресурсе;

– наличие битых ссылок и так далее.

Учитывая вышеперечисленные нюансы, сам собой напрашивается вывод, что «угодить» современным поисковым алгоритмам практически невозможно. Но к счастью, все не так уж и плохо.

Главная особенность новых алгоритмов заключается в том, что их функционирование направлено на улучшение качества интернет-ресурсов, а также повышении удобства в использовании этих самых ресурсов. Поэтому если действовать с поисковиками заодно, улучшать качество контента, делать сайт более интересным и привлекательным для посетителей, то, вполне очевидно, оптимизировать сайт будет не только возможно, но даже в какой-то степени интересно.

Итак, что сегодня входит в понятие «белое SEO»:

– наполнение страниц веб-ресурса новыми интересными и познавательными статьями;

– улучшение внутренней перелинковки страниц ресурса;

– улучшение и упрощение поведенческих факторов.

Конечно, при всем при этом, никто не отменял подбор ключевых слов и фраз для повышения релевантности текста. Только делать это надо аккуратно и в разумных рамках. Ссылки иногда тоже можно покупать, только опять-таки, делать это правильно.

Например, при покупке ссылок, выдвигать обязательное условие, чтобы заголовок и текст статьи совпадал с текстом и заголовком, на который ведет ссылка. Проще говоря, создавать естественные ссылки, которые не могут быть подвержены фильтрации.

Несмотря на то, что требования поисковых алгоритмов к качеству контента ужесточились и сегодня уже те методы оптимизации, которые еще вчера считались традиционными, остались за рамками «белого SEO», специалисты по продвижению сайтов без работы точно не останутся.

Конечно, придется учиться чему-то новому, модернизировать старые навыки, повышать качество работы, одним словом,  продолжать «эволюционировать».

Но мы уже пережили «Пингвина» и «Панду», так что и «Колибри» тоже переживем)