SEO аудит сайта. Чек-лист компании Seomarket
Масса компаний интернет-продвижения делает огромные чек-листы, пишет аудиты, выдавая сотни страниц формата А4, половину из которых занимает вода либо рекомендации, внедрение которых занимают огромное количество человеко-часов работы программиста (а, следовательно, и денег), но в результате не приносят ничего. Владельцам сайтов стоит знать: качественный технический SEO аудит — это не список проблем сайта, сделанный по шаблону, и не дающий ничего, кроме зеленых огоньков сервисов валидаций. SEO аудит сайта — это анализ всех ошибок и областей сайта с утерянным потенциалом, список рекомендаций для владельца и технических заданий для программиста, внедрив которые сайт начинает получать больше трафика и улучшения видимости в поисковиках по целевым ключевым запросам. В этой статье мы раскроем все карты, покажем чек-листы, объясним, что мы делаем и зачем. Время прочтения – около 10-ти минут, но следует дочитать до конца, там Вас будут ждать несколько сюрпризов! Итак, начнем.
Чек-лист аудита компании Seomarket:
- Защищенный протокол
- ЧПУ УРЛ адреса
- Сканирование сайта для проверки ответов сервера
- Технические дубли
- Протокол Open Graph
- Дубли в тегах и мета тегах
- Robots.txt
- Sitemap.xml
- Проверка кода сайта
- Структура сайта
- Корректность использования <h1> — <h6>
- Mobile-friendly
- AMP и Турбо Страницы
- Микроданные Schema.org (Микроразметка)
- Протокол Open Graph
- Проверка скорости загрузки всех типовых страниц
- Анализ поисковой выдачи
- Анализ поисковой выдачи по сайту
- Анализ наличия бесполезных для пользователей пустых страниц
- Анализ GWT, Яндекс Вебмастер
- Проверка тегов, мета тегов, текстов на заспамленность
- Перелинковка
- Проверка корректности цепочки «хлебных крошек»
- Проверка наличия трафикогенерирующих слов на страницах сайта
- Генерация title, description, h1
- Проверка наличия санкций от поисковых систем
- Мультиязычность и мультирегиональность
- Оптимизация картинок
- Попадание в блок быстрых ответов
- Проверка на аффилиаты
- Рекомендации по переезду/выкатке сайта
- Другие ошибки
- Разработка нового сайта
1) Защищенный протокол
Cправка Google относительно использования https-версии:
Google борется за безопасное пользование сайтами для пользователей, потому даже сами представители поисковика утверждают, что защищенный протокол дает небольшое преимущество при ранжировании в позициях сайта. Порядок действий – несложный: покупаете SSL-сертификат на хостинге и устанавливаете на сервере. Важно выбрать правильный сертификат в зависимости от целей (будут ли поддомены или несколько доменов, например). Итогом будет такое уведомление:
После внедрения стоит изменить всю перелинковку на сайте (ведь у нас теперь новый адрес), исправить вложения медиа-контента, подключения внешних скриптов, настроить 301 редиректы со старых страниц на новые и настроить правильный robots.txt и sitemap.xml. Все вышеперечисленное мы детально описываем в нашем поисковом аудите.
2) ЧПУ УРЛ адреса
При генерации страниц важно использовать правильные УРЛ-адреса (человекопонятные). Примеры неправильного:
- site.com.ua/news/2015/10/08/id1235213
- site.com.ua/news/2015/10/08/турция_модернизирует_ж/д_магистраль_между_стамбулом_и_границей_с_болгарией_1235213
Пример правильного:
- site.com.ua/news/2018/11/02/turtsiya-moderniziruet-zh-d-magistral-mezhdu-stambulom-i-granitsey-s-bolgariey
Как видим, неправильно — это когда, смотря на ссылку, пользователь не может понять, что он увидит, перейдя на нее. Также не рекомендуется использовать нижнее подчеркивание или кириллицу, так как нижнее подчеркивание для Google, по сути, объединяет все слова в УРЛе в единое, нечитабельное, и вес вхождений ключевых слов в УРЛ не будет учитываться, а кириллица при копировании ссылки и размещении где-либо имеет вот такой вид:
site.com.ua/news/2015/10/08/%D1%82%D1%83%D1%80%D1%86%D0%B8%D1%8F_%D0%BC%D0 %BE%D0%B4%D0%B5%D1%80%D0%BD%D0%B8%D0%B7%D0%B8%D1%80%D1%83%D0%B5%D 1%82_%D0%B6/%D0%B4_%D0%BC%D0%B0%D0%B3%D0%B8%D1%81%D1%82%D1%80%D0%B0 %D0%BB%D1%8C_%D0%BC%D0%B5%D0%B6%D0%B4%D1%83_%D1%81%D1%82%D0%B0%D0% BC%D0%B1%D1%83%D0%BB%D0%BE%D0%BC_%D0%B8_%D0%B3%D1%80%D0%B0%D0%BD% D0%B8%D1%86%D0%B5%D0%B9_%D1%81_%D0%B1%D0%BE%D0%BB%D0%B3%D0%B0%D1%8 0%D0%B8%D0%B5%D0%B9_1235213
Не удобно, не правда ли? Развернутые требования от самого Google описаны здесь:
3) Сканирование сайта для проверки ответов сервера
Весь сайт сканируется собственными скриптами и внешними сервисами типа Screaming Frog для нахождения ссылок с трёхсотыми, четырёхсотыми и пятисотыми кодами ответа.
Логично, что если пользователь, переходя по ссылкам на сайте, попадает на несуществующие страницы или страницы с долгим ответом сервера либо долго грузит страницу из-за наличия цепочки перенаправлений, сайт является не удобным в использовании. Так как миссия поисковиков — выдать в ТОПе поисковой выдачи только максимально качественные сайты, указанные проблемы могут не дать возможность занять ТОП. Поэтому при нахождении закономерностей и большого количества ошибок пишется техническое задание по замене таких ссылок на сайте на актуальные.
4) Технические дубли
Важный пункт, так как многие CMS имеют особенность генерировать дубли страниц, а для поисковика важно, чтобы пользователю предоставлялась одна каноническая основная страница. Если поисковый бот видит две одинаковые страницы на разных URL-адресах, как ему понять, какую страницу показать в ТОПе? В таких случаях, обычно, обе страницы в результатах выдачи теряют ценность в пользу страниц других сайтов, у которых нет дублей. Поэтому проверяются всевозможные типы дублирования и дается техническое задание на исправление этих проблем. Примеры типов дублей:
- страницы с www и без www (часто сайт доступен по двум адресам, по сути, это два разных сайта для поисковика)
- дубли главной страницы и всех типичных страниц (разделы, фильтры, продукты)
- дубли с разным расширением страниц (*.php, *.html, *.htm, */)
- доступность страниц с разным регистром (здесь важно понимать, что есть реальные проблемы с генерацией таких страниц и уязвимости сайта, просто так настраивать перенаправления с верхнего регистра на нижний не стоит, может быть чревато)
- дубли страниц пагинации, сортировок, типов отображения
Способ закрытия таких дублей зависит от ситуации, например, можно использовать Canonical для указания канонической страницы или мета-тег robots noindex follow/ noindex nofollow в зависимости от того, нужно ли, чтобы бот переходил по ссылкам дальше, или нет. Пагинацию, к примеру, часто даже не закрывают, а используют для продвижения по региональным запросам, например, вторая страница оптимизирована под Харьков, третья – под Одессу и т.д.
5) Дублирование текстов
Сайт проверяется на предмет дублирования с внешними источниками и внутренними страницами. content-watch, Advego Plagiatus, да любой сервис сразу покажет, есть ли проблема с дублями контента, найдет список страниц, где таки дубли присутствуют. Наша задача — указать на проблему, найти первоисточник и дать рекомендации по уникализации контента, техническое задание по выводу дублирующих блоков контента скриптами (чтобы поисковики их не видели и не расценивали, как дубли), а также – скрипты по защите контента от копирования.
6) Дубли в тегах и мета-тегах
Как известно, не стоит несколько страниц продвигать по одним и тем же запросам, так как создается конфликт релевантности, что мешает поисковику выбрать одну из них для показа в ТОПе (за исключением некоторых случаев). Поэтому мы всегда проверяем наличие одинаковых тегов title, Н1, мета-тега Description, чтобы найти закономерность генерации дублирования этих данных, и пишем техническое задание на исправление ситуации, будь то генерация этих тегов по шаблонам либо написание постраничных заглавий и других тегов вручную. Все зависит от CMS и, конечно же, типа сайта. Часто можно увидеть рекомендации по исправлению тега Keywords, рекомендуем их игнорировать, так как программисты время потратят, но это, в итоге, ничего не даст. В Google Webmaster Tools вы сможете увидеть многие закономерные ошибки:
7) Robots.txt
Часто можно увидеть рекомендации по закрытию бесполезных для пользователя страниц через файл robots.txt, но важно знать — рекомендации в этом файле могут сработать для Яндекса, для Google они носят необязательный характер, и из индекса такие страницы не выпадают, более того, при закрытии страниц мета-тегом robots noindex, Google не будет его обрабатывать, и страницы будут еще долго висеть в выдаче с указанием, что страница закрыта в robots.txt. Таким образом, индекс будет наполнен большим количеством некачественных страниц, что не может хорошо сказываться на продвижении. Вот почему, например, у Фотоса такой robots.txt:
В то же время стоит указывать в этом файле основной Host домена и ссылку на Sitemap.xml
8) Sitemap.xml
В целом, для небольших сайтов – не обязательный атрибут, но важен для многостраничников. В данном файле указываем в XML-формате список тех страниц, на которые стоит регулярно ходить поисковому боту, а также указываем частотность обхода. Пишем рекомендации по генерации такой карты сайта, учитывая все нюансы (например, для сайта будет не очень полезно, если в карте сайта будет находиться список на неактуальные удаленные страницы либо дубли важных страниц, на которые будет отправлять Googlebot и тратить краулинговый бюджет).
9) Проверка кода сайта
Еще с 10-ых годов оптимизаторы используют validator.w3.org и подобные сервисы проверки валидации, как основной инструмент нахождения ошибок в коде.
Стоит знать, что подобные сервисы обновляются крайне редко, если сравнивать со стремительным развитием сайтостроения, используя их, можно как пропустить важные ошибки, так и указывать на уже давно не актуальные, опять-таки, тратя бесценное время на исправление ошибок. Наши специалисты проверяют код самостоятельно, проверяется наличие скрытых элементов на сайте, большого количества закомментированных или пустых строк, оптимальность структуры кода и скриптов, доступность файлов *.css, *.js.
10) Структура сайта
В нашей компании такая работа, как “Составление структуры сайта”, вынесена, как отдельная услуга для возможности максимально качественно ее реализовать. Для этого стоит проработать не просто семантику, которую видно на сайте, но полностью покрыть спрос, то есть найти всю семантику ниши и дать рекомендации по созданию максимально развернутого сайта с созданием всевозможных посадочных страниц, покрывающих весь спрос ниши. Но в целом, зачастую оптимизировать структуру сайта, не собрав еще при этом всю семантику, вполне возможно и на основании логики и опыта. К примеру, для интернет-магазинов логичным является создание страниц-фильтрации товаров (“Черные ноутбуки” и т.д. вариации), для инфо-портала – создание теговых страниц. Все это, конечно-же, описываем в техническом аудите с требованиями по настройке генерации тегов, важных для правильного ранжирования страниц в поиске. Также всегда стоит анализировать вложенность страниц по доступности в кликах от главной пользователю и поисковому боту. К примеру, если на страницу подраздела можно попасть только на третий клик от главной, переходя по меню или другим блокам, уровень вложенности такой страницы – 4-ый, что, зачастую, при наличии конкуренции, не дает возможность попасть в ТОП1. Поэтому даем рекомендации по уменьшению уровня вложенности страниц, внедряя блоки перелинковок по алгоритмам или добавляя дополнительные блоки информации со ссылками на типичных страницах. Вот так примерно выглядит структура сайта подарков (посадочные страницы создаются под всевозможные поисковые запросы):
11) Корректность использования <h1> — <h6>
Здесь все просто: на первом экране стоит использовать самый высокочастотный ключ в виде названия страницы с тегом <h1>, кроме этого, тег Н1 повторяться не должен. Что касается тегов <h2> — <h6>, в целом, их можно использовать как угодно и в каком угодно виде, но стоит помнить две вещи:
- Теги Н2 имеет больше веса для поисковика, чем тег Н3 и так далее
- Теги заглавий не стоит использовать в сквозных блоках информации по сайту, так как они размывают релевантность страницы ключевым запросам под эту страницу.
12) Mobile-friendly
Тенденция последних нескольких лет — превалирование трафика с мобильных устройств над десктопным практически во всех нишах. Стоит ли говорить, насколько важно делать адаптивную верстку или мобильную версию сайта для удобства использования со смартфонов и планшетов. При этом, сделав адаптивную верстку, например, и получив зеленый свет от Google:
Часто SEO оптимизаторы закрывают этот пункт, как “Выполнено”. Мы, со своей стороны, анализируем поведение пользователей на разных устройствах и браузерах в Google Analytics, и поверьте, очень часто исправляем ситуацию, когда красивейший сайт, с 75% трафика с мобильных и проходивший проверку и тестирование, оказывается не поддерживаемым для популярных серий смартфонов. Высшим пилотажем оптимизации, в соответствии с трендами, считаем AMP оптимизацию и создание Турбо Страниц Яндекса, об этом – далее.
13) AMP и турбо-страницы
На многих конференциях о SEO можно услышать о таком крутом звере, как AMP – Accelerated Mobile Pages (только представьте себе, пользователь ищет информацию с мобильного, видит чудесную иконку молнии и, переходя на сайт, удивляется от того, что на его 3G-смартфоне сайт открылся моментально, даже не успел завариться чай):
Все это позволяет внедрить AMP-технология, открытая для разработчиков, бери и делай: www.ampproject.org Но кроме новостных и инфо-ресурсов, для e-commerce проектов и сайтов услуг нет кейсов на рынке Украины, и связано это с некоторыми сложностями внедрения данной технологии для динамических объектов, кнопок “купить/заказать”, каруселей картинок и товаров. Но решение такой проблемы есть, рекомендуем обратить внимание на технологию AMP Bind. В наших проектах, по возможности внедрения на сайтах клиентов, мы описываем рекомендации по внедрению и таких последних новинок, как AMP, турбо-страницы Яндекса.
14) Микроданные Schema.org (Микроразметка)
Хлеб насущный для SEOшника, без которого – никуда, ведь, как же люди будут переходить на ваш сайт из выдачи, если он будет представлен, как серая мышь? Существует микроразметка для многих блоков информации на сайте, для карточек товаров, для статей, для видео, рецептов, событий, отзывов с рейтингами и т.д. Но лучше один раз посмотреть, что это нам дает в выдаче:
Подробнее можно прочесть здесь:
developers.google.com/search/docs/guides/
15) Протокол Open Graph
Для корректного отображения публикаций в социальных сетях следует использовать разметку OpenGraph, и не только настроить, но и протестировать, как это будет выглядеть. Если этого не сделать, все шеринги будут выглядеть примерно так:
А при настройке это уже выглядит так:
Кажется, не совсем SEO, но не помешает для большего вовлечения с социальных сетей и, как следствие, плюсом к ранжированию за счет социальных факторов. Инструкции ко внедрению здесь: ogp.me
16) Проверка скорости загрузки всех типичных страниц
Здесь проверяем скорость загрузки всех типичных страниц и проводим нагрузочное тестирование, пишем техническое задание по улучшению скорости загрузки, настройке Gzip сжатия, кэшированию файлов, оптимизации изображений, JS и CSS файлов, а также другие рекомендации по ускорению сайта.
17) Анализ поисковой выдачи
Зачастую при поиске дублей страниц оптимизаторы используют вышеперечисленные сервисы для нахождения всех дублей по ссылкам на сайте. Но не учитывают ситуации, когда ссылка была ранее, дубль отдает код 200, но ссылок с сайта больше нет, хотя в выдаче такие страницы находятся и засоряют индекс поисковика. Также возможна ситуация, когда у сайта присутствует уязвимость в виде возможности генерации дублей с разными УРЛ адресами, и которую используют конкуренты для того, чтобы понизить ваш сайт в выдаче. Поэтому нашими специалистами проводится изучение выдачи поисковиков, парсинг результатов поиска, нахождение таких типов “забытых” страниц и рекомендации по их устранению, а также устранению уязвимостей сайта.
18) Анализ поисковой выдачи по сайту
Речь идет об изучении результатов поиска уже по сайту, если на сайте реализован поиск по запросу, он должен отрабатывать всегда. Пишем рекомендации по исправлению багов, а также алгоритм работы поиска для некоторых нишевых сайтов (к примеру, поиск по VIN (ВИН) коду для сайтов автозапчастей).
19) Анализ наличия бесполезных для пользователей пустых страниц
Также на сайте могут быть пустые страницы, неактуальные, старые и не информативные, которые порой даже создают конфликт релевантности с важными продвигаемыми страницами. Тот же Screaming Frog показывает количество символов на странице, ее размер. Отсортировав по возрастанию, легко можно найти список таких страниц, подлежащих сносу и редиректам. Также проверяем выдачу на их наличие.
20) Анализ GWT, Яндекс Вебмастер
В каждом проекте наши специалисты на этапе аудита и ежемесячно проверяют Google Search Console и Яндекс Вебмастер на всевозможные ошибки, уведомления и оперативно реагируют на их появление. Также производят настройку важных параметров, к примеру, настройка региона таргетинга, контроль индексации, срочное удаление не желаемых разделов/страниц из индекса по параметрам. Если указанные сервисы еще не установлены, даем инструкции по их установке в аудите.
21) Проверка тегов, мета-тегов, текстов на заспамленность
Как и проверка на уникальность, производится проверка на заспамленность. В этом помогает сервис text.ru, после чего уже вручную проверяется, действительно ли заспамлен текст, и нужно ли его править. Но важно не спешить давать рекомендации, не определив сначала позиции запросов, ведь если они в ТОП 10, то править точно ничего не стоит.
22) Перелинковка
Чек-лист всевозможной перелинковки следующий:
- Меню
- Переключение языковой версии или регионов
- Фильтры категорий
- Ссылки на страницы фильтров из характеристик товара
- Хлебные крошки
- Конечно же, логотип
- Ссылки на товары из категорий
- Пагинация
- Теговые страницы для инфо-порталов
- Блоки информации, Частых вопросов, “Похожих товаров”
- “Топ 5 популярных товаров/услуг” для усиления самых важных для клиента
- Перелинковка типа “облако тегов”, например, под поисковой строкой (туда можно добавлять самые приоритетные запросы), для усиления приоритетных запросов
Проверяется не только наличие ссылок на страницы для пользователя, но и для поискового бота (многие блоки на сайте делают динамически подгружающимися, и доступа у поисковых ботов к страницам попросту нет, так как в коде нет ссылок на них). Например, распространенная ошибка: кнопка “показать еще товары” — поисковый бот не видит все товары, которые подгружаются динамически, следовательно, для Google у вас на сайте всего 12 товаров, а не 312 (в случае, если нет доступа к товарам через другие страницы).
Также даются рекомендации со стороны удобства использования, например, очень неудобно, когда со страницы русскоязычной, переходя на украинскую версию, нас перенаправляют на главную страницу сайта, а не ту, на которой мы находимся.
23) Проверка корректности цепочки «хлебных крошек»
“Хлебные крошки” — Ваш путь от главной к странице, на которой вы находитесь, например:
Хлебные крошки стоит рассматривать не только со стороны удобства пользователю, но и как блок дополнительной перелинковки. Например, если мы находимся на товаре “Nokia 3310”, в хлебных крошках можно отображать не только материнскую категорию “Телефоны-кирпичи”, но и страницу фильтра по бренду “Телефоны Nokia” для ее усиления. Еще один из способов использовать в целях SEO данный блок — вместо анкора “Главная” использовать самый высокочастотный запрос для продвижения главной по этому ключевому запросу. Например, если главная страница продвигается по запросам “Балконы под ключ”, стоит заменить “Главная” в хлебных крошках на такой запрос, и вы получите со всех страниц сайта ссылку с тематическим анкором, что придаст веса указанному запросу. Что касается микроразметки, мы даем готовый кусок кода для использования вашим программистом, для удобства и удешевления внедрения рекомендаций.
24) Проверка наличия трафикогенерирующих слов на страницах сайта
Базовая вещь в SEO — если на странице нет вхождений запросов, страница не может ранжироваться по таким запросам или будет ранжироваться ниже конкурентов. Также, если использовать слово десятки раз, можно угодить под фильтр. Поэтому мы даем рекомендации по добавлению слов в типичных блоках сайта, в которых вхождения этих слов не повлекут за собой санкции, например, если добавить слово “цена” ко всем ценам на листинге товаров или слово “купить” вместо “в корзину”, это увеличит релевантность страницы коммерческим запросам.
25) Генерация title, description, h1
Для больших сайтов, интернет-магазинов с тысячами страниц одного типа (категория, товар, фильтр категории), нет смысла прописывать вручную указанные теги, уйдет много времени, будет потерян потенциал прироста страниц, которые оптимизируются не в первом этапе, но оптимизировать их стоит, так как эти теги с ключевыми словами имеют большой вес при ранжировании. На помощь в таких случаях приходит отладка генерации тегов по заданным шаблонам. Проанализировав семантику и найдя закономерность и схожесть для разных страниц (например, что смартфоны, что плиты, ищут со словами “купить”, “цена”, “Киев” и т.д.), мы прописываем шаблоны генерации тегов с переменной типа “название страницы” для разных типов страниц, например:
- для страниц категорий;
- разделов;
- фильтров;
- инфостраниц;
- товаров.
Следует в H1 использовать самый высокочастотный запрос в читаемом виде, в Title – как можно меньше слов с наибольшим весом, ну а Description на ранжирование не влияет, но очень помогает собирать клики из выдачи при правильном его использовании (сделав его выделяющимся и заметным). Также стоит делать сразу для всех страниц оптимизацию тегов Н1 в зависимости от нюансов, использовав шаблоны или постраничную оптимизацию вручную, так как это даст максимальный эффект. Например, если страница фильтра имеет название “Смартфоны — цвет:белый”, стоит привести к виду, как самый вч, запрос “Белые смартфоны”. Если на сайте – тысяча красных зонтов с наименованием товара “Красный зонт”, стоит использовать артикул как для уникализации, так и для увеличения вероятности попадания в топ по запросу типа артикул (да, так тоже ищут товары). Результатом такой оптимизации будет как рост по самым важным запросам, так и генерация привлекательных сниппетов, на которые хочется кликнуть, например:
26) Проверка наличия санкций от поисковых систем
В Google Search Console есть раздел “меры, принятые вручную”:
Если уведомления о “мерах” нет, тогда проверяем аналитику, нет ли скачков трафика на понижение в органике за всю историю, если есть — анализируем, на каких разделах/страницах, проверяем ссылочный профиль и тексты на предмет заспамленности, ссылки также проверяем по множеству параметров, с помощью которых можно понять, есть ли вероятность санкций от поисковых систем. Если проблема с контентом в виде переспама, неуникальности, строим план по замене/устранению такого контента, если проблема в ссылках, отклоняем ссылки через инструмент Disavow tool. Следует знать, что на устранение санкций необходимо время, в зависимости от нюансов — от нескольких недель до нескольких месяцев.
27) Мультиязычность и мультирегиональность
Еще один способ покрытия всего поискового спроса — создавать страницы под разные языки и регионы. С языками все просто — генерируем перевод контента (например, по API Google переводчика с последующими ручными правками), и, после создания языковых версий, связываем их для поисковика тегом hreflang (в правильной настройке его генерации вам поможет интуитивно понятный генератор: aleydasolis.com/english/international-seo-tools/hreflang-tags-generator/ ). Данный тег, по сути, говорит поисковику — эта страница русскоязычная для Украины, эта — англоязычная для Польши, к примеру. Это значительно упрощает настройку правильного ранжирования сайта там, где нам нужно (по нужным языкам и странам). Между прочим, для Украины актуальна разработка украиноязычной версии сайта, так как уже принят закон об украинском языке, как обязательном (даже на сайтах):
http://rada.gov.ua/ru/news/Novosty/Soobshchenyya/162823.html
Что касается региональности, здесь сложнее — очень часто можно увидеть вопрос, стоит ли создавать страницы под другие страны и города, создавать ли поддомен или категорию на сайте, не будут ли такие страницы расцениваться, как дубли, или просто добавить вхождений списка городов на одну страницу. Ответа однозначного здесь нет, всегда стоит анализировать ТОП выдачи и позиции наших запросов, исходя из сложившейся ситуации, рекомендовать необходимые доработки. Например, для информационного портала или для сервиса пополнения мобильного телефона не нужно создавать региональные страницы, так как, по сути, региональных запросов попросту нет. Но для интернет-магазина или сайта услуг зачастую нуждается в создании таких страниц.
28) Оптимизация картинок
По данным Google, популярность поиска по картинкам растет. Люди все чаще ленятся читать информацию, хотят увидеть красивое сочное фото, и на основании визуальной привлекательности перейти на желаемую страницу. Тот же поиск чайников, к примеру, куда проще иногда просто купить товар, который будет “радовать глаз” каждый день, чем смотреть на перечень однотипных товаров и отсортировывать их по характеристикам, в которых и сам не разбираешься и еще больше путаешься, а если к этому еще добавить не идеальную работу фильтрации на сайте, неудобства и не схожесть с характеристиками, можно вовсе остаться без чайника.
Поэтому важно попасть в поиск по картинкам, чтобы покрыть спрос и людей, выбирающих товар на основе визуальной привлекательности:
Следовательно, даем шаблоны генерации тега alt (тег для картинок, на основе которого картинки имеют больше веса при ранжировании по запросам) для всех типов фото на сайте с необходимыми переменными.
29) Попадание в блок быстрых ответов
Тенденция последних лет — стремление в нулевую выдачу. Примеров множество:
- Вопрос-ответ
- Таблицы с ценами
- Определение
- Список инструкций
Под все эти типы нам уже удалось найти секрет, как именно попадать в такие блоки. Вот примеры из выдачи для понимания, о чем идет речь:
Заметьте, сайт обычно занимает выдачу и в нулевой, и на другой позиции в ТОП 10. Также топовые позиции занимает и блок “Похожих запросов”, хоть они и косвенно релевантны запросу, но также могут увести пользователя на Ваш сайт. Вывод один: нужно писать контент под всевозможные информационные запросы в “правильном” виде, тогда и вероятность занять “весь ТОП” будет выше. В аудите описываем методику верстки разных типов контента для попадания в эти блоки.
30) Проверка на аффилиаты
Представьте себе ценность двух продавцов на рынке, которые выглядят одинаково, с абсолютно одинаковыми товарами, одинаковыми ценами. А если их будет таких десять? Это занимает лишнее место и вредит “здоровой конкуренции”, свободе выбора потребителем. Владельцы бизнеса будут иметь большую вероятность что-то продать, но кроме владельца в такой ситуации никто не выигрывает. Вряд ли такой рынок будет иметь спрос. Эта ситуация в поисковой выдаче называется “аффилированность сайтов”, и с таким поисковики активно борются. Если Ваша цель — создать как можно больше сайтов для увеличения продаж и занятии всего ТОПа выдачи, позаботьтесь о том, чтобы сайты сильно отличались как дизайном, так и наполнением контентом, контактными данными и даже данными whois. Иначе их найдут наши специалисты и пропишут инструкции для снятия “Аффилиат фильтра”. Если два Ваших сайта продвигаются по смежным запросам и хоть чем-то их можно связать, поисковики либо понизят один из них, либо оба по позициям этих запросов.
31) Рекомендации по переезду/выкатке сайта
Если Вы разрабатываете новый, оптимизированный сайт для замены устаревшего, всегда есть высокая вероятность падения позиций и трафика из-за смены CMS, URL-адресов, кода сайта, его контента, структуры. Стоит учитывать, что например, при смене URL адресов и переезде на новый сайт без правильных перенаправлений пользователей со старых страниц на новые, пользователю будут попадать на 404ые несуществующие страницы, а вес старых страниц с историей канет в лету. Поэтому, при условии необходимости переезда сайта, в рамках аудита мы готовим необходимые рекомендации для минимизации вероятности проседания трафика и позиций, а также по перенаправлению пользователей со старых страниц на новые (карты редиректов).
32) Другие ошибки
Всегда есть узконишевые, особые сайты, либо нюансы, которые не встречаются на типичных сайтах ниши, поэтому в чек-листе всегда присутствует пункт о “других ошибках”, который подразумевает проверку сайта на не типичные ошибки и их исправление.
33) Разработка нового сайта
Отдельно стоит упомянуть о нашей услуге “Рекомендации по созданию оптимизированного сайта”, разработанные и адаптированные под каждый тип сайта, актуализирующиеся на основании вводных данных от клиента о его бизнесе. Суть данной услуги заключается в экономии средств на разработку нового сайта для продвижения в будущем и ускорению результатов по SEO. Почему это выгодно?
- Программистам после создания “красивого” сайта не нужно будет переделывать сайт заново в соответствии с техническим заданием SEO-специалистов, он будет иметь свод требований и прямых указаний, благодаря которым разработка будет происходить сразу в соответствии со всеми необходимыми фишками под SEO оптимизацию. Другими словами – вы экономите почти в 2 раза на разработке и оптимизации сайта, убиваете двух зайцев одним выстрелом;
- Множественные эксперименты показали: при выкатке в индекс уже оптимизированного сайта результат по росту трафика намного выше, чем при выкатке сырого в плане “SEO” сайта и его оптимизации в будущем. Поисковики видят “качественный” ресурс, понимают, что вы создали готовый и крутой продукт для пользователей, и быстрее дают ему возможность попасть в ТОП, сократив для сайта срок такого алгоритма, как “Песочница” (алгоритм, не позволяющий попадать сразу в ТОП некоторое время новым сайтам).
Подсумируем
Все эти пункты чек-листа — общее описание того, что входит в аудит и зачем мы это делаем, конечно же, каждый из них разбит на множество подпунктов анализа и готовых практических рекомендаций с техническим заданием для разработчика, которое можно отдать в работу Вашему программисту. Если Вы прочитали до конца и взялись за голову, ведь для самостоятельной оптимизации сайта так мало знаний и так много разной информации в интернете, мы обещаем провести SEO аудит Вашего сайта на высочайшем уровне, основываясь на опыте более сотни проектов, и гарантируем, что его внедрение даст прирост трафика и продаж уже через пару недель. Для героев, прочитавших до конца, дарим промо-код на скидку в 20% для аудита, введите словосочетание “ПРОМО КОД НА АУДИТ” в форме заявки с сайта, и с Вами свяжутся наши менеджеры с предложением, от которого Вы не сможете отказаться. Если вы заказываете SEO продвижение сайта, аудит на первом этапе продвижения является необходимым условием для оптимального продвижения с наилучшими результатами. P.S.: Для тех SEO-гуру, которые найдут в этой статье фишку, благодаря которой эта статья попадает в ТОП выдачи Google, присылайте нам свои резюме с ответом на E-mail: [email protected], мы всегда ищем таланты!
Автор: Вадим Ивашкевич Head of Seo комадны SEOгиков