Главная > Создаем сайт > Технический аудит сайта своими силами

Технический аудит сайта своими силами

Технический аудит сайтаРассчитывать на успех продвижения интернет-проекта можно только при его нормальной индексации и отсутствии дублей страниц, а помочь в устранении этих проблем поможет технический аудит сайта, провести который можно и своими силами.

Для самостоятельного технического аудита не обязательно иметь семь пядей во лбу (а-ля специальное образование), не обязательно обращаться за помощью к специалистам, однако надо знать основные критерии оценки, о которых вы узнаете из этой статьи.

Главные цели технического аудита это:

1. Оптимизация индексации сайта
2. Устранение дублей web-документов

 

Оптимизация индексации сайта

 

На этапе оптимизации индексации надо проверить сайт на:
— размер html-кода
— отсутствие фреймов
— отсутствие мусора в коде
— скорость загрузки документов
— правильную кодировку сайта

Также важно проверить правильно ли закрыты от индексации поддомены (при наличии) и административная панель, ведь неправильное заполнение технического файла robots.txt приводит к мусору в выдаче и неверному распределению статического веса.

Размер кода страниц не должен превышать 200 килобайт, а скорость загрузки выходить за рамки 5 секунд. Уменьшить размер кода можно оптимизацией фото и изображений, а притормаживает скорость загрузки, чаще всего, большое количество модулей, графики и скриптов. Устранив эти проблемы, есть все шансы улучшить скорость индексации документов, да и для пользователей сайт станет более удобен, что даст плюс по линии поведенческого фактора и, соответственно, со временем улучшит его ранжирование.

Поддомены и административная панель закрываются от индексации директивой Disallow в файле robot.txt, а лишний мусор в коде появляется чаще всего из-за попыток использовать различные стили оформления страниц без вывода их в папку CSS шаблона сайта. Последняя проблема решается с помощью программиста, если же хотите очистить код своими силами, то не забудьте предварительно сделать бекап.

 

Устранение дублей страниц

 

Для борьбы с дублями нужно:
— прописать директиву Host в Robots.txt
— выбрать главное зеркало сайта
— проверить вывод страниц по единому адресу
— закрыть страницы пагинации
— настроить 301 редирект при необходимости
— проверить отдают ли несуществующие страницы HTTP-код 404

Главное зеркало сайта указывается в панели веб-мастера, где также можно проверить ошибки к доступу на сайт. Неплохо перед проведением технического аудита включить на хостинге лог файлы, в которых можно посмотреть визиты роботов систем поиска и также найти ошибки с доступом к web-документам. Хорошим помощником в поиске дублей будет программа Netpeak Spider, способная найти дубликаты по названию, описанию и ключам страниц. Закрыть от индексации страницы пагинации нужно с помощью Disallow: /*?*, ведь в противном случае дубли по заголовку гарантированы. Указать же основной адрес страниц для ботов можно с помощью rel=canonical, вывести который можно вручную через код или с помощью специального плагина. В WordPress каноническая страница определяется с помощью плагина All in One SEO Pack.

Завершается технический аудит сайта визуальным просмотром страниц, контент которых должен быть одинаков и для ботов ПС и для пользователей (отсутствует скрытый текст). Не забывайте также пользоваться надёжным хостингом и регулярно посещайте панели веб-мастеров Яндекс и Google, это поможет оперативно находить ошибки и исправлять их.

Подпишитесь на обновления блога по e-mail

Подпишитесь на обновления блога по e-mail

  1. Пока что нет комментариев.
  1. Пока что нет уведомлений.