Технический аудит сайта своими силами
Рассчитывать на успех продвижения интернет-проекта можно только при его нормальной индексации и отсутствии дублей страниц, а помочь в устранении этих проблем поможет технический аудит сайта, провести который можно и своими силами.
Для самостоятельного технического аудита не обязательно иметь семь пядей во лбу (а-ля специальное образование), не обязательно обращаться за помощью к специалистам, однако надо знать основные критерии оценки, о которых вы узнаете из этой статьи.
Главные цели технического аудита это:
1. Оптимизация индексации сайта
2. Устранение дублей web-документов
Оптимизация индексации сайта
На этапе оптимизации индексации надо проверить сайт на:
— размер html-кода
— отсутствие фреймов
— отсутствие мусора в коде
— скорость загрузки документов
— правильную кодировку сайта
Также важно проверить правильно ли закрыты от индексации поддомены (при наличии) и административная панель, ведь неправильное заполнение технического файла robots.txt приводит к мусору в выдаче и неверному распределению статического веса.
Размер кода страниц не должен превышать 200 килобайт, а скорость загрузки выходить за рамки 5 секунд. Уменьшить размер кода можно оптимизацией фото и изображений, а притормаживает скорость загрузки, чаще всего, большое количество модулей, графики и скриптов. Устранив эти проблемы, есть все шансы улучшить скорость индексации документов, да и для пользователей сайт станет более удобен, что даст плюс по линии поведенческого фактора и, соответственно, со временем улучшит его ранжирование.
Поддомены и административная панель закрываются от индексации директивой Disallow в файле robot.txt, а лишний мусор в коде появляется чаще всего из-за попыток использовать различные стили оформления страниц без вывода их в папку CSS шаблона сайта. Последняя проблема решается с помощью программиста, если же хотите очистить код своими силами, то не забудьте предварительно сделать бекап.
Устранение дублей страниц
Для борьбы с дублями нужно:
— прописать директиву Host в Robots.txt
— выбрать главное зеркало сайта
— проверить вывод страниц по единому адресу
— закрыть страницы пагинации
— настроить 301 редирект при необходимости
— проверить отдают ли несуществующие страницы HTTP-код 404
Главное зеркало сайта указывается в панели веб-мастера, где также можно проверить ошибки к доступу на сайт. Неплохо перед проведением технического аудита включить на хостинге лог файлы, в которых можно посмотреть визиты роботов систем поиска и также найти ошибки с доступом к web-документам. Хорошим помощником в поиске дублей будет программа Netpeak Spider, способная найти дубликаты по названию, описанию и ключам страниц. Закрыть от индексации страницы пагинации нужно с помощью Disallow: /*?*, ведь в противном случае дубли по заголовку гарантированы. Указать же основной адрес страниц для ботов можно с помощью rel=canonical, вывести который можно вручную через код или с помощью специального плагина. В WordPress каноническая страница определяется с помощью плагина All in One SEO Pack.
Завершается технический аудит сайта визуальным просмотром страниц, контент которых должен быть одинаков и для ботов ПС и для пользователей (отсутствует скрытый текст). Не забывайте также пользоваться надёжным хостингом и регулярно посещайте панели веб-мастеров Яндекс и Google, это поможет оперативно находить ошибки и исправлять их.