Мы свяжемся с Вами максимально оперативно
+7 (916) 393-13-52

G-Webit

+7 (916) 393-13-52 online-заявка

Заявка на услуги

Мы свяжемся с Вами максимально оперативно

Внутрення оптимизация сайта

Внутрення оптимизация сайта

Основными показателями внутренней оптимизации сайта, является повышение индексации внутренних страниц, проведение настроек для хорошего ранжирования сайта в результатах поиска, уменьшение скорости ответа от сервера. Есть основной список задач, который обязательно реализовать для внутренней оптимизации вашего сайта.

- УСКОРЕНИЕ РАБОТЫ САЙТА

Для того чтобы поисковые роботы могли быстро индексировать сайт необходимо увеличить скорость загрузки страниц. Задача разделяется на оптимизацию контента(уменьшение веса страницы в kb) и сокращение времени ответа сервера.
В помощь нам приходит сервис от Google PageSpeed Insights.

После процедуры тестирования, вы имеете список рекомендаций от google.ru по вашем запросу. Как правило google выдает большой список правок, но чтоб войти в зеленую зону, необходимо всего набрать более 85 балов, а для этого достаточно реализовать несколько моментов:

  • После анализа сайта, google предоставляем оптимизированные файлы css и js для активной страницы. Скачайте архив, распакуйте и выборочно загрузите файлы на сайт.
  • Включить кэш браузера, можно в файле .htaccess следующим образом

    <ifmodule mod_expires.c="">
        ExpiresActive on
        ExpiresByType image/jpeg "access plus 3 day"
        ExpiresByType image/gif "access plus 3 day"
        ExpiresByType image/png "access plus 3 day"
        ExpiresByType text/css "access plus 3 day"
        ExpiresByType application/javascript "access plus 3 day"
    </ifmodule>


  • Так же гугл зачастую предлагает оптимизировать картинки, если у вас нет встроенного механизма на сайте, то вы можете воспользоваться оптимизированными картинками из архива. От греха подальше необходимо сделать бекап картинок и всех изменяемых файлов, потому что оптимизированные файлы от google могут отличаться и если у вас не правильный синтаксис javascript, оптимизированный файл может вызвать сбой работы страницы. Лучше сделать бекап.
  • Еще один важный параметр, это - ответ от сервера, чтобы сократить отклик сервера рекомендую перевести сайт на композит (композитное кэширование), это как правило всегда помогает. Если без Композита, то проверьте настройки кеширования компонента, они всегда должны быть настроены на кеширование ( A ) и оптимизируйте запросы к базе данных. Хорошие показатели считаются когда ответ сервера выдает результат в пределах 0,2 секунды.
  • Включите сжатие в файле .htaccess (cжатие ресурсов с помощью функций gzip или deflate позволяет сократить объем данных, передаваемых по сети.)

    <ifmodule mod_deflate.c="">
        AddOutputFilterByType DEFLATE text/html text/plain text/xml application/xml
        application/xhtml+xml text/css text/javascript application/javascript application/x-javascript
    </ifmodule>

Выполнив все выше рекомендации и увидев скорость загрузки по тесту в районе 85%, можно переходить дальше.


- НАСТРОЙКА ИНДЕКСАЦИИ САЙТА ПОИСКОВЫМИ РОБОТАМИ.

Для лучшей индексации правильно будет создать файл sitemap.xml и передать его в яндекс-вебмастер, гугл и другие поисковики. Поисковики на основе sitemap.xml будут проходить по ссылкам, указанным в xml-файле и индексировать соответствующие страницы сайта.
Для того, чтобы роботы не индексировали служебные страницы, а также страницы - результаты фильтра и сортировки, нужно запретить индексацию таких ссылок в файле robots.txt
Кроме того, в robots.txt обязательно указывать host (главное зеркало) и sitemap (ссылка на карту сайта)


- ИСКЛЮЧЕНИЕ ДУБЛЕЙ DESCRIPTION И TITLE НА СТРАНИЦАХ.

Дублирование meta-данных, а именно title и description приводит к тому, что страницы плохо ранжируются поисковыми роботами и отображаются в выдаче поисковика с одинаковыми заголовками и описанием. По этой причине нужно провести ряд работ по устранению дублей, на всех продвигаемых страницах title и description должны быть уникальны.

Для проверки на дубли можно использовать бесплатную программу Netpeak Spider. Простая в настройке, руссифицированнная программа найдет дубликаты, ошибки ответа сервера, ссылки на внешние ресурсы, укажет канонические url, в общем будет полезна.


- НАСТРОЙКА - ИНТЕГРАЦИЯ МИКРОРАЗМЕТКИ.

Для интернет-магазинов в последнее время самой популярный и востребованный является тип микроразметки Schema.org/Product, именно на ее основе в Яндексе строятся структурированные сниппеты с описанием товара и ценой.


- ОПТИМИЗАЦИЯ CSS, HTML ВАЛИДАТОРАМИ КОДА (VALIDATOR.W3.ORG).

При сканировании сайта, поисковый робот может неверно интерпретировать код, поэтому важно, чтобы код был "валидный", т.е проверенный на валидаторе.

- МОБИЛЬНАЯ ВЕРСИЯ САЙТА.

За последний год в алгаритмах ранжирования поисковой системы Google и Яндекс произошли большие изменения, теперь ресурсы, не имеющим мобильной версии очень сложно подняться в топ поисковика. По результатам статистики, пользователи стали чаще заходить на сайты именно с мобильных устройств, чем с ПК. По этой причине Яндекс и Google выпустил сервис тест на проверку удобства просмотра пользователем на мобильных устройствах. Таким образом для продвижения сайта в поисковиках по последним тенденциям нужна адаптивная версия сайта.


Возврат к списку