Базовая техническая оптимизация, первоначальная задача блогера

 

 

Базовая техническая оптимизация, залог правильного поведения роботов индексации.

Вам же нужно чтобы ваши страницы быстро попали в раздачу и их могли найти Ваши потенциальные читатели.

И так, базовая техническая оптимизация сайта, что это и зачем это важно?

Вопрос из тех, о котором, Вы не раз имели глубочайшие размышления.

И вот почему.

Начинающему блогеру больше известно о внутренней оптимизации сайта из статьей в интернете. Однако, эти знания обширны по значению и сложности выполнения, а это может создать не мало головной боли.

Все оперяется в том что задачи вроде и ясны, но слишком их много для начала работы в блоге. Имеет значение, для начинавшего блогера как раз первичные знания. Или скажу так, как все лучше начать самого перво дня в настройке сайта. И тут есть смысл задать вопрос.

На что в первую очередь обращают внимание поисковые системы?

При первой индексации роботы оценивают техническую составляющую сайта, его структуру и работоспособность. Именно поэтому на начальном этапе необходимо позаботиться о выявлении и устранении такого рода проблем.

Значит, нужно провести базовую техническую оптимизацию сайта.

Наша задача улучшить сайт, сделать его доступным и понятным как для пользователей, так и для роботов поисковых систем.

Внутренняя оптимизация включает улучшение технических параметров, к которым относятся чистота кода, скорость загрузки ресурса, корректность его отображения на разных устройствах и в разных браузерах.

Особое внимание надо приложить к защите от взлома, проверить работоспособность всех модулей и разделов.

Для проработки внутренних факторов ранжирования начинающему блогеру необходимо:

1. Провести базовую техническую оптимизацию сайта.
2. Составить семантическое ядро.
3. Проработать структуру сайта.
4. Провести технический аудит.
5. Наполнить сайт контентом и оптимизировать.

В этой статье рассмотрим базовую техническую оптимизацию.

Это определенный комплекс мер, направленных на улучшение взаимодействия вашего сайта с роботами поисковых систем. Если конкретно, это важно для улучшения индексирования сайта и ранжирования по ключевым словам.

Базовая техническая оптимизация.

В базовую техническую оптимизацию входит настройка:

• 404-й ошибки;
• зеркал сайта;
• sitemap (карты сайта);
• файла robots.txt.

Обработка 404-й ошибки.

Запрашивая страницу сайта, робот автоматически получает от сервера ее статус т. е. со-
общение о том, в каком состоянии она находится.

Каждый такой статус страницы передает роботу определенные сведения (например, «успешно», «перенаправление», «ошибка сервера»). Однако, именно ошибка со статус кодом 404 («ошибка клиента») требует отдельной проработки.

404 — ошибка, свидетельствующая о том, что запрашиваемая страница недоступна, т. е. она не существует или не найдена. Поисковые роботы не будут учитывать ее при индексации.

Важно:  не критично, если случаи присутствия в выдаче не найденных страниц единичны. Но если многие страницы, ранее содержавшие качественный контент, будут «не найдены», сайт начнет терять позиции и трафик из выдачи, ухудшится конверсия, поведенческие факторы.

Ошибка 404 возникает, когда пользователь указывает в адресной строке браузера URL несуществующей страницы или переходит на нее по битой (неработающей) ссылке.

Это могут быть удаленные страницы (устаревшие статьи или товары), на которые могут вести ссылки из других разделов, ошибка в наборе адреса пользователем и пр.

Чтобы посетитель вашего сайта не увидел пустую белую страницу и не подумал, что ваш сайт неисправен, ничего полезного не несет, важно корректно настроить обработку 404-й ошибки.

Корректная обработка 404 ошибки позволит исключить ситуацию, когда поисковый робот во время индексации вашего сайта обойдет страницы с ошибкой 404, а нужные вам страницы так и не попадут в индексную базу, типа, не обновятся.

Настройка зеркал сайта.

Зеркало сайта — это копия сайта, доступная под разными адресами, но содержащая одинаковый контент.

При продвижении сайта принципиально важно, чтобы в выдаче постоянно присутствовало одно и то же главное зеркало сайта. Поисковое продвижение становится неэффективным при наличии нескольких зеркал без выделения главного, так как часть страниц может быть проиндексирована с одним зеркалом, а часть — с другим.

Рассмотрим алгоритм проверки настройки зеркал:

• зайти на сайт без www, например, site.ru;
• зайти на сайт с www, например, www.site.ru, где site.ru — это адрес вашего сайта.

Сайт не должен открываться в обоих случаях с разными URL. Обязательно должно происходить перенаправленние с одного ресурса на другой. Т. е., например, если вы ввели www.site.ru, а основное зеркало site.ru, то открыться должен именно site.ru.

Чтобы этого не происходило, необходимо провести склеивание зеркал.

Склеивание зеркал — это объединение нескольких доменных имен с целью передачи трафика, показателей тИЦ и других значимых для продвижения характеристик на основной сайт.

тИЦ, показатель авторитетности сайта по оценке Яндекса. Формируется на основании анализа внешних ссылок на сайт, при этом учитывается и объем ссылочной массы, и ее качество и релевантность ссылок.

Склеить все зеркала и указать роботу поисковой системы адрес, который необходимо считать главным зеркалом, можно несколькими способами:

• указать основное зеркало в файле robots.txt в директиве host (нестандартное расширение от Яндекса);
• c помощью инструмента «Главное зеркало» в Яндекс.Вебмастере в разделе «Индексирование», подразделе «Переезд сайта»

Настроить 301-й редирект (перенаправление посетителей и поисковых роботов с одного URL-адреса на другой) с неглавных зеркал на основное.

Перенос сайта на безопасный протокол HTTPS (SSL).

Поисковые системы все больше внимания уделяют безопасности сайтов. Наверное уже в курсе что с 1 января 2017 года браузер Google Chrome отмечает ресурсы без SSL-сертификата, как потенциально опасные для пользователей.

В зависимости от версии браузера такие сайты помечаются красным восклицательным знаком или знаком белого листа вместо зеленого замка, означающего должный уровень защиты данных.

Отсутствие защищенного протокола ведет к потере позиции сайта в выдаче, при этом многие пользователи могут отказаться от сотрудничества с подобным ресурсом.

Но не все так страшно если у вас простой блог. Однако, если ваш ресурс предполагает работу с личными данными пользователей или платежными сведениями, вам необходимо позаботиться о защите этой информации.

А это значит что надо его перевести на защищенный протокол HTTPS. Для этого требуется установка SSL-сертификата. SSL-сертификат — это цифровая подпись вашего сайта, гарантирующая безопасное соединение между браузером пользователя и сервером.

При использовании SSL-протокола информация передается в закодированном виде по протоколу HTTPS, и расшифровать ее можно только с помощью специального ключа (в отличие от привычного протокола HTTP).

Перенос сайта на защищенный протокол — сложный процесс, требующий экспертных знаний и денег на сам сертификат.

Самое умное действие обратится за помощь специалистам своего хостинга. Они все сделают под ключ, однако, придется за это раскошелится.

Настройка файла sitemap.xml

Sitemap.xml или карта сайта, это документ, содержащий ссылки на разделы и статьи сайта, которые должны быть проиндексированы поисковыми роботами.

Ошибки в sitemap.xml могут привести к некорректной индексации страниц вашего сайта роботами поисковых систем, например, в выдаче будут присутствовать несуществующие страницы, внутренние файлы системы администрирования сайта, страницы, закрытые от индексации в robots.txt и т. д.

Для этого, как правило, используют плагины которые найдете в поиске плагинов.

Robots.txt

Это инструкция для роботов поисковых систем, которая хранится в корневой папке сайта. С ее помощью можно контролировать поведение роботов,например, запретить им индексировать определенное содержимое сайта.

Создание и корректное наполнение этого файла является обязательным этапом при продвижении. Чтобы проверить наличие этого файла на сайте, введите в адресной строке браузера URL в формате www.site.ru/robots.txt (указав вместо site.ru ваш домен).

В файле robots.txt содержатся различные директивы, одни из наиболее важных, это host и sitemap.

Директива host указывает на основное зеркало сайта, используется только для робота Яндекса и должна содержать указание на протокол соединения: Host: site.ru (в случаеc http) или Host: https.site.ru.

Стоит обратить внимание, что в файле robots.txt нельзя указывать больше одной директивы host. В противном случае индексироваться будет та, что указана первой, вторая будет проигнорирована.

Директива sitemap указывает путь к XML-карте сайта и прописывается следующим образом:

Sitemap: http://site.ru/sitemap.xml.

При анализеданной директивы робот поисковой системы узнает о наличии карты сайта и учитывает ее при следующем посещении ресурса.

Существуют также директивы «Disallow: /» (закрытие) и «Allow: /» (открытие), которые запрещают или разрешают поисковому роботу индексировать определенные страницы сайта.

Даю свой Robots.txt, может пригодится:

Базовая техническая оптимизация

Закрывая от индексации определенные разделы сайта, вы можете автоматически закрыть те, которые необходимы для продвижения ресурса. Чтобы минимизировать риски подобных ситуаций, регулярно проверяйте файл robots.txt на корректность.

Это можно сделать с помощью инструмента «Анализ robots.txt» в Яндекс.Вебмастере.

Удачи, Друзья!

 

Поделиться, этой записью

PinIt
НАЖМИТЕ КЛАВИШИ "CTRL"и "D" ОДНОВРЕМЕННО! Чтобы быстро: ПОМЕСТИТЬ АДРЕС ЭТОЙ СТРАНИЧКИ В ИЗБРАННОЕ А почему? А потому, чтобы позже вернуться на нее!!!

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

scroll to top