Готовим сайт к продвижению. Проверяем на отсутствие базовых ошибок.


Поиск по сайту:



Добавить в социальную сеть:

Подготовка сайта к раскрутке. Наиболее частые технические ошибки веб-мастеров.

Перед тем как покупать ссылки, и также перед внутренней оптимизацией сайта, крайне необходимо избавиться от технических ошибок, которые присутствую практически на любом сайте. В прошлой статье я рассматривал первоначальную подготовку к продвижению, теперь же акцентирую внимание на технических ошибках, которые также могут отрицательно повлиять на продвижение вашего сайта.

1. Дублирование контента.

Дублирование отдельного текста или же целых страниц всегда отрицательно влияет на позицию вашего сайта в выдаче поисковых систем. С точки зрения поисковиков – не имеет смысла предоставлять на сайте одну и ту же информацию дважды, в принципе это должно быть очевидно и для вебмастера. Лучше всего вообще избегать дублирования, но если такой возможности нет – тогда закрывать дублированные страницы от индексации в файле robots.txt
Недавно появилось еще одна возможность. Яндекс добавил поддержку атрибута rel=”canonical” Этот атрибут указывает какая из дублируемых страниц является главной и должна быть проиндексирована.

Дубли главной страницы.

Если URL вида wmr1000.ru/index.html (wmr1000.ru/index.htm), wmr1000.ru/index.php и так далее отвечают заголовком 200 OK, такие страницы могут случайно попасть в индекс и создать лишние дубли главной страницы. Для того чтобы этого избежать можно воспользоваться 301-м редиректом на основной хост.

Дублирование основного зеркала

Если Ваш ресурс доступен по 2 адресам, например, https://wmr1000.ru/ и https://www.wmr1000.ru, это также может создать дублирование страницы в индексе.
Кроме того, может произойти так, что в поиске вылезет https://wmr1000.ru, а в то же время вы будете покупать ссылки на https://www.wmr1000.ru. Таким образом все уже купленные вами ссылки потеряют часть передаваемого веса, и сайт сильно опустится в позициях выдачи. Чтобы избежать этого, необходимо один хост сделать основным, а со второго установить постоянный редирект, при помощи файла .htaccess.

Несуществующие страницы

После того как пользователь запросил страницу вида https://wmr1000.ru/любая_несуществующая_ссылка для главной и любой внутренней страницы должен быть возвращен http-заголовок 404 Not Found, либо срабатывать 301-й редирект на нужную страницу.
Лучше всего создать для этого отдельную страницу, в которой сообщить пользователям, что запрашиваемой страницы не существует. Для этого в файле .htaccess нужно прописать:
ErrorDocument 404 /404.php
404.php это заведомо созданная Вами страница, которую в данном случае необходимо поместить в соответствующей директории Вашего сайта. Вероятнее всего, эта ошибка повлечет за собой индексацию какой-либо несуществующей страницы, что приведет к дублированию контента на сайте.

Внутренние страницы со слешем и без

Если одна и та же страница будет доступна со слешем на конце или без, это также может привести к неумышленному дублированию контента, что опять же скорее всего негативно скажется на продвижении вашего сайта в поисковых системах. Можно, в принципе, сделать серверный редирект с одних страниц на другие, а также можно сделать, чтобы все дублированные страницы отдавали код 404, но первый вариант разумеется предпочтительнее.
Это легко настраивается в том же файле .htaccess

2. Присутствие flash и java script ссылок

Если у вас на сайте присутствуют flash или javascript-ссылки, позаботьтесь о том, чтобы они были продублированы обычными ссылками. В противном случае поисковые системы не смогут перейти по таким ссылкам, и соответственно проиндексировать оставшуюся часть вашего сайта. Исключение естественно составляют внешние ссылки которые вы не хотите индексировать.

3. HTML и xml карты сайта.

Для обеспечения более быстрой и качественной индексации необходимо добавить карту сайта, ссылка на которую желательно установить на каждой странице сайта, возможно в каком-то малозаметном и непримечательном месте. В принципе допустимо установить ссылку на карту сайта только с главной страницы, но это хуже для индексации. Также на карте сайта желательно не делать более 250 ссылок и не допускать, чтобы размер этой страницы был более 100 кб.
Другая же карта – это карта в формате xml, каждый раз при добавлении новых страниц, создавать ее в ручную трудоемко, поэтому она обычно создается автоматически скриптом. К примеру, ее можно с генерировать в сервисе . Путь к этой карте необходимо добавить в сервис Яндекс.Вебмастер и соответствующий сервис Google для вебмастеров. Желательно также указать путь к ней в файле robots.txt. Если сайт на каком либо движке (СМS) то можно установить плагин автоматически генерирующий эти карты. Такие плагины есть для всех популярных CMS.
В последней строчке robots.txt мы напишем:
Sitemap: https://wmr1000.ru/sitemap.xml

4. Файл robots.txt

Это особый файл, содержащий специальные инструкции для поисковых роботов. Находиться этот файл должен всегда в корневой директории вашего сайта. С помощью этого файла можно указать основной хост, прописать путь к карте сайта, закрыть от индексации дублированные и служебные страницы, а также сделать многое другое. Необходимо понимать, что файл robots.txt является стандартом. Даже если Вы категорически не хотите ничего запрещать к индексации, и указывать путь к карте сайта, или скажем указывать основной хост, этот файл всё равно необходимо создать. Это не сложно и не займет у Вас много времени.
Более подробно это описано в копировать этот материал я не вижу смысла.

Кроме всего вышеперечисленного стоит обратить внимание на:

  • 1. Наличие каких-либо скрытых блоков. Если у вас бесплатный шаблон для сайта – там могут находиться скрытые внешние ссылки. Или же предыдущий псевдо оптимизатор мог запросто разместить там текст с ключевыми словами.
  • 2. Идентификаторы сессий в URL страницах. Индексацию таких страниц необходимо предотвратить.
  • 3. Корректное отображение текста. Для этого необходимо, чтобы на всех страницах была указана кодировка.
  • 4. Нужно избавиться от всех битых и нерабочих ссылок.
  • 5. Проверить скорость загрузки сайта и ответа сервера.
  • 6. Правильное отображения сайта в различных браузерах, при разных разрешениях дисплея.
Это, в общем то и есть все основные технические ошибки допускаемые веб-мастерами, которые могут помешать эффективному продвижению вашего сайта. Есть еще некоторые нюансы, которые однако не относятся к техническим ошибкам, возможно я чуть позже напишу статью о них.


 
Алекс
https://wmr1000.ru/
Запрещено копировать без ссылки на сайт

 
Сделать закладку: