Файл Sitemap.xml для поисковой оптимизации
Традиционно поисковой робот при индексации находит информацию благодаря ссылкам, которые проставляются для скрепления тематического материала. Практически ссылочных путеводителей вполне достаточно для проверки сетевого проекта или отдельных страниц.
Зачем нужен файл sitemap.xml
Очень часто происходит, что некоторые незначительные погрешности с технической стороны мешают роботам определить значимость конкретного документа или проиндексировать какой-то фрагмент информации.
Сложно проиндексировать динамические страницы или те, которые находятся в череде длинной цепочки ссылок. Файл Sitemap помогает упростить индексацию и помогает направить робота по заведомо выбранному маршруту.
Как создать файл sitemap.xml
Формально на просторах сетевого пространства предостаточно сетевых площадок, позволяющих создать файл sitemap.xml. Главное при создании этого файла начинающие оптимизаторы должны знать, что некоторые системы поиска поддерживают определенный формат, например, Яндекс считывает только текстовый файл и XML.
Лучше создавать файл в разметке XML, поскольку с его помощью можно получить дополнительную информацию о страницах, а также для персонального URL-адреса можно прописывать:
- период последнего обновления информационного документа;
- коэффициент частотности изменений документа;
- коэффициент значимости для каждой отдельной страницы.
Перед тем как загружать созданный файл рекомендуется его основательно протестировать и проверить на соответствие следующим требованиям:
- Насколько правильно соблюдена кодировка.
- Правильно ли определен формат для конкретной поисковой системы.
- Соответствует ли размер файла общепринятым стандартам.
- Размещен ли файл на том же домене, что и ресурс.
- Добавлена ли в панель директива в файле robots. txt.
Преимущества Sitemap очевидны, ведь с помощью этого универсального помощника можно не только ускорить индексацию сайта, но и обеспечить доступность динамическим страницам, которые содержать многочисленные flesh-анимационные фрагменты.
Не всегда в процессе индексации поисковой робот видит такие страницы и попросту может оставить их без внимания, файл Sitemap поможет решить эту проблему. Ведь практически всегда все изображения или видео для роботов отображаются в виде скриптов. В результате получается, что sitemap.xml помогает обнаружить поисковому роботу документы с медиа-контентом исходя из навигации, учитывая характерные особенности сетевого проекта.
Полезный файл. На блоге обязательно должен быть.
Тем не менее у некоторых отсутствует. Часто смотрю через плагин рдс бар наличие ситемап файла и роботс.
Вот теперь разобрался, что к чему.
Файл sitemap.xml ныне является динамическим и создается плагинами. Преимущественно плагином All in One SEO Pack. В настройках плагина есть соответствующая опция. При ее подключении файл с домена (если такой там существовал) удаляется. Иначе все заглючит, и роботы вообще могут ничего не найти.
Динамическую карту сайта создает и плагин Google XML Sitemaps. Естественно, новые его версии. При этом файл на домене также не нужен.
Спасибо, Александр, за дополнение. Не знал, что One SEO Pack имеет такую функцию.
Да уж давненько. В админке: Инструменты SEO — Другие модули.
Опция Карта сайта — кнопка Activate.
Плагин СЕО последних версий создает не только динамическую карту сайта, но и динамический файл robots
Вот этого я пока не пробовал. Правда, и подключение карты сайта с помощью СЕО плагина у меня почему-то пока не получилось. А времени «упереться рогом» и разобраться не хватает. Мешает что-то…
Правда, sitemap у меня все же динамическая. Только создает ее плагин XML Sitemap. А роботс пока родной — изготовлен собственноручно в Notepad ++ и закинут в корневую папку 😉
В Yoast WordPress Seo, как и в AIOSP есть тоже возможность активировать XML карту и исключить определённые типы контента и таксономии, что крайне , необходимо сделать.
Не знала, что плагин All in One SEO Pack создает файл sitemap.xml. Давно ли?
Для меня Александр тоже «Америку открыл» 🙂
Ну что вы! Какая такая «америка»? Почитайте Александра Борисова — его статья на эту тему вышла почти год назад, в августе 2014. Почитайте Виталия Кириллова — он написал еще в феврале прошлого года. (Я предпочитаю второго, но, в конце концов, это мои личные вкусы и пристрастия). Во всяком случае, плагин это делает, начиная вроде с версии 2.2.1 (может, ошибаюсь — и с чуть более ранней). Так плагины-то обновлять нужно 😉
Динамическую карту сайта для поисковых роботов (не путать с картой сайта для посетителей — это для начинающих вебмастеров, Александр 😉 ) создает и плагин Google XML Sitemaps последних версий. Это тоже плагин, присутствующий на большинстве блогов на WP. В этом случае файлы sitemap.xml и sitemap.xml.gz в корневой папке блога, в лучшем случае, бесполезны. Если вообще не вредны. В любом случае, активируя опцию создания динамической карты сайта с помощью того или иного плагина (вот и о Джаст Вордпресс Сео говорится в комменте Ольги выше — я-то с этим плагином не знаком) файлы эти следует удалить.
Динамическая карта сайта отличается той особенностью, что создается каждый раз в момент обращения поискового робота к сайту. Даже если вы внесли какие-то обновления за секунду до этого «исторического» события — они будут роботу видны и им учтены. Причем совершенно автоматически.
Роботс у меня вручную сделан тоже. 🙂 Ну, его впрочем не часто нужно обновлять. А вот карту сайта только плагином стоит делать, она часто обновляется.