- Back to Home »
- файл роботс , blogger , blogger файл роботс »
- Как изменить в Блоггер файл robots.txt
Привет всем блоггерам, столкнулся, вот стаким, вопросом. Как изменить файл роботекст в движке
блоггер? Почему такая идея у меня возникла? Да заметил, что выпадает много
страниц из Яндекс вебмастера, что робот их исключает из индекса, почти половину
загруженных. Решил найти свой файл robots.txt, так как раньше не обращал внимания на исключенные
страницы. Я туда и не лазил, и знаний в этой теме было ноль, да и как-то
информацию найти по - «именно» роботс
блоггер мне не приходилось, ваяю сам :). Ну и эксперимент проведу, как будут обстоять дела,
будет известно, я думаю, после первой выдачи. Будет видно.
Что со мной сделает яша и гоша.
Казнят или помилуют );))).
Может и этот пост, кому пригодится, а если, кто шарит в этом, буду рад совету и взаимному общению. Причем скорее всего буду развивать тему дальше, возникла потребность в закрытии от индексации бокового сайтбара, но это в следующем оповещении.
Итак, полетели по моему любимому
конструктору сайтов – Blogger.
- Вбиваем адрес своего блога :):):).blogspot.com/robots.txt , где смайлы ваше название блога.
- Выпадет окошко, у меня с такими настройками стояло ( наверное по умолчанию настройки)
User-agent: Mediapartners-Google Disallow: User-agent: * Disallow: /search Allow: /
- Скопировал в блокнот и убрал search из директории Disallow, так как, как раз ярлыки, как страницы исключались. Я пошарил информацию, вроде должны и они норм попадать в поиск. Blogger устроен так, что метки-ярлыки выступают рубриками. И решил убрать этот поиск, больше и убирать нечего, но как писал уже выше, надо закрывать сайтбары и другие контейнеры элементов меню и рекламы, с них уходит много внешних ссылок ( а это, как я заметил проблема ). Будем смотреть и пробывать разные методы, методы индексирования и ранжирования сайта в поисковую выдачи меняется каждый день. Даже обнаружил, что кончилась ), как говориться халява, помощник подборки ключевых слов переехал в планировщик рекламных компаний Adwords, а это реально усложнит сео – оптимизацию и подборку ключиков. Поэтому надо начинать бороться за каждую страницу.
- Продолжим
- Заходим в Мои Блоги >>Выбираем нужный блог >> Настройки >> Настройки поиска >> Настройки robots.txt
- Я убрал search и теперь этот редактированный файл вставляю в форму изменения файла роботекст, вы можете, что то свое добавить. Советую точно понимать, что вы делаете, эта запись моего блога является ознакомлением, о том, где находится robots. А не, как убить сайт.
- «*» это знак означает, будет открыто для всех роботов, если поставить Yandex или Googlebot, то можно конкретному поисковому пауку закрыть доступ к конкретным страницам.
Все сохранил, буду смотреть что
произойдет после выдачи. Отпишусь обязательно, ссылка о результатах изменения файла роботс будет в этом посте, или вы
можете подписаться на обновления по электронной почте и узнать об этом, в любое
для вас удобное время.
Если желаете полностью закрыть сайт от индексации, то в Настройках, выбираем Основные и Конфедициалность и полностью запрещаем бывать поисковым ботам, на нашем сайте.