Анонсы с пометкой «robots.txt»

Как создать Карту сайта?

Блогосфера Как создать Карту сайта?

И так мы продолжаем разбирать самые популярные плагины для блога на движке WordPress. Вернее будет сказать, плагины которые вам понадобятся в первую очередь. Сегодня речь пойдет о чрезвычайно полезном плагине Dagon Design Sitemap Generator, а предназначен он для создания «карты сайта» на вашем блоге. Обсудить »
 Пример моего robots.txt для хорошей индексации яндексом

Блогосфера Пример моего robots.txt для хорошей индексации яндексом

Скачать robots.txt этот запрос в поисковых системах в свое время я писал не один раз и при этом встречал варианты скачивания генераторов программ, но не конкретно примера файла ни собственно самого robots.txt. не находил. Поэтому я решил создать свой пост по этой теме и привести здесь пример своего робтс файла, дабы облегчить задачу новичкам, которые ищут пример файла для своего сайта. Обсудить »
Продвижение сайта и заработок на нём

Деньги и работа Продвижение сайта и заработок на нём

Блог о том, как заработать в интернете. Создание сайтов и как на этом заработать. Здесь вы прочитаете, как получить хороший контент: написать самому; воспользоваться услугами копирайтера; научится сканировать; переводить тексты; а можно воспользоваться креативным подходом. Обсудить »
Robots.txt для WordPress или давайте дружить с поисковиками

SEO/SMO Robots.txt для WordPress или давайте дружить с поисковиками

Рано или поздно перед каждым блоггером встает вопрос – «Что писать в robots.txt и нужен ли он вообще?». На днях и я задался этим вопросом. По-поводу нужен или нет тут у меня не возникало ни каких сомнений. Нужен в обязательном порядке, особенно если это касается блогов и в частности движка WordPress. Этому есть три очень веских основания. Но перед тем как я их изложу давайте пройдемся по теории... Обсудить »
Файл robots.txt – важная часть блога

SEO/SMO Файл robots.txt – важная часть блога

Написал статью по файлу robots.txt, который отвечает за индексацию Вашего блога или сайта. Можете прочитать ее прямо сейчас, это как бы продолжение статьи про АГС. Для большего понимания сначала читайте про АГС. Обсудить »
Шутки в Robots.txt

Шутки в Robots.txt

Три примера шуточных «пасхальных яиц» в файле robots.txt. Обсудить »
Гугл то не всегда соблюдает свои правила!

SEO/SMO Гугл то не всегда соблюдает свои правила!

Гугл пишет правила для нас, но он сам в праве решать следить за ними или нет. В новости описано как гугл отошёл от своих правил. Обсудить »
Robots.txt для новый wordpress-блогов как средство от соплей

SEO/SMO Robots.txt для новый wordpress-блогов как средство от соплей

Создал новый блог, но проблемы с поисковиками? Весь блог оказался в "соплях" гугла? Не буда! Ведь все проблемы можно решить, а если на Вашем новом блоге нет роботс.тхт, то тоже советую почитать Обсудить »
настройка robots.txt и плагина sitemap generator

SEO/SMO настройка robots.txt и плагина sitemap generator

Знаю, статей на эту тему много, по этому решил сделать пост уникальным ;) Обсудить »
17 основных SEO-заблуждений

SEO/SMO 17 основных SEO-заблуждений

Сегодня я решил перечислить и кратно описать основные заблуждения по теме поисковой оптимизации. Некоторые из них уже знакомы для вас, но, возможно, о каких-то вы узнаете впервые. В любом случае подобной систематизации этих аспектов я нигде не встречал. Так что давайте вместе попробуем разобраться и выяснить, какие же все-таки заблуждения являются наиболее популярными? Обсудить »
Robots.txt для WordPress.

SEO/SMO Robots.txt для WordPress.

Поисковики не любят когда их забивают "мусором", поэтому часть страниц нужно закрывать от индексации. Если вы юзаете WordPress то эта статья для вас! Я расскажу как составить правильный robots.txt для WP. Обсудить »
Яндекс вводит новую директиву Clean-param для robots.txt

SEO/SMO Яндекс вводит новую директиву Clean-param для robots.txt

Если адреса страниц вашего сайта содержат динамические параметры которые не влияют на их содержимое (например идентификаторы сессий, пользователей, рефереров и т.п.), вы можете описать их при помощи директивы Clean-param. Робот Яндекса, используя эту информацию, не будет многократно перезакачивать дублирующуюся информацию. Обсудить »

Спонсоры

Авторизация

Имя:
Пароль:
 

Друзья проекта

Активность на сайте