Модуль MetaRobots v.1.0 для DLE

Модуль MetaRobots v.1.0 для DLE dlepro.com

Модуль MetaRobots от DLEPro.com предназначен для управления метатегом robots на страницах сайтов построенных на CMS DataLife Engine. Данный метатег позволяют контролировать сканирование и индексирование страниц и контента вашего сайта поисковыми системами.
« Комментарии

Похожие анонсы

Модуль Sape v.4.1 для CMS DataLife Engine @ 30.10.2010 13:28
Модуль Sape - это возможность без правки файлов движка сайта установить коды ведущей биржи купли-продажи ссылок - Sape на CMS DataLife Engine и теперь после обновления скрипта Вам не придётся каждый раз переустанавливать коды и вы можете использовать бесплатную Demo(закодированную) версию DataLife Engine для заработка в Sape. Сайт разработчика: dlepro.com
Модуль Tracker for DLE (DLE+XBT) v.2.0 Final Release @ 04.12.2010 20:24
Tracker for DLE (DLE+XBT) v.2.0 - полноценный торрент-трекер на CMS DataLife Engine. Данный модуль добавляет к вашему сайту на CMS DataLife Engine функционал полноценного торрент-трекера на основе аннонсера XBTT.
Модуль LogicBoard (DLE Edition) v.2.0 - форум для DLE @ 20.07.2011 12:54
LogicBoard (DLE Edition) - это модуль для создания полноценного форума на сайте под управлением CMS DataLife Engine. Основное отличие модуля от движка форума в том, что модуль использует общую базу данных пользователей и тесно интегрирован с движком DLE.
Настройка безопасности DLE (DataLife Engine). @ 26.04.2012 13:44
Настройка безопасности DLE (DataLife Engine), очень важна для вашего сайта или блога. Продолжение темы: Как настроить DLE (DataLife Engine).
Правильный robots.txt. Пример файла robots.txt для Wordpress @ 19.03.2012 17:51
Sitemap.xml и robots.txt – это два обязательных документа, которые способствуют быстрому и полноценному индексированию страниц сайта поисковыми системами. Правильная индексация сайта в Яндексе и Google – залог успешного продвижения. Сейчас давайте поговорим о том, как создать правильный robots.txt для сайта на WordPress и для чего он вообще нужен.
Файл robots.txt. Что это такое и как его правильно составить? @ 30.08.2011 08:04
Файл robots.txt - это файл ограничения доступа к содержимому поисковыми роботам на http-сервере. Данный файл не является обязательной составляющей сайта. Его может вообще и не быть. Но если Ваш сайт имеет какие-то скрытые страницы или файлы, которые Вы хотите закрыть их от индексации поисковыми системами, тогда файл robots.txt Вам просто необходим.
Строим сайт на DATALIFE ENGINE @ 11.07.2013 09:12
Видеокурс посвящен разработке профессиональных сайтов на системе управления сайтом (CMS) Datalife Engine v9. Этот практический курс простой и понятный и даст Вам только необходимые и нужные знания, что позволит создавать сайты практически любой сложности в максимально короткие сроки.
Все о файле robots.txt @ 18.04.2012 08:04
Как создать файл robots.txt его структура. Правильный robots.txt для wordpress. Robots.txt способствует правильной индексации сайта поисковыми системами, для этого его необходимо грамотно составить и закрыть все ненужные разделы сайта.
Модуль для Yeastar MyPBX 400 SO @ 30.04.2011 21:37
Описание Модуль для Yeastar MyPBX 400 SO:Модуль для Yeastar MyPBX 400 SO используется при подключении внешней телефонной линии и с 1-м портом FXS для подключения аналогового телефона. Модуль имеет уникальную резервную функцию! Переключается в режим «Моста» при неработоспособности системы, соединяя напрямую аналоговый телефон с внешней телефонной линией. Предназначен для работы с IP-АТС...
Как создать правильный robots.txt @ 21.11.2011 16:40
Сегодня речь пойдет о файле robots.txt, основная функция которого скрытие страниц от индексации поисковыми роботами. Запрещать индексацию некоторых страниц нужно для отсутствия дублей контента и ненужных страниц в индексе поисковиков. Создать robots.txt можно даже в обычном блокноте, после заполнения файла директивами (речь о них пойдет дальше) файл robots.txt нужно выгрузить в корень сайта.

Спонсоры

Авторизация

Имя:
Пароль:
 

Друзья проекта

Активность на сайте