Как создать robots.txt в ManageEngine ServiceDesk

Как создать robots.txt в ManageEngine ServiceDesk

ManageEngine ServiceDesk logoДобрый день! Уважаемые читатели и гости одного из крупнейших IT блогов по системному администрированию Pyatilistnik.org. В прошлый раз мы с вами успешно разобрали настройку оборудования Mikrotik и тестирование его пропускной способности в нашей локальной сети через утилиту Iperf. В сегодняшней заметке мы немного поговорим про сео. а именно разберемся как запретить поисковым системам индексировать ваши корпоративные ресурсы выставленные на внешнем адресе, покажу я это на примере системы ManageEngine ServiceDesk 11.

Для чего нужен файл Robots.txt

О том, что из себя представляет файл robots.txt, я подробно рассказывал по ссылке слева. Если в двух словах, то это специальный файл, который дает рекомендации для поисковых роботов, как нужно взаимодействовать с сайтов, что нужно индексировать и в дальнейшем отображать в поисковой выдачи (Например Google или Яндекс), а что нет.

Делается это по ряду причин:

  • Удаляются дубликаты страниц сайта - это нужно для того, чтобы поисковые системы не тратили свои мощности впустую, никому не нужны одни и те же страницы с идентичным содержимым по сотне разных адресов
  • У вас есть возможность запретить к индексированию как отдельных частей, разделов сайта. так и его полное индексирование. Делается, это для того, чтобы нельзя было найти в поисковой строке ссылку на вас. В моем случае, это и есть основная задача.

Куда подкладывать файл robots.txt в ManageEngine ServiceDesk

Поисковые роботы находят файл robots.txt по стандартному пути:

Адрес сайта\robots.txt например http:\\pyatilistnik.org\robots.txt

Вот вам пример моего файла robots.txt.

пример robots.txt на pyatilistnik.org

Если вы попытаетесь посмотреть файл robots.txt на своем ManageEngine ServiceDesk, то получите "404 ошибку. К сожалению, запрашиваемая страница не существует". Давайте это поправим.

404 ошибка в ManageEngine ServiceDesk

Если у вас ManageEngine ServiceDesk 9.4 и старее, то вам необходимо положить файл robots.txt в расположение:

C:\ManageEngine\ServiceDesk\webapps\ROOT

Копирование файла robots.txt в ManageEngine ServiceDesk 9.4

Если у вас ManageEngine ServiceDesk выше чем 9.4, то путь будет вот такой:

C:\ManageEngine\ServiceDesk\applications\ extracted\AdventNetServiceDesk.eear\AdventNetServiceDeskWC.ear\ AdventNetServiceDesk.war

Копирование файла robots.txt в ManageEngine ServiceDesk 11

Еще хочу отметить, что ранее я обновлялся с ManageEngine ServiceDesk 9.3 до 11007 и мне пришлось подкладывать файл по первому пути (C:\ManageEngine\ServiceDesk\webapps\ROOT), так как папки applications у меня не было, это то же нужно учитывать, если же у вас была чистая установка, то пути будут неизменны.

После того, как файл помещен в нужное расположение вам необходимо открыть PowerShell и перезапустить службу ManageEngine ServiceDesk через команду:

Get-Service servicedesk | Restart-Service

Перезапуск службы ManageEngine ServiceDesk

Пробуем посмотреть появился ли наш файл robots.txt, в моем примере все отлично, я вижу что он есть и он запрещает полную индексацию.

User-agent: *
Disallow: /

Успешно установленный robots.txt в ManageEngine ServiceDesk

Как видите все очень просто и у вас есть возможность выбирать и задавать явным образом общение вашего ресурса с поисковыми роботами. На этом у меня все, с вами был Иван Семин, автор и создатель IT портала Pyatilistnik.org.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *