Страницы

09 октября 2013

Инструменты Google для веб-мастеров и файл robots.txt

Инструменты для веб-мастеров

Добавление поддомена в аккаунт инструментов Google для веб-мастеров, так же как и домена, прошло успешно, однако Google обнаружил серьезные ошибки, связанные с состоянием сайта. До этого с поддоменом возникали трудности при обновлении WordPress, теперь сайт возвратил ошибку в ответ на запрос файла robots.txt:

Internal Server Error
The server encountered an internal error or misconfiguration and was unable to complete your request.
Please contact the server administrator, and inform them of the time the error occurred, and anything you might have done that may have caused the error.
More information about this error may be available in the server error log.
Additionally, a 500 Internal Server Error error was encountered while trying to use an ErrorDocument to handle the request.
Внутренняя ошибка сервера
На сервере произошла внутренняя ошибка, и он не смог выполнить ваш запрос.
Пожалуйста, свяжитесь с администратором сервера, для сообщения о времени и возможной причине совершения ошибки.
Более подробная информация об этой ошибке может быть доступна в журнале ошибок сервера.
Кроме того, внутренняя ошибка сервера 500 обнаружена при попытке использовать ErrorDocument для обработки запроса.

       Создается впечатление, что эти проблемы возникают именно из-за наличия поддомена. При клике на ссылку ошибки «Дополнительные сведения» аккаунта инструментов, переходим в раздел Конфигурация сайта - доступ для сканера. Далее предлагается изменить или создать файл robots.txt.
      Почитав справку, выяснил, что файл robots.txt ограничивает доступ роботов, сканирующих интернет для поисковых систем, к сайту. Перед обращением к страницам сайта эти роботы автоматически ищут файл robots.txt, который запрещает им доступ к определенным страницам. Роботы наиболее распространенных поисковых систем выполняют директивы файла robots.txt. Некоторые роботы могут интерпретировать их иначе. Однако файл robots.txt не является обязательным для исполнения, и некоторые спамеры и другие злоумышленники могут его игнорировать. Поэтому рекомендовано защищать конфиденциальную информацию паролем.
      Файл robots.txt необходим только в том случае, если на вашем сайте есть содержание, которое не следует включать в индекс поисковых систем. Если вы хотите, чтобы поисковые системы включали в свои индексы все содержание вашего сайта, файл robots.txt (даже пустой) не требуется. Чтобы использовать файл robots.txt, необходимо иметь доступ к корневому каталогу вашего домена.
       Таким образом, я так и не понял, какие серьезные ошибки, связанные с состоянием сайта, обнаружил Google, если в общем случае файл robots.txt даже не требуется.
       Попробую подтвердить право собственности на домен (а не поддомен) с помощью записи DNS, что бы иметь контроль над всеми его поддоменами. Хотя чем мне мешает существующая «серьезная ошибка» тоже непонятно.

Комментариев нет:

Отправка комментария