Автор Тема: Не учитывает robots.txt  (Прочитано 12528 раз)

basusek

  • Новичок
  • Сообщений: 1
    • Просмотр профиля
Re: Не учитывает robots.txt
« Ответ #15 : 29.10.2020, 14:12:37 »
Программа не учитывает robots, пробовал также локальный использовать.
Robots.txt
User-Agent: *
Disallow: */index.php
Disallow: /bitrix/
Disallow: /*show_include_exec_time=
Disallow: /*show_page_exec_time=
Disallow: /*show_sql_stat=
Disallow: /*bitrix_include_areas=
Disallow: /*clear_cache=
Disallow: /*clear_cache_session=
Disallow: /*ADD_TO_COMPARE_LIST
Disallow: /*ORDER_BY
Disallow: /*PAGEN
Disallow: /*?print=
Disallow: /*&print=
Disallow: /*print_course=
Disallow: /*?action=
Disallow: /*&action=
Disallow: /*register=
Disallow: /*forgot_password=
Disallow: /*change_password=
Disallow: /*login=
Disallow: /*logout=
Disallow: /*auth=
Disallow: /*backurl=
Disallow: /*back_url=
Disallow: /*BACKURL=
Disallow: /*BACK_URL=
Disallow: /*back_url_admin=
Disallow: /*?utm_source=
Disallow: /*?bxajaxid=
Disallow: /*&bxajaxid=
Disallow: /*?view_result=
Disallow: /*&view_result=
Allow: /bitrix/components/
Allow: /bitrix/cache/
Allow: /bitrix/js/
Allow: /bitrix/templates/
Allow: /bitrix/panel/

Программа сканирует страницы типа
/news/?filter[DISTRICT]=2&PAGEN_1=2&PAGEN_1=4
 
из-за этого уходит в бесконечность..

Sterh

  • Page Weight
  • Завсегдатай
  • *****
  • Сообщений: 124
    • Просмотр профиля
Re: Не учитывает robots.txt
« Ответ #16 : 12.11.2020, 12:44:14 »
Вероятно просто забыли указать в настройках сканирования опцию "Использовать robots.txt". По умолчанию стоит "Не использовать"