[Помогите] Вопрос про вордпресс и технические дубли страниц.

Тема в разделе "Wordpress", создана пользователем 2kw, 16 ноя 2020.

  1. 2kw

    2kw

    Регистрация:
    10 окт 2013
    Сообщения:
    2
    Симпатии:
    0
    Здравствуйте друзья! Нужен совет. Ситуация в следующем:

    Сайт на вордпресс, вордпресс, как известно создает кучу дублей страниц, совершенно по разному поводу, к чему это приводит всем (все) понятно.

    Я так понимаю лечится это "костылями" дополнительно прописываемыми в файле htaccess или еще возможно где то, где я не знаю.

    Сайт расположен: (Для данного сайта веб сервер работает в связке nginx+apach Версия apache Server version: Apache/2.4.6 (CentOS)

    .

    Очень прошу, накидайте "костылей", которые можно прописать в htaccess, чтобы эти проблемы ушли, или подскажите, что нужно еще сделать. У меня малый опыт в этом (Буду благодарен к объяснению зачем нужен тот или иной "костыль". Спасибо вам огромное).


    И еще второй вопрос. Я делаю этот сайт в DIVI (не осуждайте, просто меня не хватает на большее). Что заметил - появляются дубли страниц следующего вида: https://сайт.ру/любая страница второго уровня/?et_fb=1&et_bfb=1&PageSpeed=off

    Это вообще что и как с этим бороться? Спасибо.
     
  2. $iD

    $iD Команда форума

    Регистрация:
    13 мар 2012
    Сообщения:
    3.580
    Симпатии:
    1.482
    мне кажется что вам просто нужен robots.txt поправить, а дальше просто ждать пока поисковики перестанут индексировать такие страницы.

    А про то, что есть техническая возможность посмотреть можно забыть... ведь главная проблема это проблема с поисковиками
     
  3. web2us

    web2us

    Регистрация:
    10 мар 2013
    Сообщения:
    18
    Симпатии:
    1
    причем тут роботс

    вам мил человек нужно урлы починить, запрет для поисковиков на определенные страницы
     
  4. $iD

    $iD Команда форума

    Регистрация:
    13 мар 2012
    Сообщения:
    3.580
    Симпатии:
    1.482
    зачем?

    как я понял основная (нормальная) ссылка работает, значит нужно просто спрятать от поисковиков дубликаты.
     
  5. web2us

    web2us

    Регистрация:
    10 мар 2013
    Сообщения:
    18
    Симпатии:
    1
    в роботе все страницы перечислять - утопия, проще программно
    так же у него страницы со служебной инфой, типа UTM, от этого не избавиться, она для таргетинга нужна
     
  6. $iD

    $iD Команда форума

    Регистрация:
    13 мар 2012
    Сообщения:
    3.580
    Симпатии:
    1.482
    не все страницы, а все маски страниц дубликатов в disallow добавить, это тоже самое что писать регулярку в .htaccess
     
  7. Bnopen

    Bnopen Команда форума

    Регистрация:
    3 мар 2013
    Сообщения:
    1.264
    Симпатии:
    534
    2kw, лечится это seo плагинами, там же можно настроить и 301 редиректы. WP создает не больше других CMS дублей страниц. Просто нужно понимать какая структура и фиксить.