sitemap.xml 1.5.5.1 дубликаты товаров. Правильно ли это?

Тема в разделе "OpenCart", создана пользователем halfhope, 6 апр 2013.

  1. halfhope

    halfhope

    Регистрация:
    31 дек 2012
    Сообщения:
    284
    Симпатии:
    309
    Разбирался с 1.5.5.1, нашел в controller/feed/google_sitemap.xmlphp код, который повторяет вывод товаров товары.
    Сначала он выполняет функцию getCategories, в котором выполняется добавление категорий, потом(в этой же функции) добавляются товары:
    PHP:
    $this->url->link('product/product''path=' $new_path '&product_id=' $product['product_id'])
    после этого
    PHP:
    $this->url->link('product/product''product_id=' $product['product_id'])
    потом еще
    PHP:
    $this->url->link('product/product''manufacturer_id=' $manufacturer['manufacturer_id'] . '&product_id=' $product['product_id'])
    главную страницу в индекс разработчик так и не добавил, зато в sitemap.xml вместо 3596 ссылок стало 13237.
    Правильно ли это. Как поисковая система может на это отреагировать?
     
    kupriychukpasha нравится это.
  2. Bnopen

    Bnopen Команда форума

    Регистрация:
    3 мар 2013
    Сообщения:
    1.264
    Симпатии:
    534
    halfhope, это вроде бы то что есть проблема с дублями ссылками на продукт в ОС - с категорией в урле и без.
    В обще дубли это плохо - т.к. на один товар у вас несколько ссылок и страниц в индексе, например, юзеры будут где-то оставлять ссылки на страницу (может даже в своих блогах) на товар под одной ссылке, а вы будете продвигать в сапе совсем другой урл (без категории, например) - так что это безсмыслено.
    Про дубли страниц и реакцию поисковиков на них можете почитать -

    Вредны ли дубли страниц?
    Итак, если рядовой пользователь даже не сможет заметить наличие дублей на вашем сайте, то поисковики это сразу определят. Какой реакции от них ждать? Так как по сути копии поисковые роботы видят как разные страницы, то контент на них перестает быть уникальным. А это уже негативным образом сказывается на ранжировании.

    Также наличие дублей размывает ссылочный вес, который оптимизатор пытался сосредоточить на целевой странице. Из-за дублей, он может оказаться совсем не на той странице, на которую его хотели перенести. То есть эффект от внутренней перелинковки и внешних ссылок может многократно снизиться.

    В подавляющем большинстве случаев в возникновении дублей виноваты CMS – из-за неправильных настроек и отсутствия должного внимания оптимизатора генерируются четкие копии. Этим грешат многие CMS, например, Joomla. Для решения проблемы трудно подобрать универсальный рецепт, но можно попробовать воспользоваться одним из плагинов для удаления копий.

    Возникновение же нечетких дублей, в которых содержимое не полностью идентично, обычно происходит по вине вебмастера. Такие страницы часто встречаются на сайтах интернет-магазинов, где страницы с карточками товаров отличаются лишь несколькими предложениями с описанием, а весь остальной контент, состоящий из сквозных блоков и прочих элементов, одинаковый.

    Многие специалисты утверждают, что небольшое количество дублей не повредит сайту, но если их больше 40-50%, то ресурс при продвижении могут ждать серьезные трудности. В любом случае, даже если копий не так много, стоит заняться их устранением, так вы гарантированно избавитесь от проблем с дублями.

    Отсюдава -
     
    halfhope нравится это.
  3. SkyLine

    SkyLine

    Регистрация:
    26 сен 2012
    Сообщения:
    341
    Симпатии:
    633
    сударь, расскажите мне пожалуйста, как убрать дубли в opencart версии 1.5.4.1. какое решение мне применить, судя по вашему тексту вы знаток в этой сфере. дайте пожалуйста такой же развернутый ответ на мой вопрос как вы сделали это чуть выше. заранее спасибо.
     
  4. Bnopen

    Bnopen Команда форума

    Регистрация:
    3 мар 2013
    Сообщения:
    1.264
    Симпатии:
    534
    SkyLine, вряд ли я могу дать столь развернутый ответ, как в моем предыдущем посте, где большая часть поста копипаст с сеопульта)))
    Про дубли страниц в любой cms и в Opencart есть много инфы и как с этим бороться много пишут. Например, для гугла есть тег rel=canonical -
    http://devaka.ru/articles/link-rel-canonical
    убирают и дубли с сайтмапа + чпу -
    http://forum.opencart.ua/viewtopic.php?f=5&t=120
    Но я для 1.5.4.1 - выбрал самое простое - это seo pro, где в урле прописывается всегда категория товара, и для этой ссылки указывается rel="canonical".
    то есть в магазине теперь когда заходишь или с главной или с производителя или с категории всегда урл site.ru/category/item-123, а при вводе site.ru/item-123 редиректит на все ту же страницу site.ru/category/item-123.
    И кормить гугла можно картой только с категориями.
    Могу сказать, что работал с сайтом на оскомерсе - там была такая беда, что в индекс попадали страницы с уникальным идентификатором сессии. Где-то в настройках коммерса это опцию поставили и получается, что одна страница была в индексе по нескольким ссылкам типа site.ru/cat/item?3wew3dkmsdkmkkksd И site.ru/cat/item?sdfsdfsdfsfsf после этого сайт просел в гугле по всем запросам, которые вели и на разделы и на товары - остались на прежних местах только слова, которые продвигались на главной странице. После удаления косяка этого и переиндексации через некоторое время гуглом все вернулось на свои места. Так что проблема с дублями - это не мелочь и на нее сразу необходимо обратить внимание.
     
  5. Florenco

    Florenco

    Регистрация:
    3 мар 2013
    Сообщения:
    220
    Симпатии:
    102
    Тип ЧПУ SeoPro включите. А из файла sitemap можно вырезать лишние генерации.
     
    halfhope нравится это.