Помогите с продвижением!

Тема в разделе "Поисковые системы", создана пользователем serrty, 9 июн 2015.

  1. Dotrox

    Dotrox Команда форума

    Регистрация:
    27 ноя 2012
    Сообщения:
    2.051
    Симпатии:
    778
    Принцип такой (действует для всех поисковиков в большей или меньшей степени): все ссылки/страницы, которые не должны учитываться поисковиками закрываем в роботсе (в случае одинаковой структуры, как с name - по шаблону). На все ссылки, у которых есть версии, которые должны учитываться поисковиками обязательно ставим 301й редирект. И дальше просто ждём. На полное обновление индекса может уйти до трёх месяцев. У Гугла результат должен стать виден быстрее, чем у Яндекса.

    Ещё не плохо было бы завести файл sitemap.xml, чтоб все "правильные" ссылки индексировались быстрее.

    Если где-либо на страницах сайта есть ссылки, которые поисковики не должны учитывать, но по техническим причинам эти ссылки должны быть и их нельзя привести к виду, который можно скормить поисковикам, надо поставить на эти ссылки nofollow.
     
  2. serrty

    serrty

    Регистрация:
    9 июн 2015
    Сообщения:
    76
    Симпатии:
    0
    спасибо, я вас понял, только закрыть в роботсе, можно только для яндекса, что и сделано чейчас, если сделать это для гугла то он их не будет сканировать но все равно впишет в индекс, мне так на формуме отвечали, для него, есть noindex что тоже стоит, теперь поставлю риректы, получается на те же страницы что закрыты в яндексе, а вы не датите мне правильный редирект, чтобы эта страница http:/eto-zhizn.ru/kak-pravilno-gotovit-chtobi-sohranit-vitamini.php?name=%D0%9A%D0%B0%D0%BA%D0%B0%D1%8F%20%D1%82%D0%B5%D1%85%D0%BD%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%8F%20%D0%BF%D1%80%D0%B8%D0%B3%D0%BE%D1%82%D0%BE%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F%20%D0%BF%D0%B8%D1%89%D0%B8,%20%D1%87%D1%82%D0%BE%D0%B1%D1%8B%20%D1%81%D0%BE%D1%85%D1%80%D0%B0%D0%BD%D0%B8%D1%82%D1%8C%20%D0%B2%D0%B8%D1%82%D0%B0%D0%BC%D0%B8%D0%BD%D1%8B%20%D0%B2%20%D0%B5%D0%B4%D0%B5? перебрасывала на эту http:/eto-zhizn.ru/kak-pravilno-gotovit-chtobi-sohranit-vitamini.php


    и еще это я то сделаю , но вот таких дублей, у меня штук 50-60, а в гугле показывает найдено с параметром name 167 штук, их значительно больше, как быть?

    я вот подумал, наверное редиректы не помогут, все таки нужно изменить настройки в веб мастере гугл, так как он по ним обрабатывает, то о чем я писал раннее, тут есть вопрос там где найден мой параметр, где я говорил можно применить опцию "только url со значением", там внизу есть список какие url робот просканировал в последнее время, но эти url, там висят уже довольно долго, так вот один из этих url нужно оставить с этим параметром дргугие же нет, можно было бы указать, вот только это не все адресса, если бы были показаны все страницы, да и только один url можно указать, вы заходили в эту опцию, не знаете как с ней нужно работать?
     
    Lasted edited by : 15 июн 2015
  3. serrty

    serrty

    Регистрация:
    9 июн 2015
    Сообщения:
    76
    Симпатии:
    0
    тут еще проблема возникла написал редирект а он почему то не работает?
    <?php
    if(!isset($_GET['name']))
    {
    echo "<meta name='robots' content='nofollow,noindex' />";
    header("HTTP/1.1 301 Moved Permanently");
    header("Location: http://eto-zhizn.ru/allergia-na-edu...%E3%E8%FF%20%ED%E0%20%EF%F0%EE%E4%F3%EA%F2%FB");
    die("Redirect");
    }
    else
    {
    $name=$_GET['name'];
    if($name=='Аллергия на продукты"');
    {
    echo "<meta name='robots' content='nofollow,noindex' />";
    header("HTTP/1.1 301 Moved Permanently");
    header("Location: http://eto-zhizn.ru/allergia-na-edu...%E3%E8%FF%20%ED%E0%20%EF%F0%EE%E4%F3%EA%F2%FB");
    die("Redirect");
    }
    }
    ?>


    вот что отвечает:
    Firefox определил, что сервер перенаправляет запрос на этот адрес таким образом, что он никогда не завершится.

    Эта проблема может возникать при отключении или запрещении принятия кук.
     
  4. Dotrox

    Dotrox Команда форума

    Регистрация:
    27 ноя 2012
    Сообщения:
    2.051
    Симпатии:
    778
    В отличии от Яндекеса, у Гугла есть два индекса, а точнее индекс разделён на две части: выдача и полный индекс. Основная задача, чтоб в выдаче были все необходимые страницы сайта и не было лишних. Если выдача фильтруется на основе наших указаний (правил в роботсе, редиректов) - не имеет значения, что дополнительно попадает в полный индекс.
    Если странице нет в выдаче, но есть в полном индексе - это называется, что страница под фильтром. Есть мнение, что чем меньше страниц под фильтром, тем лучше. Но добиться, чтоб на сайте были только страницы, которые должны все быть в выдаче - невозможно практически во всех случаях, разве что сайт состоит из набора статических html файлов. Так что не стоит об этом волноваться. Главное, чтоб в выдаче всё было правильно.


    Я же дал редирект, который должен сработать сразу для всех подобных страниц. Я не уверен на 100%, что он сработает, возможно придётся немного подправить, но нужно протестировать для начала.


    Могут быть страницы, где есть ещё какие-то параметры. Любой вариант комбинации параметров воспринимается поисковиками как новая страница.
    Вот это всё для поисковиков - три разные страницы:
    ?name=1
    ?name=1&a=2
    ?name=1&a=2&b=3



    Потому что бредовый код абсолютно :Smile:
    Что он делает: если в ссылке нет параметра name, он редиректит на ссылку с ним, если в ссылке есть параметр name... он всё равно редиректит на ссылку с ним :Smile:

    Вот правильный код:
    PHP:
    if(isset($_GET['name'])){
    header("HTTP/1.1 301 Moved Permanently");
    header("Location: http://".$_SERVER['SERVER_NAME'].$_SERVER['PATH_INFO']);
    exit();
    }
    Всё остальное лишнее. Код будет работать на всех страницах сайта без дополнительных правок. Если нужно удалить параметр name, но сохранить любые другие, тогда уже код будет посложнее.
     
  5. serrty

    serrty

    Регистрация:
    9 июн 2015
    Сообщения:
    76
    Симпатии:
    0
    if(isset($_GET['name'])){header("HTTP/1.1 301 Moved Permanently");header("Location: http://".$_SERVER['SERVER_NAME'].$_SERVER['PATH_INFO']);
    exit();


    да вы не так поняли, мне нужен редирект в htasses, то что вы мне дали, он же будет работать для всех страниц где есть name, мне нужно 40 страниц с этим параметром оставить все же, а остальные вот убрать вот и и буду каждый адресс писать, понимаю что много выйдет кода, но если другой вариант одной строчкой кода чтобы выбросить те которые нужно выбросить

    а про этот редирект
    <?php
    if(!isset($_GET['name']))
    {
    echo "<meta name='robots' content='nofollow,noindex' />";
    header("HTTP/1.1 301 Moved Permanently");
    header("Location: http://eto-zhizn.ru/allergia-na-edu...%E3%E8%FF%20%ED%E0%20%EF%F0%EE%E4%F3%EA%F2%FB");
    die("Redirect");
    }
    else
    {
    $name=$_GET['name'];
    if($name=="Аллергия на продукты"');
    {
    echo "<meta name='robots' content='nofollow,noindex' />";
    header("HTTP/1.1 301 Moved Permanently");
    header("Location: http://eto-zhizn.ru/allergia-na-edu...%E3%E8%FF%20%ED%E0%20%EF%F0%EE%E4%F3%EA%F2%FB");
    die("Redirect");
    }
    }
    ?>

    с этим кодом я сам резбирусь, я имел ввиду, если не существует переменная то перебрасывать с name параметром, если же существует, то если параметр name=Аллергия на еду", то перекидываем то же с параметром только другим, если же name не будет равен этому значению то и никакого редиректа не должны быть, но почему то не работает, во что я хотел))

    и еще спросить хочу, я там
    echo "<meta name='robots' content='nofollow,noindex' />"; перед редиректом втавил, можно так?, чтобы гугл знал что не нужно индексировать а потом сразу перебрасывал , я вставляю в haed правильно или нужно в самом верху документа, если да, то тогда где же прописать echo "<meta name='robots' content='nofollow,noindex' />"; его же в head нужно?


    ?name=1
    ?name=1&a=2
    ?name=1&a=2&b=3

    таких параметров у меня нет точно знаю! почему я вставляю код echo "<meta name='robots' content='nofollow,noindex' />" потому что есть уже некоторые редиректы от дублей, но гугл их не выкидывает, во я и думаю может ему это прописать перед переброской.


    я повторюсь, что мне не все страницы нужно выкнуть с name я в примере писал код чтобы эта страница http:/eto-zhizn.ru/kak-pravilno-gotovit-chtobi-sohranit-vitamini.php?name=%D0%9A%D0%B0%D0%BA%D0%B0%D1%8F%20%D1%82%D0%B5%D1%85%D0%BD%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%8F%20%D0%BF%D1%80%D0%B8%D0%B3%D0%BE%D1%82%D0%BE%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F%20%D0%BF%D0%B8%D1%89%D0%B8,%20%D1%87%D1%82%D0%BE%D0%B1%D1%8B%20%D1%81%D0%BE%D1%85%D1%80%D0%B0%D0%BD%D0%B8%D1%82%D1%8C%20%D0%B2%D0%B8%D1%82%D0%B0%D0%BC%D0%B8%D0%BD%D1%8B%20%D0%B2%20%D0%B5%D0%B4%D0%B5? перебрасывала на эту http:/eto-zhizn.ru/kak-pravilno-gotovit-chtobi-sohranit-vitamini.php

    понимаете я вручную буду отбирать каждую страницу, например вот этот адресс http://eto-zhizn.ru/pravilnoe-soblu...FE%E4%E0%F2%FC%20%F0%E5%E6%E8%EC%20%E4%ED%FF? явлеется один из сорока в которых я хочу оставить name:smile:
    --- Добавлено, 15 июн 2015 ---
    вы же сказали закрывать и делать редиректы я так и хочу сделать но не для всех name а для определенных, в робосте я не закрываю
    --- Добавлено, 15 июн 2015 ---


    ничего не понял, в интернете есть много информации об этом, что сопли это плохо, да у меня было бы все чисто в выдаче, если бы я не закосячил кодга перелинковку, делал с параметрами и еще раз с параметрами там, где они не нужно, он быстро все просканировал, а теперь держит зараза все у себя, вы пишите что после указаний редиректов, а их допустим я и сделаю, то страницы попадут мои в полный индекс, и будут под фильтром, значит прощайте эти страницы?, на формумах я несколько раз спрашивал про одно и то же, они говорят что роботс не означает что гугл не будет включать их в индекс, а чем плохо если я хочу без соплей, или в каком еще там индексе?

    я бы попросил вас писать, простыми словами пожайлуста, а то мало чего понятно, лучше примерами))
    --- Добавлено, 15 июн 2015 ---
    а когда тогда уменьшаться дубли если я знаю что у меня на сайте 225 страниц с контентом а вот гугл пишет что 314?
    --- Добавлено, 15 июн 2015 ---
    параметр name я уже не буду удалять, потому что ссылки есть и они будут в индексе, но не в выдаче все равно не хочу, тем более я сейчас у яндекса избавлясь от количества загруженных дублями страницы, а он их еще потом загрузит
    --- Добавлено, 15 июн 2015 ---
    извиняюсь за морочиние головы, но дошло до меня этот вод код
    if(isset($_GET['name'])){header("HTTP/1.1 301 Moved Permanently");header("Location: http://".$_SERVER['SERVER_NAME'].$_SERVER['PATH_INFO']);
    exit();
    }

    я ведь могу на каждой страницы его в этих дублях прописать, просто ну пропишу я в 55 страницах, где мне оствльные дубли искать, где можно увидеть адресса дублей и продолжить закрыть их?, оператор site:eto-zhizn.ru не помогает, он вообще непонятно что выдает выдает что все без дублей почти, а так 314)))

    ну мне что на каждой страницы вставлять этот редирект а noindex надо вставлять или как, ? и где в head или в самом верху перед доктайпом?
    --- Добавлено, 15 июн 2015 ---
    вот по вашим словам, мне нужно сохранить параметры name на определенных страницах, а остальные же все выбросить, как то так))
     
  6. Dotrox

    Dotrox Команда форума

    Регистрация:
    27 ноя 2012
    Сообщения:
    2.051
    Симпатии:
    778
    Для .htaccess я тоже редирект давал. Если нужно, чтоб часть страниц с name не редиректилась и ссыки на них имеют одинаковую структуру, тогда нужно все редиректы прописывать вручную для каждой страницы в отдельности. Если структура разная, нужно добавить дополнительные условия в правила редиректа.

    Гугл этого всё равно не узнает. Заголовок читается до получения тела страницы, а метатеги в теле. И это в любом случае не имеет смысла. 301й редирект говорит Гуглу о том, что страницы там больше вообще нет и надо её искать по новому адресу.


    Это просто пример. Я говорил о том, что любая комбинация параметров в ссылке будет считаться новой страницей.

    Они уже и так в полном индексе. А под фильтр попадает всё, что Гугл считает дублями или недостаточно качественным для отображения в выдаче.


    Вообще, роботс просто говорит поисковикам, что владелец сайта не хочет, чтоб поисковик читал содержимое страницы. В качестве побочного эффекта такие страницы исключаются из выдачи, но в индексе они всё равно могут быть. В редких случаях они могут даже попадать в выдачу.


    Учитывая, что я не сеошник, а программист, я и так пишу об этом максимально простыми словами


    Никогда :Smile: Если проставить редиректы, поисковики просто перестанут считать эти страницы дублями и склеят их показатели. Но на количество страниц в индексе это напрямую никак не влияет.
    Вообще, это лучше спрашивать у сеошников.


    Если каждая страница полностью самостоятельный php код, то можно и так. Иначе могут быть ошибки.


    Он показывает полный индекс. Для выдачи: site:eto-zhizn.ru/&. А разница между двумя этими списками и есть страницы под фильтром.
    А дубли посмотреть невозможно никак. Под фильтр попадают не только дубли и не все дубли могут быть сейчас под фильтром (лучше не ждать пока Гугл их сам найдёт).
    Вообще, вы и без Гугла должны отлично знать, какие у вас есть дубли. Любая страница, на которую есть ссылки в нескольких вариантах, рано или поздно превратится в дубль, когда поисковик найдёт хотя бы две из возможных ссылок.


    Кроме редиректа не нужно больше ничего.
    Редирект, конечно же, должен обрабатываться в самом начале работы скрипта, остальная часть не имеет смысла, если нужно сделать редирект, это только лишняя задержка ответа сервера.
    А на счёт каждой страницы - мне дико хочется материться! Не хотите использовать готовый движок, перепишите хотя бы сайт в нормальный вид: входной скрипт, роуты, один код для общих элементов страницы, подключаемый на каждой странице (шапка, футер, колонки) и т.д.
    Есть микрофреймворки, есть отдельные библиотеки для различных компонентов веб приложения. Вот, например, неплохой микрофреймворк: http://fatfreeframework.com
     
  7. serrty

    serrty

    Регистрация:
    9 июн 2015
    Сообщения:
    76
    Симпатии:
    0
    спасибо за вашу переписку, но моя проблема не решена,
    я решил, if(isset($_GET['name'])){header("HTTP/1.1 301 Moved Permanently");header("Location: http://".$_SERVER['SERVER_NAME'].$_SERVER['PATH_INFO']);
    exit();
    }
    вставить в свои дубли которые я нашел, но на этих страницах прописан noindex, что мне удалять его, и ставить редирект перед доктайпом на самом верху?
    вот еще не пойму site:eto-zhizn.ru site:eto-zhizn.ru/&

    если site:eto-zhizn.ru - site:eto-zhizn.ru/& = 182
    значит под фильтрами 182 то есть это дубли скорей,

    ну вот не пойму при вводе site:eto-zhizn.ru, я нахожу eto-zhizn.ru/piling-tca.php далее в конце там в соплях, опять этот же url, никакого name никакой разницы в букве я не нахожу, и так все адресса, откуда и что получается теперь никогда это не исчесзен?

    я не знаю у меня недели 2 -3 назад не было редиректа со слешем на без слеша, я поставил может быть из-за этого? вы говорите,что якобы страницы никогда не исчезнут, но я читал об этом, после таких манипуляций гравик индексации значительно падал, дубли выкиндывались, ранжирование улучьшалось,

    а по поводу подключаемых файлов, я только левые блоки и правые подключаю через php, а что можно делать страницы где можно использовать только одни includ?, а зачем у меня все кроме шапки и подвала инклдится, контент то разный будет и инклудов тогда столько же

    я тут подумал, а можно ли написать редирект, не перекидывать с определенными параметрами, а остальные все с параметрами перекидывать, тогда точно будет все по правильному, я спокойно будет:dance:
    --- Добавлено, 15 июн 2015 ---
    я имею ввиду в htasses, можно информацию об этом в интерете найте?
     
  8. Dotrox

    Dotrox Команда форума

    Регистрация:
    27 ноя 2012
    Сообщения:
    2.051
    Симпатии:
    778
    Такое впечатление, что вы читаете мои сообщения через строчку.

    Не обязательно дубли. Под фильтр попадает любая страница, которую Гугл считает недостойной показа пользователям ни при каких условиях.



    Во-первых, я первый раз слышу слово "сопли" в сео тематике и абсолютно не понимаю, что это такое. А во-вторых, я не понял о чём идёт речь, учитывая, что я не понимаю, что значит найти в соплях.

    Наоборот. Шапка, футер, левая и правая колонка - всё отдельные файлы, которые инклюдятся на всех страницах.

    Я ничего не понял.
     
  9. serrty

    serrty

    Регистрация:
    9 июн 2015
    Сообщения:
    76
    Симпатии:
    0
    мне удалять, noindex и редирект вместо него, в верху страницы?



    сопли это когда вы все страницы просмотрите, и там внизу будет написано "мы скрили результаты поиска, так как они был ипохоже на предыдушие", их называют сопли от них я хочу избавиться потому что это дубли

    просто пинимаете, явно как показывает гугл, страниц дублей много я знаю только 55, значит те о которых я не знаю наверное имеют в себе то же name, вы говорите что их невозмоно найти, ну и я хочу прописать редирект, чтобы от тех о которых я не знаю избавиться, но не все 40 из них нужно оставить с этим параметром вот:help:
     
  10. Dotrox

    Dotrox Команда форума

    Регистрация:
    27 ноя 2012
    Сообщения:
    2.051
    Симпатии:
    778
    Да.


    Я думаю, вам для начала нужно привести сайт в порядок, потому что там сейчас какой-то бред.
    Вот, например, две ссылки в индексе:
    У первой в Гугле заголовок "Здоровье - ваша красота", у второй - просто "Здоровье". При этом обе ссылки отдают ошибку 500.
    А есть страницы, у которых в индексе по три ссылки: первая чистая, а остальные две с разными текстами в параметре name.
    Это кстати, ещё одна особенность - для одной страницы можно создать тысячу дублей используя всего один параметр, но разные значения.

    В общем, пока не приведёте сайт в нормальное состояние, нет смысла играться с Гуглом. А потом и играться не придётся: если движок не суёт под нос Гуглу ничего лишнего, никаких дублей не будет.
     
    Последнее редактирование: 17 июн 2015
  11. serrty

    serrty

    Регистрация:
    9 июн 2015
    Сообщения:
    76
    Симпатии:
    0
    да знаю я про все это, эта ссылка здоровье ваша красота, там просто редирект не правильный исправлю, вот и я знаю где, разные параметры, я и закрыл их в noindex, теперь вы говорите, что их нужно редиректить, ну делал я так и то и другое, он их вообще игнорурует, не выкидывает, я об этом уже 2 страницы тут пишу, то ведь теоретически я все ведь правильно делаю, по его правилам, в ручную вполне все можно ,
    --- Добавлено, 16 июн 2015 ---
    а могут поисковики определять уровень вложенности страницы, например во втором уровне ничего не трогать , а на третьих уровнях все name не индексировать, ридиректить, можно это кодом прописать?
    --- Добавлено, 16 июн 2015 ---
    вот посмотрите как я говорю site:eto-zhizn.ru/znachenie-krasoti-i-zdorovia.php

    да, та здоровье, и здоровье ваша красота, второе правильно, на первом уже редирект стоит проверьте, вот от первого надо избавиться, но он не выкидывает, )понимаете)
    --- Добавлено, 16 июн 2015 ---
    или вот еще site:eto-zhizn.ru/kak-soprotivliaetsa-organizm-razlichnim-boleznam.php
    --- Добавлено, 16 июн 2015 ---
    или вот обратите внимание
    site:eto-zhizn.ru/kakie-vehestva-soderjatsa-v-produktah-pitania.php

    здесь прописано это
    <?php
    if(isset($_GET['name']))
    $name=$_GET['name'];
    if($name=="Здоровое%")
    {
    header("HTTP/1.1 301 Moved Permanently");
    header("Location: http://eto-zhizn.ru/kakie-vehestva-...E8%F2%E0%ED%E8%FF%20%F7%E5%EB%EE%E2%E5%EA%E0?");
    die("Redirect");
    }
    ?>

    заметьте, я хотел избавиться от этого параметра Здоровое%, и в индексе хотел другой, а он все наоборот сделал
    --- Добавлено, 16 июн 2015 ---
    почему у меня не работает вот этот код
    <?php
    if(isset($_GET['name']))
    {
    $name=$_GET['name'];
    if($name=='Аллергия на продукты"');
    echo "<meta name='robots' content='nofollow,noindex' />";
    }
    ?>

    просто в переменную name папало значение Аллергия на продукты" (в конце двойная ковычка,обратите внимания) а php код обрабатывает его для него Аллергия на продукты" и Аллергия на продукты это значание абсолютно одинаковое, почему?

    я пробовал так if($name=='Аллергия на продукты"');

    и так f($name=="Аллергия на продукты'");

    ему что по барабану он все равно вставляет "<meta name='robots' content='nofollow,noindex' />"
    --- Добавлено, 16 июн 2015 ---
    или вот последнее

    site:eto-zhizn.ru/krasivie-voloci-zhenhini.php
     
  12. Dotrox

    Dotrox Команда форума

    Регистрация:
    27 ноя 2012
    Сообщения:
    2.051
    Симпатии:
    778
    Надо в роботсе писать что-то типа:
    Код:
    Disallow /*/*/*?name=
    Allow /*/*?name=

    Сколько времени редирект стоит?


    А зачем там знак процента?

    Всё было бы гораздо проще, если б сайт был в utf-8. Попробуйте туда писать именно то, что в адресной строке браузера.


    Вообще, если я не могу понять, какие ссылки должны быть в индексе, а какие нет, то Гугл тем более этого понять не может.
     
  13. serrty

    serrty

    Регистрация:
    9 июн 2015
    Сообщения:
    76
    Симпатии:
    0
    а что тут не понятного, я же кодом все прописал по правилам программирования, из кода смотриче чего я хочу, куда редиректица то и хочу видеть в индексе, где noindex то не хочу
    редирект вчера работал неправильно, я его сегодня переделал, но до этого недели за две он работал, я и говорю что не выкидывает, просто вчера я хотел по другому писать код,

    ну вот вы же поняли меня, если сказать проще, то на всех вторых уровнях страницы, там ест параметры name это я хочу оставить,(там ничего не трогамет) на третьих же уровнях, на сайте нету name я их удалил давно, но в индексе они болтаются вот я их и хочу выбрость), понимаете(я не знал что с парметром и без параметра это разные адресса, они все равно попадали, на одну и ту же страницу, потом только я узнал об этом


    вообще у вас есть сайт?, вы в гугле веб мастера, пользовались, там где параметры url?
    потому что это значение такого параметра, его нужно выкинуть, ну так получилось, без % нету в индексе,

    и еще хочу спросить может, в параметрах видно что я использовал кирилицу ну на русском писал
    в строке же я вижу эти значки и проценты, может он еще в индексе сформировал эти дубли как кирилица и как проценты(ну вы меня поняли)

    и еще вопрос, может надо было в гугле добавить сайт как с www, так и без, ? но хость у меня стоит без www, ведь сайт один должен быть правильно?

    мне интуиция подсказывает, что нужно именно в парметрах url что то изменить , только как сделать правильно
     
  14. Dotrox

    Dotrox Команда форума

    Регистрация:
    27 ноя 2012
    Сообщения:
    2.051
    Симпатии:
    778
    Сделайте какой-то окончательный вариант, то есть такой, в котором ни одна мелочь не будет редактироваться больше на время тестирования (в том числе и заголовки статей) и подождите 3 месяца. Потом делайте выводы, работает оно или нет.


    Выбросить можно только редиректами. Роботс - это превентивная мера, а сейчас уже поздно пить боржоми :Smile: Сейчас роботс может помочь только почистить выдачу и то очень медленно.

    У меня никогда не было необходимости пользоваться этим разделом. Я всегда ещё на этапе разработки закрываю в роботсе все лишние параметры, от которых нельзя избавится по техническим причинам.



    Нет. Проценты - это закодированная кириллица.


    Надо добавить оба варианта и указать, какой из них основной (предпочтительный). И в .htaccess добавить редирект с www на без www.

    Там можно полностью отрубить name. Больше ничего там сделать не получится. Гугл в принципе не понимает такого варианта, когда на одной странице параметр нужно учитывать, а на другой нет. Для него параметр либо значим и тогда нужно учитывать везде, либо не значим и нужно на него не обращать внимание.
     
  15. serrty

    serrty

    Регистрация:
    9 июн 2015
    Сообщения:
    76
    Симпатии:
    0
    про заголовки я не понял, а что там менть везде уникальные title и h1

    если вы про тот случайт со здоровьем, так я надеюсь он его выкинет и заголовка того не будет


    а по поводу, с www я только вчера узнал, мне на форуме ответили, что нужно добавить оба варианта, и подвердить права, вы случайно не знаете где и как подтвердить права, а потом там есть опция указать домен основной, вот я и подумал, знатете радиректы и noindex возможно уже давно сработали, и выкинули то что я хотел, но много в индексе из-за того, что я не указал основное зеркало, хотя в роботсе прописано, вот возможно из-за этого дубли?

    у меня ест алианс с www при вводе в строку идет автоматический редирект на без www думаю htaasses уже не нужен

    еще у меня вопрос такой вот

    RewriteBase /
    RewriteRule ^(.*\.php)/$ $1 [R=301,L]

    со слешем на конце на без слеша, работает только на третьих уровнях, а на вторых нет почему то, там где есть параметр name??
     
  16. Dotrox

    Dotrox Команда форума

    Регистрация:
    27 ноя 2012
    Сообщения:
    2.051
    Симпатии:
    778
    Судя по тому, что в индексе есть две ссылки (одна с параметром, другая - без) на одну страницу с заголовками: "Здоровье - ваша красота" и просто "Здоровье", - вы всё же меняли заголовки на ходу, то есть через время после публикации статьи.

    А заголовок для Гугла - один из самых важных элементов страницы.



    Точно так же, как вы добавляли основной домен, точно так же добавляете и подтверждаете вариант с www.


    Нет, у вас все дубли без www и соновная их причина - параметры в ссылках. Если не все, то почти все дубли (я всё не просматривал) вызваны именно параметрами.



    Если редирект уже есть, то, конечно, ещё где-то его прописывать не надо.



    Во-первых, этот редирект не предполагает наличия в ссылке каких-либо параметров. Он расчитывает, что ссылка заканчивается на .php/
    А во-вторых, что именно должно редиректится? Разве в ссылке с параметром может быть слеш на конце?
     
  17. serrty

    serrty

    Регистрация:
    9 июн 2015
    Сообщения:
    76
    Симпатии:
    0
    не знаю но со слешем тоже доступен, можно не обращать внимание?

    да нет не мянял, точно, но я могу предположить из -за чего это, возможно есть ссылка внутренняя где анкор здоровье и ведет по тому же адрессу, только как ее можно найти по быстрому, страниц то много уже не буду же я просматривать каждую?

    а по поводу с www я уже добавил, подвердил права, назначил основное зеркало, дальше не знаю буду ждать, если вы говорите, что www тут не причем, тогда я не знаю что делать? буду спрашивать опять на форуме в гугле, про параметры url надо узнать))
     
  18. Dotrox

    Dotrox Команда форума

    Регистрация:
    27 ноя 2012
    Сообщения:
    2.051
    Симпатии:
    778
    Если со слешем после параметра ссылок нет, то можно не обращать внимания. Гугл сам слеш добавлять не будет.

    Анкор не имеет абсолютно никакого значения в данном контексте. В этот заголовок могут попасть только title и h1. Так что, либо что-то из этого менялось, либо их вообще не было и Гугл сам выбрал заголовок.
     
  19. serrty

    serrty

    Регистрация:
    9 июн 2015
    Сообщения:
    76
    Симпатии:
    0
    вот это скорей всего
     
  20. noobie

    noobie

    Регистрация:
    27 мар 2013
    Сообщения:
    173
    Симпатии:
    22
    Я не понимаю зачем вы пробуете оптимизировать ЭТО.
    Это не сайт а какой то кислотно вырвиглазный пиз..ц а-ля слепил три страницы на народ.ру 1999г
    Для лучшего понимания задайте запросы и посмотрите конкурентов в выдаче.
    Если вы это оптимизируете и туда таки придут пару посетителей то они сразу в ужасе сбегут от такого сайта.

    p.s. А картинки к статьям вы тоже сами в фотошопе делали? :frantic:
     
    Последнее редактирование: 18 июн 2015