страницы с get параметрами seo
Структура URL
При ранжировании поисковые системы стараются использовать максимум полезной информации, которую могут извлечь из:
И на анализе URL-адреса страницы также основывается ряд факторов. Общие пожелания к URL-адресам продвигаемых страниц следующие:
Если рассматривать ситуацию, описанную вами, то наличие ключевых слов из потенциальных целевых запросов встречается и в первом (/zhenskiye-bryuki/filter?tsvet= belyy&razmer= 46) и во втором (/zhenskiye-bryuki/filter/ belyy/razmer- 46) случае, так что тут нет проблем. Поисковые системы (и тем более Яндекс и Google), без каких либо трудностей, индексирует страницы с GET-параметрами, так что тут тоже не наблюдается проблемы.
Потенциальные трудности страниц с GET-параметрами
Но существует ряд негативных моментов при работе со страницами с наличием GET-параметров (/filter?tsvet=belyy&razmer=46 и т.д.), это:
Прочие работы по SEO
При этом, абсолютно нет никаких проблем в том, чтобы реализовать возможность добавления уникального заголовка Title, текста, текстовых заголовков, meta-данных и другого контента на динамических страницах с GET-параметрами. Для полноценной оптимизации данных полей создавать статические страницы не требуется.
Это самые основные работы по внутренней оптимизации и ими и требуется заняться на текущем этапе работ в рамках SEO.
В сухом остатке
Если резюмировать сказанное ваше и наш опыт в сфере продвижения сайтов, то можно сказать, что совет от SEO-компании по корректировке адресов страниц является разумным, хотя ряд доводов в пользу этого не имеют отношения к реальности. Также, если реализовывать новую систему ЧПУ, то от слова «filter» в адресе лучше совсем отказаться, оно не несет ничего положительного ни для SEO, ни для пользователя, а лишь удлиняет адрес.
Оптимальный URL-адрес мы бы обозначили как такой: /zhenskiye-bryuki/belye/46/.
Выигрыш после внедрения новой системы URL и простановки 301-редиректов можно оценить в рамках 0,5-1,5 позиции в выдаче.
Удачи в проведении работ по оптимизации URL-структуры вашего сайта!
Сколько GET-параметров должно быть в URL
Передача GET-параметров осуществляется каждый раз, когда происходит запрос к серверу. Не рекомендуется использовать в URL слишком много параметров, так как при росте их числа сложно установить контроль над ними со стороны веб-браузера и сервера. Если же такое произойдет, то поисковые системы начнут воспринимать разные страницы ресурса как дубли.
Как не столкнуться с такими проблемами и что такое GET-параметры – поговорим в сегодняшней статье.
Что такое GET-параметр
Прежде чем перейти к определению GET-параметра, поговорим о том, как происходит связь клиента и сервера в интернете. Выполняется это через HTTP-протокол – протокол передачи гипертекста. Благодаря ему обмен данными может осуществляться по принципу «запрос-ответ»: когда пользователь получает URL-адрес через веб-браузер, выполняется запрос на сервер, и в качестве ответа предоставляется HTML-страница, загруженная браузером. Для такого рода связи используются такие параметры, как GET и POST. Нас интересуют лишь GET-запросы – остановимся на них поподробнее.
Когда выполняется метод GET, клиент использует HTTP-протокол на веб-сервере для запроса необходимого ресурса, затем он отправляет серверу определенные параметры GET через запрошенный URL. Страница, созданная данным методом, может быть открыта повторно множество раз, кэширована браузером, проиндексирована поисковыми системами и добавлена в закладки пользователем.
GET-параметры представляют собой пары и соответствующие им значения, так называемые пары «имя-значение». Они всегда начинаются с вопросительного знака «?». За ним следует имя переменной и соответствующее значение, разделенные знаком «=». Если URL-адрес содержит более одного параметра, то они разделяются амперсандом «&».
Thing – первый GET-параметр, section – второй.
В коде прописывается следующим образом:
Чаще всего необходимость в таких запросах возникает, когда нужно отфильтровать страницу по каким-либо параметрам. Например, чтобы отобразить список определенных машин на сайте по продаже авто, открыть каталог смартфонов белого цвета с 32 Гб памяти и т.п.
Таким образом, мы можем прописывать параметры в URL и изменять с их помощью содержимого страницы.
Для чего нужен параметр GET
URL-адреса с GET-параметрами называются динамическими – их изменение приводит к смене адреса и содержимого страницы. Например, если интернет-магазин только что добавил продукты на страницу категории, а пользователь в этот момент открывает эту страницу в браузере, то новые продукты также будут отображаться, так как адрес страницы запрашивает измененный контент с помощью параметра GET. Также в данном методе происходит подстраивание заголовков под запрос пользователей, благодаря чему можно увеличить конверсию сайта. GET-параметры необходимы при создании динамических сайтов – интернет-магазинов, форумов, сайтов-отзовиков и т.п.
Стоит также понимать, что при передаче личной информации не рекомендуется использовать GET-параметры, так как они совершенно не подходят для конфиденциальной информации. Связано это с тем, что информация в адресной строке открыта каждому. Если вы хотите использовать в URL конфиденциальную информацию, то лучше воспользоваться POST-запросами.
Оптимальное количество GET-параметров
Как мы уже выяснили, один запрос включает в себя один или несколько GET-параметров. HTTP-протокол может использовать неограниченное количество таких запросов, но в этом нет никакой необходимости. Напротив, при использовании большого количества параметров могут возникнуть проблемы с рейтингом сайта в поисковых системах. Связано это с тем, что лимиты все-таки присутствуют, но со стороны сервера и браузера. Если длина будет превышена, то запрос попросту урежется.
Однако никто не сможет назвать идеальное количество параметров. Для разных серверов это число может колебаться – для одного 32 Кб, для другого – 1024 Кб. Золотая середина – 512 Кб. Рекомендуется использовать не более 5 параметров, иначе их будет сложно контролировать со стороны сервера и браузера. Если необходимо отправить большое количество данных, то лучше использовать POST-запросы.
Заключение
Мы разобрали один из методов отправки данных на сервер под названием GET. Он передает информацию в URL через специальные GET-параметры, количество которых должно соответствовать типу сервера. Если лимит будет превышен, то запросы сократятся до нужного размера. Использование таких опций полезно на динамических сайтах, где контент адаптируется под определенного пользователя и его запросы.
Ошибка Я. Вебмастера: найдены страницы дубли с GET-параметрами — что делать
Дубли страниц могут приводить к потери позиций в поисковой выдаче и снижать скорость индексации. Стоит понимать, что у поискового робота есть определенный лимит запросов к домену в день. Поэтому существует вероятность того, что он потратит все лимиты на сканирование мусорных страниц и не доберется до страниц с уникальным контентом.
О наличии проблемы с дублированным контентом свидетельствует сообщение в панели Вебмастера: «Найдены страницы дубли с GET параметрами». В своем сообщении Яндекс информирует вебмастера о том, что на некоторых страницах сайта размещен одинаковый контент, различающийся только гет-параметрами.
Что такое get-параметры на сайте
Если в поиске есть дублированные страницы из-за гет-параметров, Яндекс предлагает воспользоваться правилом Clean-param в robots.txt (правило действительно только для Яндекс, Google его не воспринимает).
В результате использования Clean-param поисковый робот Яндекса объединяет сигналы с дублированных страниц на основной. После того, как краулер узнает обо всех произошедших изменениях, страницы с не имеющими значение гет-параметрами исчезнут из поисковой выдачи.
Как использовать Clean-param
Для понимания того, как используется Clean-param, стоит привести простой пример. Существуют дубли страницы со следующими гет-параметрами:
Чтобы в результатах поиска учитывалась только основная страница http://mysite.ru/cat/auto/nissan/, нужно задать правило Clean-param в файле robots.txt:
User-agent: Yandex
Clean-param: sort&order /cat/auto/nissan/
Как использовать Disallow
Избавиться от страниц-дублей с GET-параметрами можно, используя директиву Disallow. Для примера возьмем те же страницы-дубли:
Чтобы в результатах поиска учитывалась только основная страница http://mysite.ru/cat/auto/nissan/, нужно задать правило в файле robots.txt:
User-agent: *
Disallow: *?sort=
Disallow: *&order=
Также можно закрыть от индексации ВСЕ Get-параметры одним правилом?
User-agent: *
Disallow: *?
Будьте осторожны! Используйте директиву Disallow очень внимательно, чтобы случайно не закрыть от индексации нужные страницы (например, не используйте правило, если карточки товара или категории в обязательном порядке содержат get-параметр в url).
Найдены страницы-дубли с GET-параметрами
Нет времени читать статью?
Но вам требуется продвижение сайта или создание сайта-лидера, идеального для SEO? Тогда вы можете оставить заявку на продвижение или заявку на создание сайта. Если вы собираетесь продвигать сайт самостоятельно — продолжайте чтение!
У сайта появились дубли страниц, которые мешают ему продвигать и создают проблемы: идет снижение индексации, ранжирования. Каждый день поисковая система индексирует определенный сайт и у него есть свой лимит к домену в сутки. Когда все лимиты уходят на мусорные страницы и URL, становится обидно, потому что качественные страницы с уникальным контентом остались в стороне.
Как узнать есть ли дубли на сайте? Например, в вебмастере Яндекс появилось сообщение: «Найдены страницы дубли с GET параметрами». Это значит, что поисковая система передает информацию владельцам сайтам, что контент есть на разных страница, а он одинаковый везде.
Что такое get-параметры на сайте
GET параметры в URL — специальные динамические параметры, которые позволяют изменять контент на страницах сайта. Часто находится в URL адресе сразу же после «?» и может разделяться «&». Часто владельцы сайтов интернет магазинов используют GET запросы и параметры для фильтров на сайте, либо для сортировки.
Как избавиться от ошибки — Найдены страницы дубли с GET-параметрами
Простой и рабочий способ избавиться сейчас от таких дублей внести правки в ваш файл Robots.txt, через директорию и правила Clean-param или Disallow.
Если вы видите, что у вас появились дубли (дублированные страницы) из-за GET параметров, то Яндекс предлагает сделать вам правило Clean-param, которое будет действовать именно для Яше.
Это позволит поисковому роботу понять и объединить страницы, которые являются дублями. Если произошли изменения, тогда бот сможет их проверить и убрать лишний мусор из поиска.
Как использовать Clean-param
Как правильно использовать Clean-param, ниже будет небольшой пример сайта магазина. Например у нас на сайте есть такие дубли:
Чтобы запретить индексацию этих сортировок и фильтров, нужно добавить в robots.txt следующее:
User-agent: Yandex
Clean-param: sort&order /cat/auto/nissan/
sort&order – это уникальные параметры, которые могут меняться и требуют учета;
/cat/auto/nissan/ — это категория разделах, и те которые начинаются с /cat/auto/nissan/.
Как использовать Disallow
Другой проверенный способ избавиться от дублей с GET-параметрами можно, используя директиву Disallow. Опять же берем те же адреса, что выше в примере.
Задаем правило в файле robots.txt:
Как полностью закрыть все параметры GET одной строкой?
Однако нужно понимать, что если вы полностью закроете все страницы от индексации, иногда есть специальные страницы, которые могут быть обязательны.
Однако способами выше вы сможете решить проблему в Вебмастере Яндексе, гугле.
«размножение» страниц из-за GET-параметров с точки зрения SEO
Часто веб-страницы основным своим содержимым имеют те или иные списки (например, категории товаров в интернет-магазине, тематические разделы статей на сайте и пр.).
Интерфейсы таких списков бывают для удобства снабжены инструментами сортировки и фильтрации (проще говоря, поиска).
При этом в GET-параметрах могут встречаться и годные для поисковых систем параметры (как то номер страницы), на которые следует обращать их внимание и позиционировать такие страницы как действительно разные.
Вопрос: действительно ли это проблема и стоит ли предпринимать в связи с этим какие-то действия?
Если да, то какие из нижеперечисленных оправданы? (возможно, какие-то из них окажутся достаточными?)
1. Следить, чтобы в HTML-коде страниц не было ссылок с лишними GET-параметрами (то есть, например, разбивку на страницы делать ссылками, а переключение сортировки закрывать с помощью javascript).
3. Реализовать альтернативный технологический подход, по которому параметры списка хранятся не в GET-массиве, а в переменных сессии.
В этом случае вся проблема отпадает, но появляются некоторые ограничения (например, нельзя дать ссылку непосредственно на отфильтрованную и/или отсортированную выборку), и, кроме того, такой подход гораздо сложнее реализуем технологически.
rgbeast
Если страницы одинаковые, поисковик их в итоге склеивает и считает одной и той же, но склейка несколько усложняет восприятие сайта поисковиком, так как отстает от индексации, поэтому злоупотреблять не стоит. Страницы с GET-параметрами удобно иметь, в том числе для индексации, так как они часто содержат в себе уникальное содержимое сайта.
1234ru
rgbeast
ничего не запрещает такого:
/books?page=2
и
/books_ext?page=2¬_important=1