
Советы по оптимизации сайтов
Яндекс привык удивлять вебмастеров различными алгоритмами и фильтрами, но как не крути, Яша является основным поисковиком для российских интернет-пользователей и с этим приходится считаться. До многих вебмастеров докатилась новая весть от разработчиков Яндекса по поводу нового алгоритма ранжирования без учета ссылок, который планируется запустить в начале 2014 года. К счастью для многих владельцев информационных веб-ресурсов, новый алгоритм предназначен только для коммерческих сайтов. Однако никто не знает, что завтра придет на ум разработчикам Яндекса.

Андрей Калинин — руководитель проекта Поиск Mail.ru
При продвижении сайтов мы забываем о том, что необходимо соблюдать элементарные привила для того, чтобы наши сайты выглядели презентабельно в глазах поисковых машин. Многие правила практически идентичны для различных поисковиков, особенно если речь идет о технических вопросах.
Своим советами о том, как понравиться поисковикам, делится руководитель проекта Поиск Mail.ru — Андрей Калинин. В докладе Андрея Калинина рассмотрена информация, которая будет полезна начинающему вебмастеру.
Как сделать свой сайт «любимчиком» поисковой системы?
Безусловно, в России уже есть и давно действуют поисковые системы, работающие на своих движках, но их очень мало, поэтому еще один не помешает никому. А возможно, даже станет выгоднее, чем остальные, так как имеет отличающуюся политику и неплохой охват пользователей — 25-27 млн человек.
Что волнует оптимизаторов и вебмастеров?
- Индексирование всего сайта;
- Появление сайта в выдаче по определенным запросам;
- Трафик.
Как добиться отличного индексирования?
Первое правило — сделать свой сайт максимально доступным для поисковика. Бывает такое, что вебмастера и оптимизаторы даже не в курсе, что их сайт (или некоторые его страницы) заблокированы поисковиками. Это может произойти совершенно случайно, например, по недосмотру сисадмина, которому вдруг не понравилось появление поискового робота в логах.
После устранения подобной проблемы у поисковика возникает другой важный вопрос: «Сколько страниц сайта скачивать?» Конечно же, вебмастер попросит скачать все, опять же иногда и не догадываясь, сколько тысяч неизвестных страниц у его сайта.
Все дело в том, что сайт, созданный автоматически, позволяет генерировать неограниченное количество url. Это технический мусор. К нему относятся многие «незаметные» особенности:
- Списки товаров. Когда сайт построен так, что при каждой сортировке (по дате, по виду продукции, по размерному ряду или по сезонности) открывается новый адрес, то количество расплодившихся адресов в итоге стремится к бесконечности.
- Разделение по регионам. Отдельный сайт (со всеми вкладками) для каждого региона присутствия компании множит количество адресов.
- Облака тегов. Здесь тоже все хорошо в меру.
- Афиша. Опытным путем выяснилось, что некоторые афиши можно пролистать назад аж до 1812 года и понять, что в тот день фильмов на экране не было.

Можно посмотреть репертуар Кемерово в 1812 году!
В конечном счете, если взять случайную страницу в сети, то чаще всего это будет технический мусор — вариант «кривого» url, сделанный нерадивым программистом.
Поисковые роботы не имеют возможности понять, какая из страниц нужная, а какая появилась случайно. Поэтому выделяется некоторая квота скачиваний для отдельного сайта, зависящая от его посещаемости, от разнообразности и полезности информации на нем.
Как поисковики ведут борьбу с техническим мусором?
При обработке крупных сайтов, которые имеют более 1000 url, проходит процедура автоматической сегментации: поисковик пытается понять структуру сайта по тем адресам, какие у него есть.
Адреса группируются автоматически, собираются «регулярные выражения», и выделяются наиболее интересные для поиска сегменты. Отдельно остаются сегменты архивов и дублей, чтобы политика обхода была гибкой и постоянно обновляющейся.
Фактически это выглядит так: каждый сайт «подбрасывается» в выдачу и создает определенную картину, которая анализируется. Иногда полный анализ занимает около года.
Самый простой способ очистить сайт от технического мусора — в robots.txt записать url-исключения, которые ни в коем случае не должны попасть в выдачу и засорить ее. Это дает сразу несколько плюсов для вебмастера.

Обязательно проверьте файл robots.txt на своих сайтах
Если же вебмастер компании не может обойтись собственными силами, то он пользуется услугами поисковика: отправляет запрос и получает страницу анализа сайта с выделенными сегментами. А затем уже самостоятельно решает, что нужно, а что является мусором и подлежит удалению.
В свою очередь поисковой системе важно узнать, помог ли этот способ в решении проблем с индексированием или нет — нужна обратная связь.
Как заставить сайт стабильно появляться в выдаче?
Самый распространенный вопрос от владельцев сайтов: где покупать ссылки и сколько они стоят? Несомненно, это важно, но только после выбора запросов, по которым будете оптимизировать.
Если взять из чистых логов обращения к поиску про доставку цветов обычными пользователями, то обнаружим разницу между двумя похожими запросами.

Статистика по запросу «доставка цветов»

Статистика по запросу «доставка букетов цветов»
Отсюда понятно, что «доставка букетов цветов» — лишний запрос. Это искусственный запрос, созданный для того, чтобы сбивать позиции. Живых таких запросов нет. Частоту создали «паразитным» трафиком, после чего огромное количество оптимизаторов решили продвигаться по этому запросу. К числу таких же запросов можно отнести «доставка цветов в офис».

Нет смысла продвигать по запросу «доставка цветов в офис» — запрос является выдуманным
Существует список реальных и выдуманных запросов:

Реальные и выдуманные запросы про доставку цветов
Кто-то может считать такие запросы разбавкой, но все-таки настоящий оптимизатор должен ставить перед собой цель достичь определенной позиции в выдаче. А искусственные запросы затрудняют путь к цели. Поэтому поисковые системы ведут постоянную борьбу с ними: ставят капчу для отсеивания ботов, а во всех остальных случаях оставляют в выдаче для дальнейших исследований.
Создавать отдельную выдачу для искусственных запросов в планы поисковиков не входит, хотя по этому поводу есть множество мнений оптимизаторов.
Самые главные факторы продвижения
Высокочастотные и низкочастотные запросы имеют много определений. Для поисковых систем ВЧ-запрос — это запрос, обеспеченный поведенческой информацией, поэтому ранжирующийся лучше остальных. НЧ-запросы — редко встречающиеся запросы, их сложно предсказать и никакой информацией они не подкреплены.
Одними ссылками продвинуть сайт сложно, поэтому нужно уделять внимание поведенческим факторам — они являются одними из самых главных и позволяют узнать, насколько ваш контент хорош или чего не хватает на странице, чтобы пользователь выполнил то или иное действие.
Хорошо работает на продвижение общая авторитетность сайта — это поведенческий индекс качества, который можно увидеть в «Кабинете вебмастера». В нем есть две метрики, позволяющие понять, насколько качественный у вас сайт. Это СУП (Средняя удовлетворенность пользователя) и СПД (средняя привлекательность документа). Второе место занимает качество контента, а третье — ссылки.
Добрый день Андрей! Написано много и красиво, видно большой вклад Вы вносите в свою компанию. Но вот БЕДА….Очень много нареканий пользователей в адрес Ваших работников, и даже люди собирают материал для подачи в судебные органы….терпежа нет…..Посмотрела…. я не одна такая. Писала в Вашу службу поддержки — это КРИК утопающего в пустыне. Проблема в следующем: Я Цыкина Ольга Леонтьевна otsykina@list.ru, два дня назад открыла новый почтовый ящик: tsykina-o@mail.ru, после этого я больше не смогла попасть в первый почтовый ящик. Указывает- неправильный пароль (но он у меня записан)…пытаюсь восстановить — все тщетно. Вы сами пробовали это сделать? Со службой поддержки связаться невозможно. Последняя надежда на ВАС. Помогите пенсионерам. С уважением Ольга Леонтьевна