Ошибки и возможности в поисковой оптимизации

В прошлом посте я рассказал об основах SEO, которые принесут вам первый поисковый трафик. Но есть еще ряд других факторов, которые могут улучшить или ухудшить позиции.


Дисклеймер: текст написан на основании моего опыта. Я могу ошибаться, поэтому если вы несогласны, пишите в комментах.


Пункты приведены в хаотичном порядке.


Стартуем.

Ошибки и возможности в поисковой оптимизации SEO, Маркетинг, Интернет, Google, Яндекс, Сайт, Бизнес, Длиннопост

SSL-сертификат

Википедия: SSL — криптографический протокол, который подразумевает более безопасную связь. Он использует асимметричную криптографию для аутентификации ключей обмена, симметричное шифрование для сохранения конфиденциальности, коды аутентификации сообщений для целостности сообщений.


Что-то на эльфийском. Коротко: наличие SSL-сертификата гарантирует, что ваши данные при обмене с сайтом не украдет провайдер, хостер или еще какая-то редиска. Сертификаты обязательны для сервисов, работающих с персональными данными или деньгами.


Google и Яндекс утверждают, что сайты с SSL ранжируются выше. Я особого эффекта не замечал. В будущем, возможно, этот фактор станет более важным. Осенью появилась новость, что Google обещает ставить пометку «Not secure» в браузерах Chrome сайтам, не использующим https.


Сертификат точно нужен большинству интернет-магазинов по трем причинам:

• Некоторые платежные системы требуют, чтобы на сайте был сертификат (хз зачем, все равно данные плательщика вводятся на странице платежной системы).

• Google Shopping/Google Merchant принимает сайты с SSL-сертификатом на странице корзины. Необязательно делать переадресацию на всем сайте, хватит только в корзине. Это новое требование, и, если вы уже прошли модерацию раньше, то SSL не обязателен. Но техподдержка Google сказала мне, что такой сайт может попасть под случайную проверку и его остановят. В общем, лучше поставить сертификат.

• Яндекс.Маркет работает по API только с магазинами, у которых есть сертификат. Чтобы не мучиться с самоподписанными сертификатами, возьмите нормальный. API нужен для того, чтобы менеджер работал с «Заказом на Маркете» через интерфейс интернет-магазина или CRM.


Существуют сертификаты дорогие, дешевые и бесплатные. Между дорогими и дешевыми разницы особой нет, потому что сертификат сам по себе ничего не стоит. Цена берется с потолка. Например, красавцы из Symantec продают сертификаты за $1999.


Страховки, защита от антивирусов и прочее — маркетинговая чушь. Вероятность наступления этого страхового случая — 0,00%. А клиентам, в принципе, пофигу на тех, кто выдал ваш сертификат.


Самый дешевый сертификат, что я видел, стоит $4 при покупке на один год, $3.22 — при покупке на три года. Это сертификат от Comodo, cсылку на него дам в комментарии. Рекомендую сразу брать на максимальный срок, чтобы реже обновлять сертификат. Для регистрации сертификата нужна только почта на домене, поэтому заранее озаботьтесь ее созданием. Проверок никаких не проводится, простой сертификат можно получить минут за 15.


Сертификат EV (Extended Validation) стоит от 5 тысяч рублей. Его преимущество перед простым сертификатом — красивая «зеленая строка». Такой сертификат выписывается на юридическое лицо, и домен должен быть оформлен на это юрлицо. Сертификат выдают после нескольких проверок, ведь такие сертификаты используют серьезные дяди.

Ошибки и возможности в поисковой оптимизации SEO, Маркетинг, Интернет, Google, Яндекс, Сайт, Бизнес, Длиннопост

Если ваш сайт уже индексируется в поисковых системах, а вы обнаружили зеркала, то надо проверить, какое из них является главным. Это сделать просто: вбейте в Google и Яндексе название компании (если проверяем мультисайтовость) или запрос «site:example.ru» (если проверяем www/без www, http/https). То зеркало, которое стоит в выдаче, является главным. На него нужно перенаправить остальные.

Ошибки и возможности в поисковой оптимизации SEO, Маркетинг, Интернет, Google, Яндекс, Сайт, Бизнес, Длиннопост
А что делать, если сайт в одной системе индексируется как зеркало1, а в другой как зеркало2? Тогда нужно делать мягкий перенос основного зеркала. У Яндекса на этот счет есть отличная запись в блоге.

Копирую ее сюда с дополнением по Google.

1. Определяемся с главным зеркалом. Допустим, нам больше подходит сайт.рф, именно его мы и будем развивать в будущем.

2. Настраиваем, чтобы домены возвращали один и тот же контент, и не допускаем ситуаций, когда информация на одном домене обновляется, а на другом нет. Не забываем, что все ссылки на сайте должны быть относительные (/ssylka.html), чтобы один сайт не ссылался на другой.

3. Прописываем во всех файлах robots.txt каждого домена директиву Host с адресом желаемого главного зеркала, у нас это будет:


Host: xn--80aswg.xn--p1ai (так как у нас домен кириллический, его имя должно указываться в Punycode).


Заметьте, без http://. Если у вас SSL-сертификат есть, то будет:


Host: https://xn--80aswg.xn--p1ai


4. Проверяем, что site.ru/robots.txt, www.site.ru/robots.txt, сайт.рф/robots.txt и www.сайт.рф/robots.txt содержат одинаковые указания на главное зеркало.

5. Идем в форму Сообщить о новом сайте в Яндекс Вебмастере, добавляем сайт.рф.

Если получаем сообщение, что сайт добавлен на индексирование или что он уже индексируется, значит, сайт либо уже главное зеркало, либо ни с кем не склеен.

Если же получаем сообщение «Указанный вами сайт является неглавным зеркалом www.какой-то-сайт.ru», значит, наш сайт — зеркало и до момента переклейки в поиске сайт.рф участвовать не будет.

6. Ждем склейки/переклейки зеркал, которые происходят в момент обновления поисковых баз. Для разноименных доменов это занимает до 2-6 недель. Узнавать об обновлениях поисковых баз можно подписавшись на соответствующие сообщения в настройках сервиса Яндекс.Вебмастер.

7. Если вы делаете переадресацию на новое зеркало, которое не попадало в индекс (https или новый адрес сайта), то указываем в robots.txt для Googlebot директиву Disallow: / на новом сайте, чтобы Google не индексировал его раньше времени.

8. Если вы делаете переадресацию на домен, который уже попал в индекс, то ничего для Googlebot добавлять не нужно.

9. После того, как Яндекс правильно склеил зеркала, ставим 301 редирект со всех альтернативных зеркал на главное и снимаем Disallow для Googlebot.

10. Идем в Google Search Console, подтверждаем там все возможные зеркала и выставляем в настройках главное.


Эти действия могут временно уменьшить трафик из поиска. Рекомендую отправить поисковикам через панель вебмастера новые Sitemap, чтобы ускорить переиндексацию. О Sitemap расскажу позже.

Дубли страниц

В принципе, тоже самое, что и предыдущий пункт, но уже в рамках одного зеркала. Есть два виновника появления дублей страниц: человек и CMS.


Человек виноват, когда создает страницы с одинаковым или почти одинаковым контентом или тем же набором ключевых слов. Поисковики могут пустить в выдачу не ту страницу, которая лучше оптимизирована под запрос. Чтобы избежать таких ситуаций, не создавайте страниц с одинаковыми текстами или ключами.


Более распространенный случай появления дублей — генерация кучи URL для одной страницы движком сайта (CMS). Предположим, что у нас есть страница про пароварки с установленным ЧПУ parovarki. Неоптимизированная CMS (привет, Joomla) отдаст эту страницу по URL site.ru/parovarki, site.ru/parovarki/, какой-нибудь site.ru/parovarki.html и site.ru/index.php?option=com_content&view=article&id=1488 как вишенка на торте. Найти такие страницы на новом сайте можно только экспериментальным путем, подставляя типичные значения. На сайте с поисковым трафиком дубли вычисляются при просмотре аналитики: смотрим отчет «Страница входа» для сеансов из поиска. После того, как дубли вычислены, сразу настроивайте редиректы через .htaccess и ставьте задачу программисту исключить возможность генерации таких URL.

Есть еще один способ создания дублей — страницы с параметрами. Это, например, UTM-метки, результат работы фильтра или пагинации.


Пример: http://site.ru/catalog/1488?sort=5&viewType=1&rec=fa...

Ошибки и возможности в поисковой оптимизации SEO, Маркетинг, Интернет, Google, Яндекс, Сайт, Бизнес, Длиннопост

Да, страница с таким страшным URL может случайно оказаться в поиске вместо обычной страницы. Многие рекомендуют закрывать параметры через robots.txt, но это вредно!


Представьте ситуацию: человек пришел на сайт, потыкал фильтр, увидел что-то прикольное и кинул ссылку с параметрами в блог, соцсеть или на форум. Хорошая органическая ссылка. Но я напомню, что ссылки с параметрами запрещены к индексация в robots.txt. Это значит, куда переходит вес? Правильно, в никуда. Ссылка не зачтется поисковиком.


Поэтому в robots.txt параметры не закрываем, а указываем в head страницы тег canonical, который указывает на версию страницы без параметров. Страница с параметрами не попадет в индекс, потому что она является вариацией основной странице, на основную страницу передет и вес ссылки. Волки сыты, овцы целы.

Подробнее о canonical в блоге Деваки.

Редиректы и 404

Бывает, что страничка существовала, но потом была объединена с другой страницей или у нее изменился URL. Нужно поставить редирект на новый URL, при этом не забыв поменять URL на новый по всем сайте. Некритичная проблема, потому что вес передается даже через несколько редиректов. Но я не люблю этот бардак и всегда стараюсь поправить.


Большое количество несуществующих страниц, то есть URL, которые отдают код 404, это плохой сигнал для поисковиков. Они могут посчитать весь сайт некачественным.


Несколько раз я видел случаи, когда существующие страницы отдают 404. Например, интернет-магазина на Битриксе, код 404 на всех страницах категорий. Хорошие тексты, мета-теги, товары, все как надо. Но вот в индекс эти страницы не попали бы никогда. На диагностику и устранение ошибки ушло минут 30.


Найти 301, 302 и 404 довольно быстро и просто с помощью программ-пауков, про которые я говорил в первой статье. Например, Screaming Frog (платная) и Xenu Link Sleuth (бесплатная).


Доменное имя и ЧПУ

ЧПУ — человекопонятный урл (URL).Не цифрами и рандомными буквами, а словами.


Ключевое слово в домене или URL страницы напрямую влияет не на ранжирование страницы, а на CTR сниппета. Ну а чем выше CTR, тем выше поисковик ранжирует страницу. Поисковик подсвечивает совпадающие слова из запроса.

Ошибки и возможности в поисковой оптимизации SEO, Маркетинг, Интернет, Google, Яндекс, Сайт, Бизнес, Длиннопост

Поисковики прекрасно понимают транслит, необязательно делать домен и URL на кириллице.

Если мало идей для подбора домена, то у reg.ru есть удобный сервис отслеживания освобожденных доменов. Можно искать варианты доменов по ключевым словам.


Не забудьте проверить домен на попадание в фильтры поисковиков и спам-базы email.


Если вы планируете продвижение в какой-то отдельной стране, то используйте региональный домен (.ru, .ua, .by). Если проект международный, то вам подойдут зоны .com, .net и другие. Бесплатная зона tk — табу, там живут только спамеры и мошенники.


Домен, естественно, должен быть второго уровня. Использовать третий уровень (site.hosting.ru) плохо для CTR сниппета и иногда для ранжирования. Не рекомендую использовать длинные доменные имены (от 15 букв), потому что их сложно запомнить.

Возраст домена и его история

Новые домены ранжируются немного хуже, чем старые первые 6-12 месяцев сущестования. Поэтому на этом этапе имеет смысл сосредоточиться на менее конкурентных запросах.


Если вы взяли домен, на котором уже существовал сайт, то проверьте, совпадает ли тематика с вашей. Если тематика другая, то ее смена может занять много месяцев, в течение которых ваш сайт будет ранжироваться даже хуже нового. Тематика сайта — внутренняя кухня поисковиков, на которую повлиять нельзя.


Особой разницы между ранжированием молодых сайтов (2-3 года) и старых (10-15 лет) я не заметил.


Перед началом работы с новым доменом, надо проверить не находится ли он сейчас или находился ли он когда-нибудь под фильтрами поисковиков. Это можно сделать с помощью Checktrust или другого сервиса. Если сайт попадал под фильтры, то работать с ним не стоит.


Кстати, стоимость регистрации домена в зоне .ru — 90-100 рублей в год. Если вы платите больше, то переведите свои домены на обслуживание к менее оху жадному регистратору.

Ошибки и возможности в поисковой оптимизации SEO, Маркетинг, Интернет, Google, Яндекс, Сайт, Бизнес, Длиннопост

Возраст страницы

Фактор возраста страницы работает немного по-другому: чем страница старше (раньше попалась поисковику на глаза), тем она авторитетнее. Поэтому туроператоры создают в 2015 году страницу «Туры в Египет 2017».


Изображения на странице

Картинки увеличивают вовлеченность читателя, помогают ему погрузиться в суть текста, привлекают внимание. То бишь улучшают пользовательские факторы.


Кроме того, наличие уникальных изображений — хороший сигнал для поисковиков. Уникальные изображения — те, которые вы сделали сами или заказали, изображения, которые не встречаются на других сайтах интернета. Изображения с фотостоков уникальными быть никак не могут.


Можно зеркалить картинки, поворачивать на магическое количество градусов. Но лучше сделать свои фотки.


Не забывайте в alt изображений прописывать основные ключевые слова страницы. Лишние вхождения никогда не помешают.


Исходящие ссылки и реклама

Если сайт ссылается на нормальные сайты или адекватно размещает рекламу, то в этом нет ничего плохого. На ранжировании в поисковиках это не скажется.


Если сайт продает мусорные ссылки и использует навязчивую рекламу (попандеры, кликандеры всякие), то готовьте вазелин.

Микроразметка

Микроразметка — крутая штука. Она «обогащает» поисковый сниппет. Rich Snippet, yo!

Ошибки и возможности в поисковой оптимизации SEO, Маркетинг, Интернет, Google, Яндекс, Сайт, Бизнес, Длиннопост

А еще микроразметка лучше доносит информацию до поисковика. Говорят, что это помогает ранжированию. Не замечал.


Микроразметка Schema.org стала де-факто стандартом микроразметки. О ней вам лучше меня расскажет Яндекс и Википедия.


Есть русскоязычный проект перевода RuSchema.org. В самом низу обычно есть примеры, по которым можно быстро ее встроить себе на сайт. Валидность проверяйте через валидаторы Яндекса и Google.


Кратко отмечу несколько классов разметки, которые я использую чаще всего:

Product или Offer. Используется в карточках товаров или на страницах услуги. Передают цену, условия доставки и рейтинг в сниппет.

AggregateRating. Оценка отдельно. Отмечу, что вместе оценкой важно использовать Review, чтобы доказать оценку реальными отзывами.

BreadcrumbList Красивое указание надкатегорий вместо URL в поисковом сниппете.


Есть микроразметка для ресторанов, фильмов, книг, организаций, статей и кучи всякого разного. Читайте, внедряйте, замеряйте эффективность.


Карта сайта

Карта сайта (Sitemap) не поможет ранжированию. Она помогает индексировать страницы, на которые нет ссылок на сайте, и дает поисковику информацию о приоритете индексирования и нужно ли вообще переиндексировать какие-то страницы.


Sitemap представляет собой XML-файл со ссылками следующего формата:


<loc>http://site.ru/rezinovye-baby/</loc>

<lastmod>2016-12-21T14:20:46+04:00</lastmod>

<changefreq>monthly</changefreq>

<priority>0.7</priority>



loc — сама ссылка.

lastmod — когда были последние изменения и стоит ли поисковику туда заходить.

changefreq — с какой периодичностью происходят изменения.

priority — какой приоритет у этой страницы перед другими, от 0 до 1.


Это основные свойства. Подробнее о строении Sitemap на sitemaps.org.


В CMS Sitemap генерируется в самом движке или с помощью модулей. Он должен быть актуальным и регулярно пересоздаваться. Если возможно, то каждый день.


После того, как вы настроете создание Sitemap, укажите его в robots.txt:

Sitemap: http://site.ru/sitemap.xml

А потом обязательно загрузите Sitemap в Яндекс.Вебмастер и Google Search Console, чтобы они быстрее прислали поискового робота.


Использование систем аналитики

Кто-то из блогеров, вроде Арбайтен, писал, что после установки Метрики на сайте резко увеличилась посещаемость из поиска Яндекса. После удаления Метрики она упала.


Мне проверять это лень, но я вам рекомендую всегда ставить Google Analytics и Яндекс.Метрику. Еще можно поставить Liveinternet для сбора семантики.


Регистрация в справочниках и каталогах

Раньше было можно делать «прогоны» по мусорным справочникам, чтобы получить прибавку 10-20 ТиЦ. Все это херня, толку от этих ссылок никакого.


Есть 2 справочника, где надо зарегистрироваться обязательно:

1. Яндекс.Справочник.

2. Google Мой Бизнес


Зарегистрировавшись там, у вас будет дополненный адресом сниппет и собственная карточка на витальном запросе.


Для ранжирования хорошо, если есть упоминания в каталогах DmoZ и Яндекс.Каталоге. В DmoZ попасть сложно, ибо сайт должен быть выдающимся. В Яндекс.Каталог тоже попасть сложно, но у них есть возможность проплатить участие в каталоге. Нужно вам это или нет, решайте сами.


Еще есть отраслевые каталоги, 2GIS, региональные и городские каталоги. В каких-то сферах они важны, а где-то толку не будет. Узнать можно только попробовав.


Хостинг

И заключительный пункт про хостинг.

Бесплатный хостинг — сразу нет. На бесплатном хостинге реклама, нестабильная работа и хрен знает что с безопасностью. Можно найти виртуальный хостинг дешевле 100 рублей или даже выделенный сервер за 250 рублей.


Важно, чтобы хостинг был надежным: сайт работал постоянно, без перерывов. Если он периодически вырубается, то это плохой сигнал для поисковиков.

Ошибки и возможности в поисковой оптимизации SEO, Маркетинг, Интернет, Google, Яндекс, Сайт, Бизнес, Длиннопост

Отслеживать uptime сервера можно с помощью специальных сервисов, UptimeRobot, например.


Выделенный сервер (VPS/VDS) немного дороже виртуального хостинга, но выигрывает по следующим причинам:


1. Под сервер выделяется свой IP. Нет риска получить бан по IP от поисковиков или почтовых узлов за плохого соседа.

2. Вы не делите ресурсы сервера с другими пользователями.

3. Ресурсов на выделенном сервере всегда больше.

4. Шире возможности настройки и управления сервером.


В комментарии я скину ссылки на хостеров, с которыми я работаю.


=====


В принципе, это все, что я могу рассказать о поисковой оптимизации.


В начале следующего года, надеюсь, будет статья об основах веб-аналитики, без которой начинать любую маркетинговую активность — это как ехать на машине в снегопад без дворников.


=====


Бонус к предыдущему посту. Увидел у Алаева заметку про ссылки. Почитайте, будет полезно. Согласен с ним по всем пунктам, кроме вечных ссылок.

Бизнес

2.4K постов32.7K подписчиков

Добавить пост

Правила сообщества

Разрешены только посты с тегом "моё".


Главное - полезность и применимость опыта другими участниками. Запрещены посты вроде "10 советов", всякая чухня про лендинги, мотивацию и стартапы. И особенно - бокс по переписке, то есть диванные размышления, как лучше делать, не обоснованные хотя бы одним примером. Если вы пишете на основе опыта своей компании - указывайте, какой. Лучший пост - это ваш личный опыт дела, даже если вы всего лишь сдавали бутылки.


Не делайте посты-анонсы вроде "я открыл магазин, если хотите дальше расскажу, как" - в материале сразу должны быть ценные факты.


Временно можно размещать посты с запросами на конкретные вещи для производства или поиска контактов вроде "мы умеем делать то-то, кому нужно" или "ищу поставщика такого-то".


Поскольку многие до этого места не осилили, введена премодерация. Если ваш пост подходит по правилам - пройдёт смело. Премодерация занимает от 20 минут до нескольких часов. Посты не удаляются, результат — пост в сообществе или пост переносится в общую ленту.

2
Автор поста оценил этот комментарий

1) По зеркалам, всё проще. Определяем какой домен нужен нам основным, наплевав на то как оно проиндексировано сейчас. Делаем 301 с сохранением остальной части урл на все варианты что у нас есть. Потом вписываем host в роботс, не забывая отнести его чисто к яшиному блоку ибо для остальных ПС это косяк в роботсе. И на этом расслабляемся. Ну или ходим ещё и к гуглвебмастер и указываем там руками, но это избыточно на самом деле.

Всё. После чего забили на все зеркала и занимаемся работой над самим сайтом. Все эти "мягкие переносы" и тому подобная муть только отвлекают от более важной работы. А ориентироваться на выдачу сейчас вообще не правильно. Лучше сделать как надо, а поисковик догонит.


2) Дубли страниц. В принципе всё верно, но в конце что-то странное написано. Страница закрытая в роботсе видна поисковику и используется при расчёте ранжирования сайта. По этому ссылка на "закрытую" страницу не уходит в ноль. Она повышает ссылочный вес всего сайта целиком. Но для продвижения конкретного товара/услуги, конечно же, нужно прописывать каноникалы или настраивать редиректы. Каноникал вообще великая вещь. Хотя гемороя с ним очень много.


3) редиректы и 404. Всё абсолютно верно, но не потому что "я не люблю бардак", а потому что редиректы передают не 100% веса, а меньше. Кроме того есть автоматические пессимизирующие факторы за большое количество редиректов и тупиков. А ещё кроме того чем правильнее структура сайтов тем быстрее и полнее происходит индексация.

Бороться с говном в ссылках надо обязательно, а не просто потому что не нравится.


4) Каталоги. Тут несколько моментов.

4.1) В ДмоЗ тяжело попасть не потому что ваш сайт должен быть выделяющимся, а потому, что он модерируется руками + модераторы добровольцы + это всё бесплатно. В русском сегменте катастрофически не хватает людей которые бы рассматривали заявки. Есть места где самые крутые модераторы, имеющие "власть" во всём русском сегменте, а не 1-2 разделах, общаются с владельцами сайтов и там можно попросить рассмотреть свой сайт заполнив форму. Несколько раз таким образом "пропихивал" сайты клиентов.

4.2) Яндекс каталог не гарантирует размещения в каталоге за деньги. Платна там лишь постановка на проверку вне очереди. Правда деньги с вас возьмут лишь при  размещении. Но, опять же, в моей практике были сайты которым отказывали более 10 раз в платном размещении. Деньги - не панацея.

4.3) Не надо говорить, что прогон по справочникам и каталогам бесполезен. Просто у него в настоящий момент совсем другие цели и задачи что были 5-10 лет назад. И нужен он совсем не каждому. Спорить на эту тему не хочу, просто не стоит утверждать что "Это нафиг 100%".

раскрыть ветку
Автор поста оценил этот комментарий

@hasler, привет.Как с тобой можно связатся?) Есть несколько вопросов))

раскрыть ветку
Автор поста оценил этот комментарий

Автор, спасибо за интересный материал без воды. Все интересное в одном месте.

Расскажите, а как установить SSL сертификат? Это файл какой-то куда-то нужно положить или как?

Для обычного shared-хостинга.

раскрыть ветку
Автор поста оценил этот комментарий

Крупный российский магазин SSL-сертификатов - Leaderssl.ru. Компания со своим офисом в Москве, который существует уже 10 лет. У них брали сертификаты все крупные компании, включая даже сам Яндекс. В общем, как вариант, советую рассмотреть. Сразу предупреждаю, что недешево, но зато всегда окажут помощь и не сольются через год, как это бывает со многими реселлерами.

Автор поста оценил этот комментарий

очень доходчиво, спасибо!  сделал файл robots.txt, залил в корневую папку, а яндекс говорит "иди лесом!"


"сервер отвечает редиректом на запрос robots.txt"

Подскажи, пожалуйста, что сделал не так?

раскрыть ветку