Инструменты для SEO — руководство по SEO для начинающих: Глава 8


SEO-опти­ми­за­торы исполь­зуют боль­шое коли­че­ство инстру­мен­тов, кото­рые суще­ственно облег­чают их работу, предо­став­ляя широ­кие воз­мож­но­сти по ана­ли­тике и опти­ми­за­ции сай­тов. Спе­ци­а­ли­сты Moz рас­ска­зали, какие инстру­менты и сер­висы пред­став­ляют наи­боль­шую цен­ность для веб-масте­ров.

Неко­то­рые наи­бо­лее полез­ные инстру­менты были созданы самими поис­ко­выми систе­мами, потому что они заин­те­ре­со­ваны в том, чтобы веб-раз­ра­бот­чики созда­вали понят­ные и доступ­ные для них сайты. Эти бес­плат­ные сер­висы для обмена дан­ными с поис­ко­выми систе­мами не доступны ни в одном дру­гом источ­нике. Ниже мы рас­смот­рим основ­ные из них.

Общепринятые протоколы поисковых систем

1. Карты сайтов (Sitemaps)

Карта сайта пред­став­ляет собой спи­сок фай­лов, кото­рый ука­зы­вает поис­ко­вым робо­там, какие стра­ницы вашего сайта необ­хо­димо про­ска­ни­ро­вать. Карта сайта помо­гает поис­ко­вым систе­мам нахо­дить и индек­си­ро­вать кон­тент, кото­рый они могут не заме­тить. Суще­ствует несколько фор­ма­тов карт сай­тов, кото­рые исполь­зу­ются для пере­дачи све­де­ний о раз­ных типах кон­тента, в том числе об изоб­ра­же­ниях, видео, ново­стях и мобиль­ном кон­тенте.

Деталь­ное опи­са­ние про­то­кола Sitemaps вы можете найти на сайте Sitemaps.org. Для созда­ния карты сайта можно вос­поль­зо­ваться одним из онлайн-гене­ра­то­ров, таких как XML-Sitemaps.com.

Суще­ствует три фор­мата карты сай­тов:

XML — Расширяемый язык разметки (рекомендованный формат)

  • Плюсы. Это самый рас­про­стра­нен­ный фор­мат, кото­рый под­дер­жи­вают основ­ные поис­ко­вые системы. Создать карту сайта в фор­мате XML можно при помощи одного из мно­го­чис­лен­ных гене­ра­то­ров. Кроме этого, карты сайта XML пред­ла­гают больше всего воз­мож­но­стей по настройке пара­мет­ров веб-стра­ниц.
  • Минусы. Карты сайта в фор­мате XML имеют боль­шой раз­мер, поскольку в них исполь­зу­ются теги, тре­бу­ю­щие откры­тия и закры­тия.

RSS — Очень простой сбор сводной информации, или Обогащенная сводка сайтов

  • Плюсы. Карту сайта в фор­мате RSS очень легко под­дер­жи­вать в акту­аль­ном состо­я­нии. Ее можно настро­ить таким обра­зом, чтобы она авто­ма­ти­че­ски обнов­ля­лась при добав­ле­нии нового кон­тента.
  • Минусы. Несмотря на то, что RSS – это диа­лект языка XML, его намного слож­нее настра­и­вать.

TXT — Текстовый файл

  • Плюсы. Тек­сто­вые карты сайта необы­чайно про­сты в исполь­зо­ва­нии. Они пред­став­ляют собой спи­сок URL сай­тов. В каж­дой строке дол­жен содер­жаться один URL. В одном файле может быть не более 50000 строк.
  • Минусы. Нет воз­мож­но­сти добав­лять мета-теги к стра­ни­цам.

2. Robots.txt

Файл robots.txt хра­нится в кор­не­вой папке сайта (напри­мер, www.example.com/robots.txt) и содер­жит инструк­ции для поис­ко­вых робо­тов.

С помо­щью команд robots.txt веб-мастера могут раз­ре­шить или запре­тить поис­ко­вым систе­мам индек­си­ро­вать опре­де­лен­ные стра­ницы сайта и выпол­нять неко­то­рые дру­гие дей­ствие. При­меры команд файла robotx.txt:

  • Disallow: Запре­щает поис­ко­вым робо­там посе­щать опре­де­лен­ные стра­ницы или дирек­то­рии.
  • Sitemap: Ука­зы­вает рас­по­ло­же­ние карты сайта.
  • Crawl Delay: Задает время (в мил­ли­се­кун­дах), кото­рое дол­жен выждать поис­ко­вый робот после окон­ча­ния ска­ни­ро­ва­ния одной стра­ницы и нача­лом загрузки дру­гой.

При­мер Robots.txt для сайта example.com:

User-agent: *
Disallow:

User-agent: spambot
disallow: /# Бло­ки­рует доступ спам-ботов ко всему сайту

sitemap: www.example.com/sitemap.xml

Обра­тите вни­ма­ние: Не все роботы сле­дуют инструк­циям файла robots.txt. Зло­умыш­лен­ники могут созда­вать ботов для мошен­ни­че­ских махи­на­ций (напри­мер, для кражи email адре­сов), кото­рые не выпол­няют команды robotx.txt, а вме­сто этого исполь­зуют ука­зан­ные в них пара­метры для похи­ще­ния лич­ных дан­ных. Поэтому в этом файле не реко­мен­ду­ется ука­зы­вать рас­по­ло­же­ние адми­ни­стра­тив­ных и дру­гих при­ват­ных раз­де­лов сайта. Чтобы запре­тить поис­ко­вым робо­там индек­си­ро­вать эти стра­ницы, исполь­зуйте соот­вет­ству­ю­щие мета-теги в раз­метке стра­ниц.

3. Мета-тег Robots

Мета-тег robots исполь­зу­ется для управ­ле­ния досту­пом к веб-стра­ни­цам. Этот мета-тег про­пи­сы­ва­ется в раз­деле HTML-доку­мента. Неко­то­рые зна­че­ния мета-тега:

  • noindex: запре­щает индек­си­ро­вать стра­ницу;
  • nofollow: запре­щает пере­хо­дить по ссыл­кам со стра­ницы;
  • noarchive: запре­щает сохра­нять кэши­ро­ван­ную копию стра­ницы;
  • noodp: запре­щает исполь­зо­вать description и title стра­ницы из ката­лога DMOZ в резуль­та­тах поиска;
  • noydir: запре­щает исполь­зо­вать description и title стра­ницы из ката­лога Yahoo Directory в резуль­та­тах поиска;
  • nosnippet: запре­щает отоб­ра­жать опи­са­ние сайта (снип­пет) в резуль­та­тах поиска.

При­мер исполь­зо­ва­ния мета-тега Robots:

<html>
<head>
<title>Лучшая стра­ница в Интернете</title>
<meta name=“ROBOTS” content=“NOINDEX, NOFOLLOW”>
</head>
<body>
<h1>Привет всем!</h1>
</body>
</html>

В этом при­мере зна­че­ние “NOINDEX, NOFOLLOW” запре­щает поис­ко­вым робо­там индек­си­ро­вать дан­ную стра­ницу и пере­хо­дить по ссыл­кам, кото­рые на ней нахо­дятся.

4. Rel=“Nofollow”

Помните, в преды­ду­щей главе руко­вод­ства мы писали о том, что ссылки – это в своем роде голоса за сайт? Зна­че­ние rel=nofollow поз­во­ляет ссы­латься на сайт таким обра­зом, чтобы ваш «голос» не был засчи­тан. Дру­гими сло­вами, nofollow запре­щает поис­ко­вым систе­мам индек­си­ро­вать ссылки и учи­ты­вать их при ран­жи­ро­ва­нии резуль­та­тов. Тем не менее, неко­то­рые поис­ко­вики все же исполь­зуют их, но только для того, чтобы нахо­дить новые стра­ницы.

Ссылки nofollow имеют мень­ший вес, чем обыч­ные ссылки. Вы можете исполь­зо­вать их, если не уве­рены в надеж­но­сти источ­ника, на кото­рый ссы­ла­е­тесь.

При­мер исполь­зо­ва­ния nofollow:

<a href=”http://www.example.com” title=“Example” rel=”nofollow”>Пример ссылки</a>

5. Rel=“canonical”

Нали­чие на сайте двух оди­на­ко­вых стра­ниц с раз­ными URL – довольно рас­про­стра­нен­ное явле­ние. К при­меру, все пере­чис­лен­ные ниже адреса могут вести на одну домаш­нюю стра­ницу сайта:

  • http://www.example.com/
  • http://www.example.com/default.asp
  • http://example.com/
  • http://example.com/default.asp
  • http://Example.com/Default.asp

Для поис­ко­вых систем это совер­шенно раз­ные стра­ницы с оди­на­ко­вым содер­жа­нием. Поскольку на этих стра­ни­цах исполь­зу­ется дуб­ли­ро­ван­ный кон­тент, поис­ко­вые системы могут пони­зить пози­ции этих стра­ниц.

Устра­нить эту про­блему можно при помощи тега rel=“canonical”, кото­рый ука­зы­вает поис­ко­вым систе­мам, какая из дуб­ли­ро­ван­ных стра­ниц явля­ется основ­ной.

При­мер исполь­зо­ва­ния rel=“canonical” для адреса http://example.com/default.asp:

<html>
<head>
<title>Лучшая стра­ница в Интернете</title>
<link rel=“canonical” href=“http://www.example.com”>
</head>
<body>
<h1>Привет всем!»</h1>
</body>
</html>

В этом при­мере rel=canonical гово­рит поис­ко­вым робо­там о том, что стра­ница http://example.com/default.asp — это копия стра­ницы http://www.example.com, кото­рую сле­дует счи­тать кано­ни­че­ской, то есть ори­ги­наль­ной.

Инструменты поисковых систем

Google Инструменты для веб-мастеров – Популярные функции

Настройки сайта

  • Гео­тар­ге­тинг. Если ваш сайт рас­счи­тан на поль­зо­ва­те­лей из опре­де­лен­ного гео­гра­фи­че­ского места, вы можете дать Google инструк­ции отно­си­тельно того, как отоб­ра­жать этот сайт для целе­вой ауди­то­рии. Это помо­жет улуч­шить резуль­таты поиска для гео­за­ви­си­мых запро­сов.
  • Основ­ной домен. Основ­ной домен – это тот домен, кото­рый вы пред­по­чи­та­ете исполь­зо­вать для индек­са­ции стра­ниц сайта. Если вы ука­жете в каче­стве основ­ного домена http://www.example.com, а Google най­дет ссылку в виде http://example.com, то посчи­тает ее иден­тич­ной ссылке http://www.example.com.
  • Пара­метры URL. Вы можете ука­зать Google, как сле­дует обра­ба­ты­вать те или иные пара­метры URL, такие как“sort=price” или “sessionid=2”. Это помо­жет поис­ко­вым робо­там эффек­тив­нее индек­си­ро­вать стра­ницы вашего сайта, игно­ри­руя пара­метры, кото­рые создают дуб­ли­ро­ван­ный кон­тент, и уве­ли­чи­вая коли­че­ство уни­каль­ных про­ска­ни­ро­ван­ных стра­ниц.
  • Ско­рость ска­ни­ро­ва­ния. Ско­рость ска­ни­ро­ва­ния сайта опре­де­ля­ется ско­ро­стью отправки запро­сов поис­ко­вым робо­том во время ска­ни­ро­ва­ния. Она не вли­яет на частоту индек­си­ро­ва­ния сайта. Google опре­де­ляет реко­мен­до­ван­ную ско­рость ска­ни­ро­ва­ния в зави­си­мо­сти от коли­че­ства стра­ниц на сайте.

Диагностика

  • Вре­до­нос­ное ПО. В слу­чае обна­ру­же­ния на сайте вре­до­нос­ного ПО Google инфор­ми­рует об этом веб-мастера. Вре­до­нос­ное ПО может нега­тивно ска­заться на выдаче сайта в резуль­та­тах поиска.
  • Ошибки ска­ни­ро­ва­ния. Поис­ко­вые роботы Google также сооб­щают об ошиб­ках ска­ни­ро­ва­ния (таких, как ошибка 404), с кото­рыми стал­ки­ва­ются при посе­ще­нии сайта.
  • Опти­ми­за­ция HTMLЭта функ­ция поз­во­ляет обна­ру­жить ошибки HTML-раз­метки, в част­но­сти про­блемы с мета-тегами title и description и про­блемы с индек­са­цией кон­тента.

Ваш сайт в Интернете

Инстру­менты для веб-масте­ров предо­став­ляют доступ к ста­ти­сти­че­ским дан­ным по вашему сайту, в част­но­сти про­смот­реть отчет по запро­сам, про­ана­ли­зи­ро­вать кли­ка­бель­ность стра­ниц сайта, опре­де­лить самые посе­ща­е­мые стра­ницы и полу­чить инфор­ма­цию о внеш­них ссыл­ках.

Оптимизация сайта

С помо­щью Google инстру­мен­тов для веб-масте­ров вы можете доба­вить на сайт карту сайта, про­ве­рить файл robots.txt, настро­ить допол­ни­тель­ные ссылки в резуль­та­тах поиска или сооб­щить Google о пере­носе сайта на дру­гой домен.

Метрика +1

Рас­про­стра­не­ние вашего кон­тента в Google+ спо­соб­ствует про­дви­же­нию сайта. Google-инстру­менты предо­став­ляют функ­цию изме­ре­ния вли­я­ния актив­но­сти в Google+ на пози­ции вашего сайта.

Лаборатория

В раз­деле «Лабо­ра­то­рия» содер­жатся отчеты, кото­рые нахо­дятся на ста­дии раз­ра­ботки, но все равно пред­став­ляют цен­ность для веб-масте­ров. К при­меру, здесь есть инстру­мент для оценки ско­ро­сти загрузки стра­ниц вашего сайта.

Основные возможности Open Site Explorer

Сер­вис Open Site Explorer, создан­ный ком­па­нией Moz, предо­став­ляет широ­кие воз­мож­но­сти для ана­лиза ссы­лоч­ной массы сайта. Основ­ные функ­ции сер­виса:

  • Ана­лиз вхо­дя­щих ссы­лок. Open Site Explorer предо­став­ляет спи­сок всех обрат­ных ссы­лок сайта в порядке их зна­чи­мо­сти.
  • Поиск наи­бо­лее зна­чи­мых внеш­них ссы­лок. Этот инстру­мент отоб­ра­жает самые попу­ляр­ные сайты из тех, кото­рые ссы­ла­ются на ваш домен.
  • Ана­лиз анко­ров обрат­ных ссы­лок. Open Site Explorer пока­зы­вает, какие анкоры исполь­зуют поль­зо­ва­тели, ссы­ла­ясь на ваш сайт.
  • Срав­не­ние сай­тов. С помо­щью инстру­мен­тов Open Site Explorer вы можете срав­нить два сайта.
  • Мет­рики соци­аль­ной актив­но­сти. Изме­ряет коли­че­ство репо­стов и лай­ков в Facebook, Google + и Tweeter.

Поис­ко­вые системы начали пред­ла­гать инстру­менты для веб-масте­ров срав­ни­тельно недавно. Это стало боль­шим шагом впе­ред в SEO и пони­ма­нии поис­ко­вых систем веб-раз­ра­бот­чи­ками. Но, судя по всему, эти инстру­менты — это наи­боль­шее, что могут пред­ло­жить поис­ко­вые системы для помощи веб-масте­рам. Так что основ­ная работа по опти­ми­за­ции сай­тов все же будет лежать на пле­чах мар­ке­то­ло­гов и веб-масте­ров. Вот почему изу­че­ние SEO все­гда нико­гда не утра­тит своей акту­аль­но­сти.

Глава 7   Оглав­ле­ние   Глава 9

Поделитесь материалом с друзьями


[share-buttons]