>>>

Проектирование, разработка и оптимизация веб-приложений

SEO оптимизация сайта. Лабораторная работа

Цель работы: Приобрести навыки поисковой оптимизации Web-ресурсов, провести внутреннюю SEO-оптимизацию страницы Web-ресурса.

Теоретические сведения.

Разработка красивого и функционального сайта зачастую не гарантирует его успех у потенциальных посетителей. Для их привлечения необходимо проделать объемную работу по продвижению Web-ресурса.

На сегодня существует несколько методик продвижения сайта:

  1. Контекстная реклама – размещение информации о ресурсе на специализированных рекламных площадках или в сервисах, демонстрирующих ее целевой аудитории. Популярными площадками здесь являются Яндекс.Директ, Google Adwords, Бегун.
  2. Баннерная реклама – размещение мультимедийного рекламного блока (баннера), содержащего гиперссылку на продвигаемый ресурс, на сторонних тематически близких целевой аудитории продвигаемого ресурса сайтах.
  3. Вирусный маркетинг – распространение информации о ресурсе самими пользователями (посетителями) сайта. Основой продвижения здесь становится информационный «вирус» – яркая, броская, необычная подача информации о продвигаемом ресурсе в виде необычного видеоролика или оригинально поданной новости, которыми пользователи начинают делиться друг с другом, тем самым быстро и бесплатно распространяя ссылки на ресурс в режиме «сарафанного радио»
  4. Использование социальных сетей позволяет быстро и бесплатно заявить о ресурсе на большую аудиторию, объединенную дружественными отношениями в популярных социальных сетях. Помимо непосредственного эффекта волнового распространения информации о ресурсе в виде всевозможных «лайков», данный метод продвижения обладает потенциалом обратной cвязи, позволяющим узнать мнение пользователей относительно качества продвигаемого ресурса.
  5. Публикация в популярных блогах и на форумах также позволяет быстро заявить о продукте максимально широкой аудитории с учетом ее тематических предпочтений. Блоггер может посвятить ресурсу отдельную статью, оставить ссылку на ресурс в посте. Обсуждения в форуме позволяют оставлять скрытую рекламу в обсуждениях. Наличие собственного блога позволяет более целенаправленно вести рекламную кампанию ресурса, а также получать от читателей (посетителей) обратную связь.
  6. Публикация новостей или пресс-релизов о продвигаемом ресурсе в электронных средствах массовой информации или на тематических порталах позволяют создать дополнительный информационный повод, адресованный заинтересованной (или интересующей владельцев ресурса) аудитории.
  7. Регистрация ресурса в электронных каталогах позволяет увеличить количество точек потенциального соприкосновения заинтересованных в конкретном типе услуг или товаров пользователей и продвигаемого ресурса.
  8. SEO-продвижение ресурса позволяет заявить о ресурсе через механизм поиска популярных поисковых сервисов. Получение информации с использованием поисковых движков стал привычным и рутинным действием для подавляющего большинства пользователей сети Интернет, в связи с чем высокие позиции в выдаче по ключевым тематическим запросам в Google или Яndex стало приоритетом для владельцев Web-ресурсов. Правильно выбранная стратегия SEO-продвижения и умелое использование его инструментарием и методиками позволяет быстро, дешево и эффективно донести информацию о продвигаемом ресурсе желаемой аудитории, при этом эта информация зачастую выглядит для нее как наиболее авторитетная и непредвзятая. Это делает SEO одним из самых часто используемых инструментов раскрутки Web-ресурса, а услуги SEO-оптимизаторов весьма востребованными на рынке, в связи с чем в данной лабораторной работе основное внимание будет уделено именно этому средству продвижения сайтов в сети Интернет.

SEO (Search Engine Optimization) – процесс оптимизации Webресурса под поисковые системы для увеличения количества трафика пользователей на web-ресурс путем увеличения его ранга в результатах поиска в поисковых системах. Эмпирически понятно и статистически доказано, что высокие позиции сайта в результатах выдачи поисковой системы повышают вероятность того, что пользователь посетит данный сайт. Поисковая оптимизация предполагает изменение его внутренних факторов, влияющими на ранжирование в поисковых системах (структуры ресурса, качество контента, код HTML), а также его внешних факторов ранжирования (наличие внешних ссылок на сайт, качество этих ссылок, наличие сайта в тематических каталогах). Цель оптимизации – увеличение релевантности ресурса целевым ключевым словам, отражающим содержимое ресурса, повышение ранга сайта по алгоритмам ранжирования поисковых машин, увеличение позиций в результатах поисковой выдачи поисковых машин для привлечения большего количества посетителей на сайт.

SEO-оптимизация популярна и эффективна благодаря:
- высокому доверию к выдаче популярных поисковых машин со стороны посетителей;
- оптимальному отношению «цена/качество» для процесса продвижения;
- долговременному эффекту от процесса продвижения;
- универсальности процесса продвижения для различных поисковых движков – несмотря на уникальные алгоритмы индексирования и ранжирования у разных поисковых машин, мероприятия по повышения позиции сайта в одной из них приводят к росту рейтинга и в других.

Есть у SEO-продвижения и проблемные места:

- Процесс продвижения носит вероятностный характер, нельзя гарантировать 100%-й результат, например, попадания на первое место в выдаче по определенным запросам;  - Высокая инерционность работы поисковых систем приводит к временным задержкам при ожидании итогов работы. Прежде чем проводить непосредственно SEO-оптимизацию необходимо понять принцип работы поисковых машин. Это позволит проводить работу осмысленно и направленно на положительный результат. Для проведения состава работ по поисковой оптимизации сайта необходимо иметь представление о принципах работы поисковых систем.

Современная поисковая система является сложным программным комплексом, включающим среди прочих:

- Spider (паук) - компонент, скачивающий страницы браузера с использованием HTTP-запросов, как это делает браузер коечного пользователя. Однако, если целью браузера является визуальное представление страницы пользователю, то паук передает скачанную страницу на обработку другим компонентам системы (Crawler-паукам или индексаторам);

- Crawler (путешествующий паук) – компонент, обеспечивающий поиск новых страниц для скачивания и индексации. Он выделяет все ссылки, присутствующие на скачанной пауком-spider-ом странице. После этого строится план дальнейшего сканирования по найденным ссылкам. Таким образом поисковая система постоянно обновляет и пополняет список известных ей страниц.

- Indexer (индексатор) получает страницу от паука, парсит (разбирает) ее на составные части: текст, изображения, видео, ссылки, заголовки, специальные теги и др. Для анализа индексатор использует оригинальные лексические и морфологические алгоритмы.

- Database (база данных) или индекс системы выступает как хранилище проиндексированных данных. В ней ставится соответствие элемента (слова, изображения, видеофрагмента) и Web-ресурсов, на которых он был найден пауком. Данные в хранилище заносятся индексатором.

- Search Engine Results Engine (система выдачи результатов) работает на конечном этапе поискового цикла. Его назначение – ранжированием страниц по запросу пользователя. Именно этот компонент формирует поисковую выдачу – тот набор ссылок на Web-ресурсы, которые согласно алгоритмам этой конкретной поисковой системы в наибольшей степени соответствуют обращению пользователя. Для отбора ссылок и их сортировки перед отправкой пользователю используются алгоритмы ранжирования (например, Google PageRank или Яндекс ТИЦ).

Пауки-Crawler’ы по указанию пауков-Spider’ов скачивают новые неизвестные страницы с сайта, они анализируются и индексируются, найденные на них ссылки служат путями для нового цикла поиска: команда Crawler’у инициирует поиск и скачивание, парсинг выделяет содержимое страниц и порожлдает новые пути поиска контента и т.д. В найденных пауками страницах анализируется содержание и они встраиваются в индекс поисковой системы, хранящийся в общей базе.

Необходимо отметить, что поисковые боты не только ищут новые, ранее неизвестные ресурсы, но и периодически переиндексируют ранее посещенные страницы. Таким образом достигается актуальное состояние базы данных поисковой системы.

С учетом того, что оптимизация поисковой выдачи (SEO) ориентируется именно на результаты работы системы выдачи поисковой машины, именно факторы ранжирования в первую очередь учитываются SEO-специалистом в его работе. Однако, нельзя не учитывать особенности работы поисковых роботов-пауков при оптимизации Web-ресурса. Это позволит как снизить нагрузку на Web-сервер при обработке запросов от пауков, так и актуально обновлять индекс поисковой машины при обновлении данных на страницах сайта или появлении новых страниц на ресурсе.

Разработчик (владелец) Web-ресурса может управлять процессом индексирования своего сайта со стороны поисковых роботов. Для этого используются:
- метатеги заголовка HTML-документа;
- файл robots.txt.

Файл robots.txt представляет собой текстовый файл в кодировке UTF-8, который размещается в корневой директории сайта и может содержать ряд инструкций для спайдеров поисковых систем по порядку индексирования данного ресурса. Этот файл актуален для протоколов FTP, HTTP, HTTPS. Назначение и внутренняя структура файла задекларирована в документе под названием «Стандарт исключений для роботов, принятым консорциумом W3C в 1994 года и использующимся большинством известных поисковых машин.

Сессия работы поискового робота с сайтом начинается с загрузки файла robots.txt. Если файл HTTP-статус загрузки этого файла будет иметь статус, отличный от 200 OK, робот будет считать, что доступ к документам ничем не ограничен. Иначе он прочитает строки конфигурационного файла и при индексировании будет следовать указанным в них инструкциям. Необходимо понимать, что инструкции robots.txt носят рекомендательный характер, поисковые машины могут их игнорировать. Надежный способ защитить страницы и разделы сайта от индексирования поисковыми системами – поместить их в зашифрованные разделы сайта.

Внутренняя структура robots.txt предельно проста: он должен содержать одну или несколько записей (records), разделенных одной или несколькими пустыми строками. Каждая запись должна содержать строки в форме:

<field>:<optional_space><value><optional_space>

Запись должна начинается с одной или нескольких строк User-Agent, за которой следуют одна или несколько строк с директивами Allow или Disallow

Директива User-Agent указывает, к какому роботу обращены последующие директивы. При том допускается сформулировать разные правила для различных роботов. Ниже приведен пример использования директив UserAgent для различных поисковых роботов:

# Директивы для всех роботов
User-agent: *
            
#Обратите внимание на пустую строку после каждого блока User-Agent
            
# Директивы для всех роботов Яндекса
 User-agent: Yandex
            
# Директивы только основному индексирующему роботу Яндекса
User-agent: YandexBot
            
# Не забываем про роботов Google
            
User-agent: Googlebot

Ниже приведен список некоторых популярных роботов, на которые может ориентирован файл robots.txt для конфигурирования процесса индексирования:
− YandexBot — основной поисковый робот Yandex
− YandexBlogs — робот поиск по блогам, индексирующий посты и комментарии;
− YandexMarket— робот Яндекс.Маркета;
− YandexNews — робот Яндекс.Новостей;
− YandexDirect — скачивает информацию о контенте сайтов-партнеров Рекламной сети, чтобы уточнить их тематику для подбора релевантной рекламы;
− YandexImages — индексатор Яндекс.Картинок;
− YandexCalendar — робот Яндекс.Календаря.
− YandexMetrika — робот Яндекс.Метрики;
− YandexMedia — робот, индексирующий мультимедийные данные;
− Googlebot-News — робот Google для поиска новостей;
− Mediapartners-Google — робот Google для сервиса AdSense;
− Googlebot-Image — робот Google для картинок;
− Googlebot-Video — робот Google для видео;
− Googlebot-Mobile — робот Google для мобильных версий ресурсов;

Директива User-Agent только конкретизирует тип робота, для которого заданы следующие директивы в блоке. Без дополнительных директив его использование бессмысленно. Основными подобными директивами являются, как уже было упомянуто выше, Allow и Disallow.
Disallow —директива, запрещающая индексацию сайта или его части.Что именно запрещается сканировать/индексировать, уточняется в параметрах директивы.

Вот как, например, можно запретить в robots.txt индексацию сайта конкретным роботом:

User-agent:
                Yandex-News
Disallow: /
Можно закрыть от робота (-ов) не весь сайт, а лишь конкретные разделы. Закрываем от всех роботов раздел docs сайта:
User-agent: *
Disallow: /docs
Для параметра директивы Disallow допустимо использовать символышаблонизаторы * и ?. Например,
User-agent: *
Disallow: /page*
запретит сканирование всех , начинающихся с page (/page_old, /page-about,
/page/news). Знак $ указывает на необходимость точного соответствия:
User-agent: *
Disallow: /page$
скроет только папку /page, но откроет доступ к /page1, /page/news и др.
Если параметр директивы Disallow будет опущен, то это означает отсутствие запрещения.

Директива Allow играет роль альтернативы Disallow — она разрешает сканирование тех или иных разделов сайта и имеет синтаксис, аналогичный Disallow. Совместное использование двух рассмотренных директив позволяет комбинировать права роботов на доступ к тем или иным разделам:

User-agent:
Googlebot
Disallow: /
Allow: /docs

В приведенном примере мы запрещаем сканирование сайта за исключением раздела /docs.

Помимо уже рассмотренных, в файле robots.txt можно использовать еще ряд директив. Одна из них – директива Host. Она служит для указания роботу Яндекса (и поддерживается на сегодняшний день только этой поисковой системой) главного зеркала Вашего сайта.. Директива Host полезна в том случае,если ваш сайт доступен по нескольким адресам и вам необходимо установить приоритет для одного из них, чтобы именно он выдавался как результат поисковой выдачи. Например, для двух доменов mysite.ru и www.mysite.ru необходимо указать второй как основной. Тогда в файле robots.txt указываем:

User-agent: Yandex
Disallow: /page
Host: www.mysite.ru

Еще одна интересная и полезная директива – Sitemap. C ее помощью в robots.txt можно указать расположение на сайте файла карты сайта sitemap.xml. Указание адреса карты сайта через директиву Sitemap в
robots.txt позволяет поисковому роботу узнать о наличии карты сайта и начать
ее индексацию. Sitemaps — это XML-файл с информацией для поисковых систем о тех страницах веб-сайта, которые подлежат индексации. Sitemaps не только указывают поисковика те папки, которые подлежат индексированию,но и хранит информацию о времени их последнего обновления, планируемой частоте обновления и приоритете относительно других страниц сайта. Вся эта информация полезна поисковому роботу для повышения эффективности обработки страниц в разделах Web-ресурса. Вот как можно задать местоположения карты сайта:

User- agent: *
Disallow: /page
Sitemap: http://www.some.com/sitemap.xml

Внутренняя структура Sitemaps документирована, упрощенный вариант подобного файла выглядит следующим образом:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://www.some.com/</loc>
<lastmod>2015-01-01</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
</urlset>

Файл robots.txt – не единственная возможность управления процессом индексацию страницы. Для этих же целей можно воспользоваться специализированными html-тегами. В заголовке html-документа можно поместить теги meta со следующими атрибутами:

<meta name= “robots” content= “noindex”/>
— не индексировать содержимое страницы;
<meta name= “robots” content= “nofollow”/> — не переходить по ссылкам на странице;
<meta name= “robots” content= “none”/> — запрещено индексировать содержимое и переходить по ссылкам на странице;
<meta name= “robots” content= “noindex, nofollow”/> — аналогично content= “none”.
<meta name="Revisit-After" content="1 Days"> - приглашаем поискового робота заходить на сайт с частотой 1 раз в день, поскольку именно с этой периодичностью на нем обновляется контент.

Описанные инструменты позволяют конфигурировать процесс индексации поисковыми роботами содержимого сайта. Однако, главной целью SEO оптимизации является продвижение страниц сайта на этапе ранжирования по
запросу, когда поисковая система формирует список выдачи на сформулированный пользователем запрос. По результатам исследований до 80% пользователей поисковых систем всегда или часто переходят по ссылкам, выдаваемым поисковой системой как наиболее подходящие поисковому запросу. Алгоритмы ранжирования современных поисковых систем являются сложными
многокритериальными, динамически изменяющимися моделями, учитывающими сотни статистических показателей работы ресурса. Разработчики поисковых систем должны отслеживать частоту обновления информации на ресурсе, его популярность у посетителей, авторитетность сайта у других ресурсов, попытки владельцев ресурсов обманным путем искусственно повысить
ранг своего сайта. При этом базовые принципы ранжирования web-ресурсов
при поисковой выдаче известны, они опираются на ряд факторов ранжирования. В связи с этим необходимо знать эти факторы и учитывать их как в процессе разработки web-сайта, так и при его продвижении. Общее количество факторов весьма велико (более 700 у Яндекс), поэтому рассмотреть их все не представляется возможным, заострим внимание на некоторых из них. Факторы ранжирования делятся на группы:
1. Внутренние факторы.
В эту группу входят факторы, которые определяют разработчики/владельцы ресурса путем его внутреннего структурирования и наполнения. Основными здесь можно назвать:
- качество контента сайта, определяемого по его актуальности, оригинальности, релевантности, «тошностности». Некоторые из этих характеристик не требуют особых пояснений – если информация на ресурсе актуальна, регулярно обновляется, не является копией контента с других сайтов, то такой ресурс будет иметь больший вес по алгоритмам ранжирования, привлекать внимание как посетителей, так и владельцев других ресурсов и, в конечном итоге, этот ресурс будет расти в позициях поисковой выдачи. Другие характеристики вступают во взаимный конфликт. Так, например, показатель релевантностиучитывает процент вхождения слов поискового запроса в контенте сайта: чем он выше, тем более релевантны страницы сайта запросу. Однако, поисковики вводят термин «тошнотности» страниц сайта, которая определяется как перегруженность текста целевыми ключевыми словами. Зачастую SEOоптимизаторы перенасыщают страницы сайта, которые хотят поднять в поисковой выдаче, ключевыми словами тематике, которой посвящен ресурс. В этом случае читать человеку подобный текст становится неинтересно, от обилия целевых ключевых слов читателя начинает «тошнить». Показатель классической тошноты – это квадратный корень из числа, обозначающего частоту употребления слова в тексте. Если вы используете слово на странице 25 раз,то его классическая тошнота будет равна 5 вне зависимости от объема текста.При этом показатель классической тошноты не может быть меньше 2,64: если
слово использовано в тексте менее 7 раз, корень квадратный в этом случае извлекается из числа 7.

Очевидно, что релевантность и тошнота – показатели-антиподы, выигрывая в одном мы проигрываем в другом и достижение их разумного баланса
будет свидетельствовать о квалификации SEO-специалиста. На сегодня принято считать, что показатель частоты встречаемости ключевого слова в тексте
в 3.5-5% является оптимальным.

Для того чтобы выше по рангу оказывались ресурсы с понятным и приятным для прочтения тестом поисковые системы постоянно усложняют свои
алгоритмы ранжирования, отдавая предпочтения тем страницам, где используются синонимы ключевых слов, семантически связанные конструкции. Так, например, Google сегодня использует при ранжировании такой фактор как латентно-семантический индекс ключевых слов в контенте (LSI), который позволяет поисковикам бороться с ситуациями перегруженности контента одними и теми же ключевыми словами, которые говорят либо о неумелом насыщении ключевиками при формировании контента, либо о плохом качестве текста, что тоже должно отталкивать посетителей;

Повышает ранг сайта (страницы) также частое обновление контента,
наличие мультимедийных материалов, наличие дополнительных полезных виджетов и сервисов.
- соответствие заголовка сайта (тег title), его описания (метатег description), ключевых слов (метатег keywords) основному содержимому страницы;
- насыщение целевыми ключевыми словами значимых элементов страницы. Релевантность страницы запросу будет выше, если ключевые слова запроса будет встречаться в таких областях страницы, как заголовок (тег title), описание (метатег description), ключевые слова (метатег keywords), заголовка в тексте страницы (теги h1-h6), текст с полужирным начертанием, атрибуты alt в изображениях;
- грамотная внутренняя структура сайта: если на сайте эффективно
организована система навигации по страницам, то это также повысит его ранг.Если представить структуру сайта в виде дерева, то его последний уровень (листья), которые обычно представляют собой статьи, не должны находиться слишком глубоко (3-4 клика от главной страницы). Здесь также учитываются анкорный текст - содержимое тега a со ссылкой на другую страницу сайта должно содержать ключевые слова адресуемой страницы. Для поднятия ранга
отдельных страниц и сайта в целом может понадобиться внутренняя перелинковка (см. далее);
- вид используемых URL. Если страницы имеют постоянные уникальные адреса, то лучше использовать ЧПУ (Человеко-Понятный-URL):

shop.ru?cat=50&firm=30&good=1345

хуже чем

shop.ru/notebook/asus

Базовый принцип – в строке адреса желательно иметь 2-3 ключевых слова (возможно – в транслите).
- возраст и качество домена. Данная группа факторов учитывает, как давно существует домен, как часто у него менялся владелец, своевременно ли продлялся домен. Наличие точного совпадения доменного имени с ключевым словом также учитывается и повышает ранг.
- скорость загрузки и наличие ошибок на сайте может косвенно понизить ранг вашего ресурса;
- количество и качество внешних ссылок на сайте. Ранее считалось,что внешние ссылки снижают ранг сайта, поскольку отдают часть его веса сторонним ресурсам. Однако сегодня разработчики поисковых систем поощряют наличие ссылок на авторитетные и тематически связанные ресурсы, считая,что подобная связь между ресурсами свидетельствует о семантический близости ресурсов и осмысленности формирования контента;

2. Внешние факторы.
Данная группа факторов зависит от отношения сторонних ресурсов к вашему и потому менее доступна к непосредственной модификации. Факторами этой группы являются:
- количество и качество внешних ссылок на сайт. Наличие ссылок
на страницы продвигаемого ресурса с других (желательно близких по тематике сайтов) является важным фактором ранжирования для современных поисковых систем. При этом алгоритм ранжирования учитывает не только количество, но и качество внешних ссылок. Для этого разработаны специальные алгоритмы ранжирования (PageRank у Google или ТИЦ у Яndex). Согласно этим алгоритмам, посредством ссылки сайт-донор передает сайту – акцептору часть своего веса, авторитета и у поисковой системы. Чем больше ТИЦ или PR у сайта-донора ссылки, тем больше вес этой ссылки, и тем больше данная ссылка принесет пользы сайту-акцептору.
На ранжирование влияет не только удельный вес внешних ссылок по ТИЦ или PageRank, но и релевантность их анкорных текстов, чтобы тематика сайта совпадала по ключевым словам с текстом ссылки. Продвигая сайт за счет наращивания внешней ссылочной массы, можно следовать различным стратегиям: либо стремиться к увеличению любых ссылок, либо получить несколько высокоавторитетных ссылок на сайт. Так, разместив на сайте-доноре с ТИЦ 1000 статьи по тематике продвигаемого сайта и указав там пару ссылок на продвигаемый сайт, можно получить больший эффект в увеличении ранга сайта, чем при размещении ста ссылок на низкоавторитетных ссылок (на сайтах-донорах с ТИЦ<50).
При анализе внешних ссылок учитываются также такие факторы как:
возраст домена-донора ссылки, наличие ссылок с сайтов-конкурентов (соседей по результатам поисковой выдаче), анкорный текст внешних ссылок.
- упоминание сайта и ссылки на него в социальных сетях. Трудно переоценить роль социальных сетей в современном глобальном информационном пространстве и поисковые системы отслеживают посты, комментарии, отзывы в социальных сетях на предмет наличия в них упоминаний ссылок на те или иные страницы. наличие подобных ссылок идет в плюс рангу страницы и на этом строятся целые стратегии продвижения.
- присутствие сайта в тематических каталогах поисковых систем
(таких как Яndex-Каталог, DMOZ, Rambler-Top100 и др.) повышает его позиции в итоговой выдаче.
3. Поведенческие факторы.
Данная группа факторов иллюстрирует, как ведут себя пользователи на
страницах ресурсов и являются косвенными показателями его удовлетворенности от информации, предлагаемой на ресурсе. Показатели этой группы:
- среднее время, проведенное посетителем на сайте. Поисковые системы засекают время, которое посетители проводят на сайте после перехода
со страницы поисковой выдачи. Чем выше этот показатель, тем белее релевантным ожиданиям пользователя считается сайт, что повышает его ранг в системе;
- показатель отказов подсчитывает, сколько раз пользователь сразу (не позже 15 секунд после перехода на сайт) покидает ресурс. Отказ означает априорное несоответствие контента ресурса ожиданиям клиента и снижает рейтинг сайта для поисковика;
- повторное посещение сайта учитывает тот факт, что посетитель впоследствии повторно заходит на сайт, что означает для поисковой системы проявление интереса к контенту в контексте поискового запроса. Прочими свидетелями интереса пользователя к ресурсу могут стать занесение его адреса в
закладки, дальнейшее использование прямой ссылки на ресурс в адресной
строке.
- количество комментариев на сайте также является косвенным критерием интереса посетителей и дать поисковой систем повод повысить его
ранг. 

Для мониторинга поведенческих факторов поисковые системы используют: 

-Специализированные сервисы (Яндекс.Метрика , Google.Analytics,);

- Встроенные функции браузеров;

- Браузерные плагины;

Узнав особенности работы поисковых систем, можно начинать работу по SEO-оптимизации сайта. Прежде всего необходимо определиться с ключевыми словами в запросах пользователей, по которым вы хотели бы, чтобы ваш ресурс оказывался как можно выше в поисковой выдаче, чтобы насытить ими важные элементы структуры сайта. Помимо непосредственно ключевых слов, необходимо понимать контекст поиска информации со стороны клиенты, которому вы хотели бы, чтобы ваш ресурс в наибольшей степени соответствовал. На сегодня выделяют несколько типов поисковых запросов:

1. Навигационные запросы осуществляются с целью попасть на конкретный сайт. В этом случае поисковый движок выполняет функцию телефонного справочника для пользователя, интересующегося конкретной компанией, персоной, событием. Такого типа запросы очень эффективны для владельца сайта, поскольку клиента интересует именно этот бренд, но они не очень хорошо ориентированы на новых клиентов. Для владельцев сторонних ресурсов ориентация на подобные запросы интересна для маркетинговых исследований, а также для отвлечения трафика от конкурента. Примеры навигационных запросов: «Ближайший банкомат банка XXX», «Зарегистрироваться на рейс авиакомпании YYY», «Купить абонемент в фитнесцентр ZZZ».

2. Информационные запросы говорят об интересе пользователя к определенной тематике, но не обещают дальнейших транзакций. С учетом того, что интернет на сегодня для многих людей заменяет книги и энциклопе- дии, информационные запросы очень часто служат для удовлетворения любопытства или освежения в памяти подзабытых сведений. Примерами таких запросов могут быть: «Столица Бангладеш», «Кто исполнил главную роль в сериале …», “Годы жизни Ф.М. Достоевского”. Несмотря на то, что подобные запросы не сулят сиюминутные выгоде в продаже или услуге, ориентация на них тоже может быть полезна, поскольку они позволяют привлечь посетителей на сайт, привлечь входящие ссылки, в долгосрочной перспективе могут привести к транзакциям: если вы создаете сайт книжного магазина, то запрос о годах жизни писателя можно привязать к информации о продаже книг его авторства.

3. Транзакционные запросы говорят об интересе пользователя в какой-то услуге или товаре – он уже знает, что хочет, но не знает, где это сможет приобрести. Транзакционные запросы наиболее интересны для SEOпродвижения, поскольку их проще всего связать с услугой или товаром, представленном на сайте. Примерами подобных запросов могут быть: «Где купить пиццу в городе ….», «Стоимость тура в Египет», «Продажа смартфонов». Выше были перечислены основные типы запросов, но ими классификация не ограничивается. Запросы бывают также мультимедийными, геозависимыми, нечеткими, адаптивными. Подробнее о поисковых запросах можно прочитать в.

По частоте использования запросы делятся на:

1. Высокочастотные (более 5 000 показов в месяц). Подобные запросы обычно носят общий характер, не уточняют намерения посетителя. Например, по запросу «автомобиль» (почти 9 млн. просмотров в месяц по данным wordstat.yandex.ru) непонятно, хочет ли ищущий узнать устройство автомобиля, приобрести или продать его, ознакомится с историей автомобилестроения. В связи с этим продвижение по подобным запросам весьма затруднено, он используется большим количеством компаний. Брать высокочастотные запросы в семантическое ядро сайта имеет смысл лишь для продвижения компании, вывода новой услуги (товара) на рынок.

2. Среднечастотные (от 1500 до 5000 показов в месяц). В таких запросах посетитель уточняет свой интерес, запрос становится более конкретным, сужается и его конкурентность. Например, запрос «прокат легкового автомобиля» дает статистику уже в 2000 показов в месяц, такой запрос отсекает компании, занимающиеся ремонтом, продажей, страхованием автомобиля. Но все равно запрос довольно популярен и подвинуть компании, давно занимающиеся этим видом деятельности, будет непросто.

3. Низкочастотные (до 1500 показов в месяц). Ориентируясь на такие типы запросов, вы точно найдете своего клиента, он ищет именно то, о чем написано на вашем ресурсе. Здесь высока вероятность конверсии запроса. Однако подобные запросы не позволяют привлекать пользователей, не обладающих еще сложившимся представлением о желаемом товаре (услуге). Пример низкочастотного запроса: «почасовой прокат автомобиля» - менее 100 показов в месяц. Если сайт рекламирует среди прочего эту услугу, то использование этих ключевых слов позволит вывести сайт в топ выдаче по указанному запросу.

Ориентация на каждый из перечисленных выше типов запросов имеет свои задачи в продвижении, и опытные SEO-специалисты рекомендуют компоновать поисковые запросы следующим образом:

ВЧ-запросы: 10-15% от общего числа поисковых запросов, по которым продвигается сайт,

СЧ-запросы: 20-40% от общего числа запросов,

НЧ-запросы: 45-70% от общего числа запросов. За счет ВЧ-запросов можно охватывать общий спрос тематики ресурса, СЧ-запросы будут привлекать посетителей, интересующихся более конкретными направлениями, представленными на сайте, а за счет ВЧ-запросов можно приводить целевую аудиторию, уже готовую к покупке именно ваших товаров/услуг.

За счет ВЧ-запросов можно охватывать общий спрос тематики ресурса, СЧ-запросы будут привлекать посетителей, интересующихся более конкретными направлениями, представленными на сайте, а за счет ВЧ-запросов можно приводить целевую аудиторию, уже готовую к покупке именно ваших товаров/услуг.

Определить частотность запросов помогают специализированные сервисы и программы. Одним из самых популярных инструментов (и при этом бесплатным) здесь является сервис «Подбор слов» от Яндекс (wordstat.yandex.ru)

Данный сервис позволяет оценить частоту того или иного запроса за последний месяц, а также подобрать схожие по тематике запросы. При этом можно получать статистику с региональным фильтром, а также учитывать типы устройств, с которых были поданы запросы. Аналогичные сервисы есть и у Google: Google AdWords (https://adwords.google.com/) и Google-тренды (https://trends.google.com/trends).

Еще одной важной характеристикой запроса является его конкурентность. Этот показатель можно оценить по количеству строк в поисковой выдаче, который выдает поисковый движок в ответ на запрос. Фактически, этот показатель определяет, насколько ключевые слова из этого запроса представлены на страницах ресурсов-конкурентов. Найти высокочастотный, но низкоконкурентный запрос, сориентировать на него SEO-продвижение и быстро выйти к вершинам выдачи – мечта любого SEO-специалиста.

Рассмотрим алгоритм SEO-оптимизации web-ресурса для повышения его позиций в поисковой выдаче.

1. Подобрать семантическое ядро. На этом этапе необходимо проанализировать тематику ресурса, определить те ключевые слова, по которым вы хотели бы, чтобы ваш сайт появлялся как можно выше в выдаче поисковых движков. Выбранные ключевые слова необходимо проверить на частотность и конкурентность с использованием уже упоминавшихся инструментов «Подбор слов» от Яндекс и Google-тренды. Для каждого выбранного запроса можно подобрать похожие запросы, оценить их частотность и остановиться на пропорциях 10-15% ВЧ, 20-40% СЧ, 45-70% НЧ.

2. Выбор страниц для продвижения сайта, которые в дальнейшем планируется насыщать ключевыми словами, внутренними и внешними ссылками. На этом этапе можно выполнить кластеризацию запросов, выделив отдельные группы ключевых слов и связав те или иные страницы с отдельной группой ключей, оптимизировать их для обеспечения релевантности по этой группе.

3. SEO-копирайтинг. Этот этап заключается в написании текстового контента, в котором процент вхождения слов из семантического ядра обеспечивает релевантность целевым запросам и при этом не перегружен ключевыми словами [5]. Проверить качество текста можно различными сервисами, например, https://text.ru/seo, https://istio.com или https://advego.ru/text/seo.

4. Проведение технического аудита (анализа) сайта. На данном этапе проверяется корректность html-разметки, наличие и правильность файлов robots.txt и sitemap.xml, выявляются ошибки с кодом 404, битые ссылки, дублирование контента, проверяется корректность работы навигации, правильность функционирования отдельных блоков, анализируется скорость работы сервера. Периодически полезно возвращаться к данному шагу, так как изменения, вносимые в структуру, код или контент сайт могут отрицательно сказаться на его технических параметрах.

5. SЕО-оптимизация интернет-страниц под поисковые запросы. На этом этапе внедряются ключевые слова в значимые для продвижения позиции и структурные элементы ресурса (теги и метатеги title, description, keywords, заголовки h1-h6), внедрение ЧПУ-адресации для страниц сайта, выполняется внутренняя перелинковка сайта. Перелинковкой сайта обеспечивает связывание страниц одного сайта или разных ресурсов гиперссылками. Она применяется для повышения релевантности страниц сайта запросу в поисковых системах, увеличения статического веса страниц за счет количества входящих ссылок на страницу, ускорения индексации вновь появившихся страниц сайта за счет перехода робота по ссылкам на новые страницы, предотвращения дублирования контента, улучшения юзабилити сайта за счет большей связности страниц. Если связывание осуществляется между страницами одного ресурса, то имеет место внутренняя перелинковка, если ссылки ведут на сторонние ресурсы – перелинковка будет внешней. Постраничная перелинковка (каждая страница ссылается на все остальные) подходит для низкочастотных запросов (редко используемых) и среднечастотных. Она позволяет оптимально распределить вес сайта – рассредоточить его в нужных пропорциях и на нужных страницах. Иерархическая перелинковка (главная страница ссылается на страницы разделов или категорий, а уже те ведут на конкретные статьи) приводит к тому, что конечные узлы-страницы дерева иерархий ссылок получают очень малый вес и плохо продвигаются. При проведении внутренней перелинковки важно наполнить продвигаемую по определенной группе запросов страницу входящими ссылками с других страниц сайта, причем тексты ссылок должны быть релевантны запросу, то есть содержать анкорный текст со словами из запроса. Если в качестве ссылки используется изображение, ключевиками имеет смысл наполнить атрибут alt, в соответствии с алгоритмами ранжирования поисковых систем лучше организовывать ссылки со страниц, отвечающих за НЧ запросы (которые сами по себе должны получить высокий ранг при правильном контентном наполнении), на страницы с ВЧ и СЧ страницами, увеличивая тем самым их ранг.

6. Внешняя SEO-оптимизация ресурса. Для ее проведения необходимо провести внешнюю перелинковку сайта, обеспечить его продвигаемые страницы качественными входящими ссылками путем закупки ссылок на бирже, баннерообмену, продвижению в социальных сетях, на форумах и блогах. Необходимо зарегистрировать ресурс в каталогах поисковых систем (таких как Яндекс-Каталог, DMOZ, Rambler-Top100 и др.). Не стоит сильно увлекаться закупкой ссылок и следить за качеством сайтов-доноров, иначе внешние ссылки могут сыграть в минус общему рангу сайта.

7. Улучшение юзабилити сайта. Такие общие для разработки webресурса пожелания, как обеспечение кроссбраузерности, эффективности использования ресурсов, работоспособности функционала, удобства навигация, приятного дизайна косвенно скажутся и на поисковом продвижении (хотя бы через поведенческие факторы ранжирования).

Рассмотренный алгоритм использует лишь самые базовые подходы к SEO-оптимизации сайта, профессионалы оперируют гораздо более мощными инструментами и методиками. Однако, выполнив даже эти шаги, можно добиться роста позиций сайта в выдаче поисковый систем. К тому же это будут реальные шаги в этом перспективном на рынке труда направлении, они позволят сформировать фундамент будущих опытов и открытий в области поискового продвижения web-ресурсов.

В процессе освоения SEO-методик начинающие сталкиваются с соблазнами использования черного и серого SEO – ряда методик и приемов, которые кажутся перспективными и на каком-то этапе даже являются эффективными в результатах продвижении, но по сути совей являющимися попыткой обмануть поисковый движок и искусственно увеличить вес своего ресурса. Разработчики поисковых систем борются с подобными методами и накладывают санкции на сайты, замеченные в нечестном продвижении вплоть до исключения из индекса. К черному SEO относят:

- использование скрытого текста (цвет шрифта и фона текста совпадают, текст расположен в блоке, который весь или частично невидим, используется очень малый шрифт);

- поисковым роботам и посетителям сайта демонстрируются различные версии ресурса (клоакинг); - автоматическая регистрация (прогон) по множеству каталогов;

- автоматическая генерация текстов, автоматический обмен ссылками;

- осуществлять спам;

- создание дорвеев – небольших сайтов, наполненных бессмысленным контентом с высокой плотностью ВЧ- и СЧ-запросов и последующее перенаправление трафика с него на реальный ресурс;

- создание сети сателлитов – групп связанных web-серверов, которые совместно продвигают один целевой ресурс. Серое SEO занимает промежуточное место между полностью разрешенным белым и запрещенным черным. К серому SEO-относится в том числе закупка внешних ссылок, которая не приветствуется поисковыми машинами, но без которой на практике, с учетом ее повсеместного использования, очень затруднительно будет обойти конкурентов. Практически все меры внешнего SEO-продвижения можно, когда репутацию своему сайту в виде статей, ссылок, отзывов, владельцы инициируют сами, можно отнести к серому SEO, разработчики поисковых движков стараются пресекать подобные методы накручивания рейтинга и их использование должно быть умеренным.

Порядок выполнения работы.

Основная задача лабораторной работы – провести SEO-оптимизацию web-сайта, разработанного в рамках предыдущих лабораторных работ. С учетом учебного характера разработанного ресурса необходимо сосредоточиться на внутренних факторах. Для этого необходимо выполнить следующие шаги:

1. Выбрать семантическое ядро сайта. С использованием одного из специализированных сервисов (например, «Подбор слов» от Яндекс) выбрать несколько ключевых слов по тематике сайта. Свести выделенные слова в таблицу: № Ключевые слова Тип (НЧ, СЧ, ВЧ) Прогнозируемая частота появления (по данным сервиса) Конкурентность (по выдаче поисковой системы) В семантическое ядро включить 1-2 ВЧ запроса, 3-4 СЧ запроса и 5-6 НЧ запросов. Таблицу включить в отчет по лабораторной работе.

2. Выбрать страницу сайта, которая будет основной продвигаемой (можно ограничиться одной). Провести SEO-копирайтинг – составить текст страницы таким образом, чтобы вхождение ключевых слов в текст соответствовало требованиям по показателям релевантности и тошнотности. Проверку осуществлять с использованием специализированных сервисов (например, https://text.ru/seo, https://istio.com или https://advego.ru/text/seo). Результат проверки включить в отчет по лабораторной работе.

3. Насытить ключевыми словами значимые для продвижения позиции и структурные элементы страницы (теги и метатеги title, description, keywords, заголовки h1-h6). Выполнить внутреннюю перелинковку сайта с целью продвижения выбранной страницы.

4. Добавить на продвигаемую страницу несколько ссылок на авторитетные ресурсы схожей тематики.

5. Создать файл robots.txt, в котором для основных поисковых роботов Яндекс и Google запретить индексацию страниц регистрации и аутентификации пользователей.

6. Рекомендовать поисковым движкам повторно посещать сайт не чаще одного раза в неделю, разрешить им переход по ссылкам на страницах сайта.

7. Показать преподавателю результат работы в виде SEOоптимизированного сайта

8. Предоставить преподавателю отчет по лабораторной работе, отчитать лабораторную работу.

Размер шрифта:
А
А
А
Цвет сайта:
A
A
A
Изображение:
Вкл.
Выкл.
Обычная версия