>>>

Проектирование, разработка и оптимизация веб-приложений

Внутренняя оптимизация сайта

Внутренняя оптимизация – это 99% всего SEO, т.к. включает она в себя и работу с кодом, и работу с юзабилити, и выполнение требований поисковиков; по сути, охватить всю внутреннюю оптимизацию – это охватить целиком всю работу seo’шника, что попросту невозможно. Поэтому в здесь мы даём обзорное представление, в каких направлениях вообще стоит «копать», чтобы или: а) начать продвижение сайта своими силами; или: б) оценить, насколько внимательно проводит продвижение ваш подрядчик.

Довести сайт до технического совершенства

Чтобы поисковик добавил сайт в ТОП-10, сначала этот сайт должен попасть в индекс ПС – поисковую базу, в которой хранятся все доступные поисковикам веб-страницы и документы. А чтобы в индекс попали страницы с контентом и не попали технические, нужно правильно настроить сайт.

Заполнить robots.txt и sitemap.xml

Первый шаг на пути к техническому совершенству сайта – дать прямые команды поисковикам, какие страницы стоит добавлять в индекс, а какие не стоит. Такие команды задаются в специальном файле robots.txt, который лежит в корневой директории сайта.

Принцип заполнения robots.txt очень простой: задаем роботам ПС правила «поведения» (директивы) относительно всех файлов, и роботы при обходе сайта придерживаются этих правил и не «спотыкаются» при индексировании.

Официальная справка по заполнению robots.txt: от Яндекс и от Google

Ещё один файл-помощник для общения с роботами ПС – sitemap.xml. Он важен в первую очередь для сайтов с большим количеством страниц. Потому что, роботы ПС обходят сайт последовательно: зашел на страницу X, нашел на ней сслыку на страницу Y, перешел на Y, нашел ссылку на Z и т.д. При этом есть ограничение по количеству страниц, которое поисковик обходит на одном сайте за сутки (краулинговый бюджет). Поэтому, если на сайте хотя бы 100 страниц, разбитых на несколько категорий, лучше дать поисковику маршрут, по которому стоит обходить сайт. Этот маршрут задается в карте сайта sitemap.xml. Когда карта сайта есть – процесс добавления страниц в индекс проходит быстрее (и их обновление при переобходе тоже проходит быстрее).

В карту сайта добавьте полный список страниц ресурса и так же, как и robots.txt, загрузите в корневую папку, чтобы адрес был таким: https://www.ваш-сайт.ru/sitemap.xml.

А чтобы не заполнять карту в over 100 страниц вручную, воспользуйтесь специальными модулями, автоматизирующими создание карты сайта, которые есть у популярных CMS.

Настроить 404

Когда пользователь вводит в адресную строку браузера URL (например, https://site.ru/blog/), браузер обращается к серверу, хранящему эту страницу, и в ответ получает некий код состояния. Два самых частых кода состояния – это 200 OK и 404 Not Found: первый означает, что страница с запрошенным адресом действительно существует (и загружает эту страницу); второй – что страницы с запрошенным адресом не существует.

Если в адресную строку ввели адрес, страницы по которому не существуют (например, https://site.ru/blok/), сервер должен ответить браузеру 404 Not Found, и в окне браузера должна появиться «заглушка», информирующая пользователя, что ему нужно уточнить адрес. Вот что происходит, когда на сайте не реализована функция грамотного ответа для несуществующих страниц:

Поисковики ненавидят дубли (об этом читайте ниже, пункт «Избавиться от дублей контента, мета-тегов»). Поэтому обязательно настройте 404 для пустых страниц!

Настроить 301 и 302 редиректы

Большая боль поисковых роботов – это редиректы (переадресации) в структуре сайта. В структуре – значит в тексте/меню/адресах картинок и проч., то есть, где-то в таком месте, на которое робот наткнется при обходе страниц. Каждый раз, встречая переадресацию в структуре, робот как бы спотыкается (сначала для него подгружается один URL, потом вдруг его перекидывает на второй), и вам засчитывается как бы негативный балл. Далее разберемся, где нужно и как правильно использовать редиректы, чтобы не огорчать поисковых роботов.

Если при оптимизации внутренних страниц пришлось заменить адрес (был непонятный site.ru/1/n1234, решили заменить на понятный site.ru/catalog/nazvanie-tovara-artikul-1234), то используйте 301-ый редирект. Тогда у страниц с редиректом, которые уже присутствуют в поисковой выдаче, поисковик проиндексирует новую страницу и заменит в выдаче адрес на новый.

Если адрес страницы меняется на время (например, на сайте ведутся технические работы, и все адреса должны направлять на страницу с заглушкой), то используйте 302-ой редирект. В этом случае поисковик не будет менять адрес страницы в поисковой выдаче на новый, и не будет индексировать новую страницу.

Ситуации, когда необходимо настроить 301-ый редирект:

Ситуации, когда необходимо настроить 302-ый редирект:

Избавиться от дублей контента, мета-тегов

Дубли – это плохо. Если у страницы на сайте есть дубль – из индекса (а уж тем более, из ТОПа) могут вылететь обе: и дубль, и оригинал. Если мета-теги на разных страницах совпадают, шансы выйти в ТОП снова стремятся к нулю. Поэтому дубли нужно отлавливать и беспощадно уничтожать.

Вот самые частые причины возникновения дублей контента:

Как противостоять «атаке клонов»:

Самый простой пункт – настроить «главное зеркало», т.к. это просто дело техники. Главное зеркало – это основной адрес сайта, например, у сайта главное зеркало https://site.ru/: с протоколом https, без www, и со слешем на конце. Соответственно, все остальные варианты адресов должны перенаправлять на этот, основной. Поисковики умеют и сами определять главное зеркало, но это не всегда срабатывает, особенно для больших сайтов с 1000+ страниц, и в индекс попадают дубли, что снижает вероятность выхода в ТОП. Подробнее о настройке главного зеркала сайта читайте в официальной справке Яндекса.

Удалить лишние технические адреса страниц уже сложнее, т.к. сначала их нужно обнаружить. С проверкой внутренней оптимизации сайта на предмет дублей здорово справляется специализированный софт, например, Screaming Frog SEO Spider или его бесплатный аналог Xenu. С помощью софта находим все «левые» адреса и оставляем только один каноничный.

Если у вас на сайте используются параметрические УРЛы, постарайтесь заменить их на ЧПУ (которые лучше индексируются). Если это невозможно (например, так уж реализован фильтр в каталоге товаров), то компромиссное решение – сделать копии страниц, но в формате ЧПУ. Например, https://www.site.ru/catalog/audio_and_digits/tv/AKAI/ - страница индексируется; а https://www.site.ru/catalog/audio_and_digits/tv/AKAI/?available=1&status=55395790&p=... уже нет, и у поисковика не будет подозрения на дубли контента. Вторая страница не индексируется благодаря директиве Disallow: */?available в robots.txt.

Похожая ситуация с UTM-метками. Стандартные UTM-метки, используемые, например, в Яндекс.Директе, сам Яндекс уже и так распознает, и не пытается добавить в индекс; но адреса с UTM-метками, используемыми для других целей, могут быть ошибочно восприняты поисковиком как самостоятельные страницы. Решается проблема тоже директивой Disallow в robots.txt.

Кроме дублей контента частая проблема работ по внутренней оптимизации сайта – дубли мета-тегов. Они появляются при автоматическом заполнении мета-тегов, например, в каталогах товаров интернет-магазина. Отлавливать дубли мета-тегов следует так же, как и дубли контента: через специализированный софт. А когда отловили – остается их только уникализировать. Если дублей много, то работа это непростая, т.к. вручную теги на 1000+ страниц даже при большом желании обновлять слишком долго и дорого; так что, в таких случаях используется заполнение по маске. Например, если у вас магазин телевизоров, и 50 телевизоров Samsung называются одинаково в карточках товаров «Телевизор Samsung» (на 50 разных страницах совпадают title и h1), то надо их переназвать, включив в заголовок различающиеся параметры: тип телевизора, диагональ, цвет, даже артикул.

Seo оптимизировать изображения

Если дубли, пустая sitemap.xml, неработающая 404 ошибка – это прямо «криминал» в глазах поисковиков; то неоптимизированные изображения – вроде административного правонарушения. Все же, практика показывает, что оптимизация картинок дает общий «плюс к карме», и позиции растут быстрее; и, конечно же, если картинки оптимизированы – с ними можно влезть в Яндекс и Google поиск по картинкам, что в определенных тематиках приносит дополнительный трафик.

5 советов по оптимизации изображений:

Наполнить сайт ключевыми словами

После того, как технически сайт готов, пора приступить к насыщению его семантикой, то есть релевантными словами/фразами, по которым вы будете его продвигать.

Найти ключевые слова (семантику)

Семантическое ядро сайта – это упорядоченный набор слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товары или услуги, предлагаемые сайтом. Если упростить, то это набор тех фраз/слов, по которым вы хотите, чтобы ваш сайт находили пользователи поисковых систем.

Данный метод внутренней оптимизации укладывается в четыре этапа:

Создать контент согласно семантике

Когда готова карта запросов, пора составить техническое задание для копирайтера.

В ТЗ копирайтеру нужно указать:

Общие seo-рекомендации к тексту, чтобы он был одинаково хорошо воспринят поисковиками и пользователями (отправьте вашему копирайтеру):

Правильно заполнить seo-теги (title, h1-h6, description, keywords, strong)

Следующий важный для внутренних факторов оптимизации шаг, когда уже выбрана семантика и написаны тексты, – публикация текстов вместе с seo-тегами (часто их называют «мета-теги»). Порой грамотно заполненные seo-теги влияют на скорость поднятия в ТОП-10 страницы сильнее, чем оптимизированные тексты.

Seo-теги – это title, “description”, “keywords”, h1-h3 заголовки. Пользователь видит title, h1-h3, а description, keywords фактически видны только поисковым роботам. Задача при заполнении seo-тегов: вписать в них ключевые слова в максимально точном вхождении, соблюдая все требования ПС, при этом сохранив адекватным вид seo-тегов, видимых пользователю. Все seo-теги должны уникальными и не пустыми.

Базовые требования к seo-тегам:

Ручное заполнение данных мета-тегов для больших интернет-магазинов довольно затруднительно из-за множества страниц. Для этого процесс автоматизируют при помощи шаблонных масок. При помощи них, например, можно массово озаглавить тысячи страниц с товарами сайта и все его разделы.

Настроить перелинковку

Перелинковка (от слова “link” – «ссылка») означает установку обратной связи между страницами сайта: с главной страницы сайта в меню есть ссылка на страницу контактной информации – значит, имеет место быть внутренняя перелинковка между главной страницей и страницей контактной информации. Чем больше ссылок внутри сайта будет вести на одну страницу, тем больший вес получит она в глазах поисковых систем.

6 советов по организации внутренней перелинковки:

Сделать сайт удобным

Вы расположили поисковиков к своему сайту, вышли по нужным запросам в ТОП – теперь нужно удовлетворить посетителя, дать ему кроме релевантного ответа на его запрос ещё и возможность комфортно использовать сайт.

Повысить юзабилити

Юзабилити сайта (от англ. “usability” – «удобство использования») – это уровень удобства использования интернет-сайта, которое позволяет пользователю легко и быстро найти нужную информацию.

Базовые факторы юзабилити сайта:

В юзабилити, конечно же, укладывается и вообще все, что может способствовать удобству восприятия информации: удобные формы обратной связи, формы заказа; качественный дизайн; удобство навигации, etc. Поэтому делайте сайты для людей.

Усилить коммерческие факторы

«Коммерческие факторы» в контексте SEO – это все элементы сайта, которые указывают поисковым системам, что: а) сайт что-то продает; б) на сайте вся информация, важная потребителю для покупки, представлена полно, точно и в удобной для восприятия форме.

Список коммерческих факторов:

Чтобы выйти в ТОП-10 в коммерческой тематике, желательно, чтобы на сайте присутствовали все эти элементы.

Повысить CTR в поисковой выдаче

Чтобы все этапы, описанные выше, не пропали зря, и поисковики вознаградили вас высококонверсионным органическим трафиком, необходимо заранее позаботиться о привлекательности своих сниппетов.

Сниппет (англ. “snippet” — отрывок, фрагмент) – это фрагмент контента страницы, который показывается в поисковой выдаче. В сниппете всегда отображаются: заголовок страницы, адрес, краткое описание, фавикон; а также в сниппет могут попасть другие элементы: ссылки на другие популярные страницы сайта («быстрые ссылки»), контактная информация (адрес, телефон, часы работы), цена товара/услуги, рейтинг товара/услуги и другое в отдельных случаях.

Внедрить микроразметку Schema.org

Микроразметка – мощнейший инструмент, ведь с ее помощью можно даже вставить в сниппет информацию о цене. Микроразметка – это добавленные в код страницы специальные теги/атрибуты, которые указывают роботам ПС, что определенный элемент контента соответствует определенному типу сущности.

Микроразметкой Schema.org можно можно выделять для поисковиков следующую информацию:

А также отзывы, страницы с видеороликами, фильмами, музыкой и др.

После нанесения микроразметки ПС будет выводить дополнительную информацию в сниппет страницы, что поможет увеличить CTR.

Использовать все приемы повышения CTR

Сниппеты, вообще-то, не подвергаются гибкой настройке; но есть лайфхаки, которые помогут подкрутить их так, чтобы CTR полз вверх.


Размер шрифта:
А
А
А
Цвет сайта:
A
A
A
Изображение:
Вкл.
Выкл.
Обычная версия