Блог

Поисковая оптимизация сайта: семь важных составляющих

7 years ago
4.2K
Sergei Nikonov

 

Мечты начинающего вебмастера направлены на попадание сайта в первую десятку выдачи поисковых систем. Успешное продвижение сайта ответственная и сложная задача. Для этого сайт должен отвечать определенным требованиям. Давайте рассмотрим 7 основных признаков качественного сайта.

 

 

Одна ключевая фраза для страницы

Размещая множество ключевых слов на одной странице вы не получите ожидаемого результата. Создавая отдельную страницу под каждый ключевой запрос, вы значительно увеличиваете свои шансы. На одной странице следует размещать максимум 2 - 3 ключевика.

 

Хороший результат достигается при объединении нескольких запросов в одну фразу или словосочетание.

Давайте рассмотрим пример:

«подобрать домен»;

«как самостоятельно подобрать домен»;

«как подобрать домен для сайта».

В этом случае мы можем объединить три ключевых фразы в одну. Получаем на выходе: «как самостоятельно подобрать домен для сайта». Это решение можно назвать эффективным, но прием хорош, если он используется для главной страницы ресурса. В других случаях будет правильным написать три статьи, по одной для каждого ключевого запроса. На каждой из страниц опубликуйте качественный, полноценный текст. Вероятность хорошей индексации сайта при этом значительно возрастет.

 

Отдельные файлы для CSS и JAVASCRIPT

Поисковые роботы крайне негативно реагируют на вспомогательный код находящийся в одном файле с информационным содержимым. Коды функций и стилей мешают их нормальной деятельности. Они теряют ориентацию. Роботу не интересен внешний вид сайта, ему нужен контент. Поэтому CSS стили и JAVASCRIPT скрипты желательно оформить отдельными файлами.

 

Неправильно:

<ul style="background-color:#000; color:#333, margin-top:12px; padding-left:33%;">
	<li style="background-color:#32311; color:#000, margin-top:10%; padding:10px;">block 1</li>
	<li style="background-color:#32311; color:#000, margin-top:10%; padding:10px;">block 1</li>
	<li style="background-color:#32311; color:#000, margin-top:10%; padding:10px;">block 1</li>
	<li style="background-color:#32311; color:#000, margin-top:10%; padding:10px;">block 1</li>
	<li style="background-color:#32311; color:#000, margin-top:10%; padding:10px;">block 1</li>
	<li style="background-color:#32311; color:#000, margin-top:10%; padding:10px;">block 1</li>
	<li style="background-color:#32311; color:#000, margin-top:10%; padding:10px;">block 1</li>
	<li style="background-color:#32311; color:#000, margin-top:10%; padding:10px;">block 1</li>
</ul>	

 

Правильно:

<ul class="ul-main">
	<li class="li-main">block 1</li>
	<li class="li-main">block 1</li>
	<li class="li-main">block 1</li>
	<li class="li-main">block 1</li>
	<li class="li-main">block 1</li>
	<li class="li-main">block 1</li>
	<li class="li-main">block 1</li>
	<li class="li-main">block 1</li>
</ul>	

 

Замена картинки и фона на CSS

Фоновая картинка для сайта дает ему индивидуальность и неповторимость. К сожалению, она влияет на скорость загрузки страниц. Заливку, а также фоновые изображения лучше заменить CSS. Используя стили, вы можете выделять нужные участки текста, с помощью таких приемов как: выравнивание, цвет. Применение стилей CSS позволяет управлять размером шрифтов, фоном, другими параметрами. Вес страниц значительно снижается. Они загружаются намного быстрее. Привлекательность сайта возрастает. Поисковый робот такие страницы индексирует намного охотней.

 

Текстовая навигация

Есть множество вариантов навигации по сайту.

Для этих целей применяются картинки, программные скрипты, анимация, кнопки. Яркое живое меню обращает на себя посетителей и не дает потеряться на сайте.

К сожалению, оно совершенно не способствует продвижению сайта в поисковых системах. Подобные элементы не учитываются роботом при индексации, у них отсутствует текст, подпись. Ваш ресурс теряет баллы в рейтинге. Для этой проблемы существует идеальное решение. Используйте текстовую навигацию. Подобный эффект будет достигнут при дублировании графических элементов ключевыми фразами.

 

Человеко понятные URL

URL – это адрес страницы интернет ресурса. Он может носить как статичный, так и динамичный характер.

Статичные адреса заканчиваются расширением HTML. Они понятны пользователям и хорошо индексируются роботами. Но время чистых HTML сайтов, состоящих из десятка страниц, прошло. Их сменили мощные CMS (системы управления содержимым) использующие php и базы данных.

К сожалению многие распространенные и известные CMS генерируют URL по своим собственным принципам. Он состоит из значений id разделов и цифр. У такого адреса есть еще один минус – его избыточная длина.

Еще в стадии разработки сайта необходимо продумать всю структуру его каталогов.

 

Давайте рассмотрим два варианта адреса страницы:

http://fructcode.com/pwd.php?cd=5489261986a#7db64845p1

http://fructcode.com/2017/10/15/Президент-принял-решение/

В первом примере нечего не понятно. Здесь невозможно определить структуру сайта. Знаки не несут осмысленной нагрузки.

Во втором варианте мы видим понятность и удобство способа.

Здесь дата публикации статьи /2017/10/15/

И название /Президент - принял - решение/

Такой адрес несет информацию для пользователя. Это и есть ЧПУ (человеко понятный урл). Кроме того использование таких URL оказывает положительное влияние на поисковую оптимизацию сайта.

 

Использование SITEMAP.XML

Файл SITEMAP.XML предназначен для роботов. Это карта вашего веб ресурса. Он включает ссылки на страницы. Его использование значительно улучшает индексацию.

В файле SITEMAP.XML отражена вся структура проекта. Все ссылки в нем представлены в текстовом формате.

Системы управления контентом (CMS) обычно имеют функцию позволяющую создавать подобные файлы в автоматическом режиме. В других случаях можно воспользоваться одним из онлайн - сервисов, которых множество в интернете. Для карты сайта используется расширение «XML».

Не забывайте о своевременном обновлении этого важного элемента. Содержание SITEMAP.XML оказывает значительное влияние на скорость и качество индексации сайта роботом.

 

Применение ROBOTS.TXT

Еще одним неотъемлемым атрибутом любого качественного сайта является ROBOTS.TXT. Он имеет особое значение, так как содержит в себе инструкции, предназначенные для поисковых систем.

Основное назначение этого документа – закрыть для индексации роботом папки и файлы, в которых находятся данные пользователя, рабочие скрипты, другую информацию технического характера. Использование этого файла помогает защитить от несанкционированного доступа административную панель сайта. В Robots.txt вносятся индивидуальные команды предназначенные роботам разных поисковых систем. Грамотное управление файлом ROBOTS.TXT способствует улучшению показателей сайта в выдаче.

 

Кроме рассмотренных в этой статье, существует масса других параметров влияющих на положение веб ресурса в индексе. Но соблюдение принципов перечисленных выше поможет вам значительно повысить позиции сайта в поиске. Сделает ваш ресурс удобным для пользователей, а значит более посещаемым.