Связаться с нами
Как увеличить посещаемость сайта или всё о поисковой оптимизации.


Как увеличить посещаемость сайта или всё о поисковой оптимизации.



Занимаясь аутсорсингом менеджеров интернет-магазина с 2009 года компания Ritm-Z накопила достаточно большой опыт работы в сфере интернет-маркетинга. Интернет маркетинг включает в себя комплекс мероприятий, направленных на продвижение сайта в наиболее популярных поисковых системах интернета. Такой способ продвижения сайта обеспечивает приток целевых посетителей, что способствует росту клиентской базы и увеличению оборота компании. Таким образом, интернет-маркетинг предполагает:

·   привлечение большего числа целевых посетителей на сайт компании;
·   рост клиентской базы;
·   увеличение объемов реализуемой продукции и услуг;
·   повышение узнаваемости бренда.

По статистике, 80% пользователей находят новые сайты через поисковые системы, 55% всех покупок осуществляется на сайтах, найденных через поисковые системы, а большинство пользователей просматривают лишь первую страницу результатов поиска, считая первые сайты лидерами в данной отрасли. Поэтому очень важно, чтобы сайт легко находился в поисковых системах по ключевым запросам. В свою очередь это означает, что сайт должен быть оптимизирован под алгоритмы поисковых систем.
Продвижение сайта в поисковых системах - это ряд мероприятий, направленных на достижение высоких позиций в выдаче по ключевым запросам.

Этапы продвижения сайта:
·   аудит сайта;
·   корректировка сайта под текущие требования поисковой системы;
·   оптимизация страниц;
·   регистрация сайта в поисковых системах;
·   проведение мероприятий по продвижению сайта;
·   оптимизация внешних факторов ранжирования страниц;
·   мониторинг позиций сайта и корректировка методов работы по продвижению сайта.

Посещаемость ресурса является главной составляющей успешности вашего проекта на первом этапе его существования. Раскрутка сайта – это методы, способные дать эффект при минимальных затратах денежных ресурсов. При продвижении используются экономически оправданные и наиболее эффективные методы, входящие в понятие интернет-маркетинга. Стоит отметить, что разница тут в подходе к решению общей задачи: достижении целей, поставленных перед сайтом и повышении отдачи от него.
Противоположные мнения о поисковой оптимизации одинаково ошибочны. Будет неправильным считать, что бесконтрольное увеличение количества ключевых слов в тексте и проведение неких "специальных" манипуляций со ссылками гарантируют попадание на первые места ведущих поисковых машин. Равно не корректным является утверждение, что даже очень содержательные и постоянно обновляемые сайты не нуждаются ни в каких оптимизационных усилиях.

Выбор ключевых слов, по которым будет оптимизироваться страница.
В настоящее время основная задача, которую необходимо решать на первом этапе оптимизации - это выбор между популярностью поискового запроса и его конкурентностью. Иными словами, успех выбора ключевого слова лежит в нахождении компромисса между тем, как много пользователей поисковых машин ищут данное ключевое слово, и тем, насколько сложно будет достигнуть первых позиций, поэтому ключевому слову в поисковых машинах. Программные решения на данном этапе представлены довольно широко как самими поисковиками (Google AdWords), так и самостоятельными коммерческими сервисами. Качество предоставляемых кейворд-сервисами данных будет зависеть от мощности источника наполнения базы ключевых слов, которая, в свою очередь, зависит от популярности поисковых машин и объема, предоставляемых ими данных, а также математической модели, с помощью которой вычисляются параметры ключевых слов.

Оптимизация кода интернет-страницы.
Во всех программных решениях для оптимизации применяется единый принцип - программа сканирует код страницы и выдает данные о значениях определенного числа настраничных параметров.  В более совершенных программах также предусматривается выдача советов по улучшению страницы. Принципиальные различия между программами для оптимизации кроются в критериях, по которым определяется качество анализируемой страницы. В большинстве случаев программы-оптимизаторы просто сравнивают исследуемую страницу с лидерами по данному поисковому запросу.

Использовать лидеров в качестве ориентиров - первое, что приходит на ум при размышлениях об автоматизации оптимизаторской работы. Однако, при всей правильности подхода, опыт показывает, что построенная по такому принципу программа очень быстро исчерпывает свои возможности. Противоречие здесь кроется в том, что буквально для каждого ключевого слова, анализируемые параметры отличаются, порою, на порядок. Весьма сомнительно, чтобы поисковая машина для каждого отдельного ключевого слова устанавливала бы свои параметры релевантности. Очевидно, что алгоритм определения релевантности у поисковика одни, различаются отдельные функции алгоритма, которые, однако, в стандартной формуле выдают приблизительно одно и то же значение релевантности для первого места, второго и так далее.

Также необходимо отметить, что программа, выдающая таблицу для сравнения с лидерами, никогда не будет охватывать хотя бы большую половину всех, используемых поисковиками, параметров. Непонимание современных принципов работы поисковых алгоритмов приводит к таким несуразным явлениям, как отчеты "Топ 10", в которых на многих десятках страниц подробно анализируется вес ключевого слова в комментариях и мета-тэгах, тогда как поисковые машины не только не проводят такой анализ, но полностью игнорируют данные участки веб-страниц. В результате, пользователь тратит большое количество времени и сил на то, чтобы его страницы были похожи на лидеров, а отдача от этих усилий - минимальная. Поэтому инструмент, результатом работы которого является сравнение анализируемой страницы с лидерами, часто будет малоэффективным и всегда - противоречивым.

Технология эмуляции поисковых алгоритмов, в противовес технологии "Выбранные топ 10 результатов", является более прогрессивным решением в деле автоматизации оптимизаторской работы, хотя и наиболее подверженной критике. Наиболее слабым местом данного подхода является то, что над совершенствованием поискового алгоритма трудятся целые коллективы, в которых отдельные группы могут разрабатывать весьма тонкие и специфичные вопросы процесса определения релевантности документов, тогда как возможности разработчиков оптимизаторских программ всегда будут ограниченными, а знания о принципах работы поисковиков - опосредованными. Тем не менее, данный подход, бесспорно, является наиболее объективным, к тому же, он не исключает использование сравнений с лидерами, как вспомогательного метода. Дальнейшее развитие программных решений для оптимизации должно основываться на предоставлении наиболее объективных детальных и последовательных рекомендаций, основанных на анализе алгоритмов поисковых машин, а так же на выдаче исчерпывающих данных по как можно большему количеству настраничных и внестраничных параметров.

Читайте завтра в продолжение статьи – регистрация с
траниц, анализ позиций, работа со ссылками и…всё о контекстной рекламе.
Фото:

Комментарии


Сергей
21.06.2012 17:59:56
У вас отличный блог! Часто захожу и читаю новые статьи. Узнаю много нового... если решусь открыть свой интернет-магазин обязательно обращусь:)
Ritm-Z
21.06.2012 18:12:45
Спасибо Сергей! Будем рады видеть Вас в числе наших клиентов!