Форум eBanners.Ru: Реклама в интернете и раскрутка сайтов - форум по интернет-рекламе
Стратегия продвижения сайта в поисковых системах, или поисковая оптимизация и продвижение сайтов в интернете - Поисковая оптимизация сайта и продвижение сайтов в поисковых системах - интернет-реклама
У вас есть вопрос по рекламе в интернете и раскрутке сайтов? Задайте его здесь и вам ответят. Вы уже всё знаете? Помогите тем, кто знает пока не всё. Правила форума|
Сделать стартовой|Добавить в избранное.
08 Фев 2005 Вт 05:30 Стратегия продвижения сайта в поисковых системах, или поисковая оптимизация и продвижение сайтов в интернете
Стратегия продвижения сайта в поисковых системах, или поисковая оптимизация и продвижение сайтов в интернете
В бескрайнем море интернета есть статья Евгения Трофименко "Стратегия продвижения сайта в поисковых системах"
Основная идея - следующая: поисковая машина и ее пользователь - две разные личности, которые имеют разные мнения о вашем сайте, и вам хочется создать наилучшее мнение о сайте и у поисковой системы и у пользователя одновременно.
Подходы к работе с сайтом автор делит на 3 части, касающиеся-
Безопасного использования технологий вебстроительства
Геометрии сайта, т.е. ссылочной структуры
Релевантности и одновременно внешнего вида отдельных страниц
Автор рассматривает каждое действие и каждую проблему с точек зрения поисковика и посетителя, и пытается найти решение, наилучшим образом удовлетворяющее обе "стороны".
Безопасное использование технологий
Сначала стоит сделать краткий обзор технологий, ответив на вопросы "как случайно не нарушить какую-нибудь заповедь поисковых систем?". Поисковики либо вообще не практикуют отпущения грехов, либо практикуют, но делают это очень медленно. Основное правило, которое стоит использовать - "Нельзя обманывать своего посетителя, даже случайно" (если вы, конечно, хотите работать честно и ждете безоблачного будущего). Итак:
Javascript, VBscript
Поисковики могут отлавливать распространенные скриптовые конструкции, перенаправляющие пользователя на другую страницу без его желания с малым временем задержки. Такие страницы могут автоматически попасть в разряд "подозрительных" и вызвать приход модератора. Если Вам необходимо сделать безопасный редирект, следует разместить на целевой странице тот же текст, что был на странице с редиректом, или хотя бы текст по той же теме. От машины использование таких скриптовых конструкций можно скрыть, а от модератора - вряд ли.
Текст внутри тега <script></script> не будет проиндексирован поисковой машиной. Это, кстати, дает возможность скрыть при оптимизации часть текста или ссылки, ведущие на другие страницы, если вы не хотите, чтобы они были найдены.
Фреймы
Фреймы - это головная боль пользователей поисковых систем. Если ваш посетитель попал на страницу, на которой отсутствует навигация, очень вероятно, что он и не будет искать эту навигацию, переходя на главную страницу (кстати, "отсечение" части URL умеют делать немногие). Поэтому автор предлагает, во-первых, на каждой странице сайта использовать скрипты, которые в этом случае прогружают всю фреймовую структуру сайта, а во вторых, открывать в одном из фреймов ту страницу, на которую посетитель пришел первоначально, иначе это может быть воспринято как спам. Также как спам поисковик может воспринять излишнее увлечение текстами в теге <noframes></noframes> (тексты и ссылки оттуда индексируются).
Вторая отрицательная черта фреймов - они увеличивают число уровней иерархии сайта, и, соответственно, время переиндексации этого сайта. Есть и положительная черта - например, можно сократить объем текстов каждой страницы и избавиться от ненужных ссылок за счет удаления навигационного блока.
Flash
Основная проблема интернет сайтов, основанных на технологии Flash - в том, что Flash практически никакие поисковики не индексируют. Для того, чтобы все-таки получить свою долю посетителей с поисковиков, автор предлагает несколько методов-
Создавать html-версию сайта отдельно от flash-версии и связывать ее ссылками с головной страницей сайта. Минус- отсутствие релевантных текстов на головной странице, которая является самой ценной для раскрутки - ведь именно на нее направлены все ссылки извне.
Создавать html-версию сайта как основную, и на головной странице (или на каждой странице) определять наличие Flash-плагина и ее версию, и переадресовывать такого посетителя на соответствующую сцену flash-версии. Минус- переадресацию не любят и модераторы поисковиков, и посетители.
Создавать комбинированную версию сайта, содержащую все необходимые текстовые элементы и отдельные flash-объекты (например, меню или иную "фишку" сайта) Этот метод наиболее эффективен.
Перенаправление (redirect) на сервере и на клиенте
Все, что говорилось про обман посетителя с помощью скриптов на стороне клиента, верно и в случае редиректа средствами html, только обнаружить его применение гораздо легче. Соответственно
В использование html-редиректа с нулевым временем задержки
<meta http-equiv="REFRESH" content="0; url=http://site.ru">
или серверного редиректа (HTTP-коды 3XX: 301 Moved Permanently)
со временем будет проиндексирована новая страница, а старая удалена из индекса.
Однако, поскольку редиректы часто используются спаммерами поисковых систем, ваш сайт рискует быть забаненным даже при большом времени задержки при редиректе. Оптимальный выход - не использовать редиректы. Часты случаи, когда необходимо изменить например, расширение всех файлов на сайте. Таких случаев желательно избегать - это можно сделать при разработке сайта, либо не указывая расширения вообще (настроив сервер соответственно), либо генерировать страницы динамически, используя путь в качестве параметров скрипта.
Управление индексированием, версии сайта для поисковиков: robots.txt
Управление пауками различных поисковых систем полезно при создании различных версий сайта, ориентированных на конкретный поисковик и при скрытии различных разделов, содержащих личную информацию или интерфейс управления. Файл robots.txt является стандартом по соглашению, и должен соблюдаться всеми автоматическими системами. Он состоит из набора директив вида-
Директивы запрещают всем или отдельным поисковикам индексирование различных файлов и директорий. Файл robots.txt должен находиться в корневой директории домена.
Републикация, дубли и зеркала
Поисковики ориентированы на выдачу по возможности уникальной информации по запросу пользователя, из-за этого возникает много проблем с дублированием информации. Поисковым машинам невыгодно, во-первых, хранить дублированные документы в базе и во-вторых, засорять выдачу почти одинаковыми документами. Поэтому как поисковики, так и пользователи обычно с неприязнью относятся к "дублям" и "зеркалам".
Зеркалом считается абсолютно идентичный сайт на другом хосте. Зеркала могут возникать в силу разных причин: переезд сайта, парковка нескольких доменных имен на одно и то же содержимое, разнесение кодировок по субдоменам. Для того, чтобы из нескольких зеркал индексировалось основное, лучше всего запретить индексацию всех остальных с помощью robots.txt. Если же физически они соответствуют одному содержимому и есть возможность динамически генерировать robots.txt, можно использовать robots.txt следующего вида-
Если не управлять корректным индексированием зеркал, поисковик самостоятельно выберет понравившееся ему зеркало, и оно может быть не тем, которое вам больше нравится. В основном, основным зеркалом станет домен 2 уровня (в сравнении с доменом 3-го уровня) и тот домен, на который стоят ссылки с его зеркала. Поэтому на нем не стоит ставить список ссылок "наши зеркала".
При переезде сайта накопленную цитируемость можно сохранить только в системе Яндекс. Поэтому имеет смысл поддерживать и старую версию сайта, если вы ориентированы на иностранные поисковики. Если со всех страниц сайта стоит серверный редирект на новые страницы - новый домен будет считаться основным, а старый со временем будет удален.
Если при очередной переиндексации найдены отличия в содержимом различных зеркал, эти зеркала "расклеиваются", т.е. считаются разными сайтами с различным подсчетом цитируемости и т.д. Поэтому при "расклейке" суммарная посещаемость зеркал может уменьшиться.
Геометрия сайта и ее оптимизация
Ссылочная структура сайта
Что мы будем понимать под оптимизацией структуры сайта? Нам нужно, во-первых, чтобы робот вообще мог ходить по ссылкам; во-вторых, чтобы он мог быстро пройти по ссылкам и проиндексировать сайт полностью, и, в-третьих, не забыть при этом о распределении цитируемости по страницам сайта.
Aдреса страниц (URL)
Страницы, как известно, бывают динамическими и статическими - третьего вида нет. При этом неважно, как реально формируется страница, важен внешний вид URL - динамической будем считать страницу в URL которой есть знак "?".
Методы, применяемые для того, чтобы внешний вид URL страницы имел "статический вид", т.е., не содержал знака "?", основаны на перенаправлении HTTP-запроса серверному скрипту, анализирующему структуру URL, в которой спрятаны динамически изменяемые параметры (обычно в имени директории). Конкретных реализаций много, в основном используется модуль Apache mod_rewrite или использование своего скрипта в качестве страницы с "ошибкой 404".
Структура сайта и глубина ссылок
Оптимизация ссылочной структуры сайта может рассматриваться с двух точек зрения. Первая - это оптимизация с точки зрения легкости полной индексации сайта поисковыми системами. Для этого нужно уменьшить количество ссылок, которое должен пройти робот поисковика для того, чтобы добраться до самой глубокой страницы сайта. Если же иерархия включает в себя больше 3-4 уровней, имеет смысл вынести абсолютно все внутренние ссылки на отдельную страницу, т.е., сделать "карту сайта". На карту сайта должна быть прямая ссылка с главной страницы; можно также регистрировать в поисковике именно карту сайта. Это дает возможность быстрее донести изменения в текстах страниц до поисковой системы, а значит, преимущество для подгонки содержимого страниц под конкретные поисковые запросы и, соответственно, под интересы будущего посетителя.
Вторая причина работать со ссылочной структурой сайта - учет поисковиками цитируемости страницы при определении ее места в выдаче. Цитируемость страницы - мера ее авторитетности; цитируемость определяется совокупностью всех страниц, ссылающихся на данную. В том числе и страницами своего сайта. Уже при планировании структуры сайта следует выделить несколько страниц, которые будут посвящены высококонкурентным темам, и ставить ссылки на эти страницы возможно чаще.
Использование внутренних ссылок с ключевыми словами
При ранжировании сайтов по запросу пользователя поисковые системы учитывают не только наличие ссылок на эту страницу с других страниц, но и тексты ссылок. Поэтому желательно при верстке html-текстов ссылаться на различные страницы своего сайта с использованием характерных ключевых слов и словосочетаний, варьируя текст ссылки. Это поможет отдельным страницам сайта "вылезать" наверх по большому числу различных целевых запросов.
Работы с релевантностью и одновременно внешним видом страниц сайта
Страница, хорошая с точки зрения релевантности запросу, наверняка будет плохой с точки зрения как дизайна, так и смысла текстов. Повторение словосочетаний, обилие крупных заголовков может показаться пользователю бессмысленной мешаниной. Придется написать тексты, хорошие как с точки зрения релевантности, так и с точки зрения смысла. Таким образом, мы стараемся удовлетворить и поисковик, и пользователя. Для коррекции внешнего вида такой страницы можно использовать
таблицы стилей (text/css)
Поисковики не индексируют и не интерпретируют тексты таблиц стилей, как включенных в код страницы, так и находящиеся в отдельных файлах. В основном, повышенную важность для поисковиков теги заголовков и теги выделения имеют из-за своей повышенной видимости на экране, - предполагается, что создатель страницы выделяет так ключевые темы и понятия. Однако, таблицы стилей позволяют менять размеры шрифтов заголовков так, чтобы не загромождать пространство на экране и вообще не обращать на себя внимание; теги выделения могут вообще ничего не выделять:
h1 {font-size:12pt; font-weight:normal}
p {font-size:9pt; font-weight:normal}
b, strong, i, em, u {font-weight:normal; text-decoration:none; font-style:normal}
Пожалуй, написание ценного и релевантного текста и работа с таблицами стилей - единственный относительно честный метод создания входных страниц для оптимизации сайта.