Посетите наш сайт: http://tul.by.ru - портал продвинутого юзера. |
Индекс образуется двумя путями. Второй путь - боты сами в «свободное от работы время»
ползают по Инету и вынюхивают изменения. С новыми сайтами они поступают по
разному. Чаще всего они принюхиваются к ним какое-то время, а потом, если,
по мнению бота, со страницей все в порядке (посетители иногда появляются,
спама нет и др.) - они его индексят. То есть заносят информацию о нем в
свой индекс (базу данных). Кроме этого, боты следят за состоянием своего индекса. То
есть за его соответствием реальному положению дел в Инете. Сайт может
измениться, исчезнуть и т.д. Поэтому боты его обычно реиндексируют.
Правда, можно запретить это мета-тегами и цивилизованные боты не будут
этого делать. Дальше. Продолжим с примером про «анекдоты». Бот выдает результат
поиска по релевантности. То есть, если на странице имеется 100 слов и 4 из
них - «анекдоты» (в именительном падеже, множественном числе), то
релевантность страницы по запросу «анекдоты» 0.04. Четыре процента.
Соответственно, если слов будет 10, и 4 из них - «анекдоты», то
релевантность будет 40 %. То есть в 10 раз выше. Поясню про падежи и числа. Из сказанного следует, что страница должна содержать поменьше
слов, и слова должны быть, в основном, ключевые.
Куда же девать инфу, которая в 10-20 слов никак не поместится?
Страницы с инфой- это те страницы, на которые попадаешь по ссылке со
стартовой страницы. А стартовая страница (другие названия -
индексная, заходная, doorway и др.) - это страница которая как раз и
содержит 10-20 слов (включая заголовок и мета-теги). То есть эта страница,
созданная специально для бота. И больше ни для кого.
Обычно, на стартовой странице размещают лого, иногда еще
несколько слов - чтобы пользователь понял, куда попал, и кнопочку «Вход».
Иногда вместо кнопочки «вход» - ссылки на разные разделы сайта. То есть
несколько входов. Важно, чтобы бот по запросу нашел хоть какую-то страницу
на сайте. Важно также, чтобы навигация на ВСЕХ страницах позволяла попасть
в КРАТЧАЙШИЙ срок в любое место сайта. Итак. Дальше. Например, у меня есть сайт для фирмешки, продающей стартеры для
иномарок. Я сделала с десяток-два индексных страниц для наиболее
популярных моделей иномарок. Внешне страницы отличаются только тем, что на
одной в заголовке написано «Стартеры для Мерседеса», а на другой -
«Стартеры для Вольво». Все. Конечно, отличаются мета-теги, alt`ы (подписи
к картинкам) и т.д. Об этом ниже. Каждую индексную страницу я индексила в
ботах отдельно.
Итак. Итого, как заставить бот выдавать твою страницу первой по
запросу, например, «варез»?
Пишем:
То есть пишем второй title. На той же странице пишем дальше:
В keywords`ах должно быть не более 10-ти слов, необходимо использовать
варианты (не более трех) наиболее частых падежей и чисел: (например:
программы, программ, программа), чередуя их с другими словами (например:
программы, софт, программ, варез, программа).
В description - несколько слов (5-8 слов, не более 170 символов), емко
характеризующих сайт. В Апорте и Рамблере это описание появится рядом с
результатом поиска по запросу. В настоящее время при индексировании
содержимое description на релевантность не влияет. По крайней мере, в
рассмативаемых поисковиках.
Главное: МЕНЬШЕ СЛОВ! Преимущественно ключевые.
Name и http-equiv должны полностью совпадать. Одни боты понимают name,
другие - http-equiv.
Дальше на той же странице:
Дальше:
Дальше для Рамблера (только):
То есть в тегах комментария в заголовке первого уровня пишем ключевые
слова. Яндекс то, что в тегах комментария не индексит, а Рамблер ест как
миленький.
Потом, все картинки, что ни есть, должны содержать alt`ы с ключевыми
словами.
Можно даже в неприметном месте страницы однопиксельных прозрачных гифов
запихать (не очень много - 3-4) и alt`ы к ним нужные прикрутить. Это
считается спамом поисковика (как и два title`а, впрочем), но по опыту -
они (боты) этого в упор не видят.
Вообщем, «легальные» способы кончились дальше идут «нелегальные».
Можно сделать для IE:
Для NN:
Это не очень удобно. Нужно ставить скриптину, определяющую тип
браузера. Но боты глотают эту наживку и в «черный» список не запихивают.
Проще:
Но это боты грозятся определять. Ничего не знаю по этому поводу. Может,
и определяют - они сейчас умные пошли.
Еще можно вот что сделать. Где-нибудь неприметненько запихиваем
прозрачные gif-чики и делаем из них ссылки. Бот и alt`ы проиндексит и по
ссылкам пойдет, особенно, если сами ссылки по дизайну на страницу никак не
поместить.
Примерно так:
Ну, и нужен специально обученный человек, который будет следить за
эволюцией ботов, изменениями позиции страницы в поисковиках и
предпринимать сответствующие действия. Не каждый день, но раз в
недельку-две тестирование в поисковиках своим страницам нужно устраивать.
И вот еще что! Если релевантность _слишком_ высока, Яндекс обижается и
не выдает страницу по запросу. За остальными не замечала. Другие страницы
того же сайта с меньшей релевантностью может выдавать («серый» список).
Так что, если на странице только слова «варез варез варез» - это не выход.
Релевантность должна быть не более 30 %. И одинаковые слова подряд лучше
не повторять.
А Батва меня навел на мысль, что можно делать по 2 страницы на одно
ключевое слово. На одной странице релевантность по ключевому слову 10 %
(для подозрительного Яндекса), на другой - порядка 30 % (для остальных).
И вот когда все это извращение готово - 10-15 стартовых качественно
написанных страниц - идешь на http://www.design.ru/free/addurl/ и каждую страницу
индексишь одной пимпой в нескольких наиболее популярных поисковиках. При
этом видишь ответы серверов, и, если не прошло - идешь индексить
вручную. Можно, и вручную добавлять сайт в каждый поисковик, но это геморройно и
не сильно выгодней. Впрочем, это мое мнение.
И последнее.
# И далее по смыслу. В конце каждого имени каталога - слеш. Вот, собственно. Хотя, можно еще много фантазировать на
тему. |
Автор: Lex
Copyright © 2002г. "http://tul.by.ru", Написать письмо |