Поделитесь информацией с Друзьями

среда, 28 марта 2012 г.

SEO для начинающего вебмастера - Трафик




Как оценить будущую посещаемость сайта

Для оценки будущей посещаемости сайтов нужно учитывать много различных факторов, но основным конечно являентся популярность темы сайта в интеренете, - можно воспользоваться различными сервисами, которые подсказывают популярности запросов (слов) по определенным словам, или можно воспользоваться базами данных с уже собранной статистикой с этих серверов,или программами, которые собирают эту статистику на ходу. 

Что выбирать - решать вам: сервера дают мало статистики, но относительно свежую, программы получают статистику достаточно долго и жрут траффик, но больше чем сервера и достаточно свежую, ну а базы данных имеют огромное количество статистики, по которой не тратя времени сразу можно делать анализ популярности запросов, но обычно немного устаревшие данные, что конечно не существенно, но чем свежее - тем приятнее ))) 

Здесь в качестве серверов статистики советуем:
Wordtracker - самый мощный сервис по той тематике, но платный и английский

Yandex Stat - русский бесплатный
MailRu Stat - русский бесплатный
Rambler Stat - русский бесплатный
В качестве баз данных:
TheDowser Niche Database - база данных с миллионами слов, что вполне хватает для оценки посещаемости, с большим количестовм данных по словам, наверная самая дешевая база ключевых слов в интеренете (дешевле пока не видел ))) )
Top Wordtracker Database - базы данных от вордтрекера, с данными только по вордтрекеру
В качестве программ исследования:
TheDowser - мощная прога для исследования характеристик ключевых слов
Keyword Elite - тоже самое, только лучше )))
Keyword Discovery - тоже из этой же области, один из лидеров ))
Конечно по всей этой статистике нельзя с точностью до посетителя оценить посещаемость сайта, но используя эти данные можно по крайней мере подобрать себе нишу для сайта, а также оценить приблизительное число людей, заинтересованных в данной теме. Одним словам шаманим )))

 Что такое прокси


В этой статье мы попытаемся как можно проще и доступней рассказать вам о том, что такое прокси-сервера. Помимо этого, мы с вами немного остановимся и на классификации (т.е. расскажем вам, какие proxy бывают). 

Если вы еще только открываете для себя киберпространство и желаете хоть что-то поиметь на его просторах (денег, славы, удовольствий и т.п.), то данный ликбез придется вам весьма по душе - грузить не будем. Все что вам потребуется, так это прочесть материал, врубиться в основы, а затем уже действовать по обстоятельствам, а именно - вы либо продолжайте изучать тему (дабы стать экспертом во всем что связанно с proxy), либо опираясь на полученные знания пожинайте плоды, которыми это чудо-юдо будет вас снабжать (а это, без всякого сомнения, произойдет). 

Итак. 

Давайте начнем повествование немного нетрадиционно и определение "прокси-сервер - это...." дадим несколько позже. Начнем же мы с банального примера, который очень наглядно демонстрирует, почему же некоторые простые смертные юзеры активно начинают копаться в сети в надежде отыскать хорошо работающий прокси-сервер. 

Смотрите. Представьте себе такую картину - вы подключились к Интернету и хотите скачать музыку. Мест, где это можно сделать не так то и мало, но, к великому сожалению, очень часто случается так, что именно та самая необходимая вам музыка, располагается только в единственном месте. Либо вы плохо умеете пользоваться поисковиками, либо действительно архивчик с требующимся вам альбомчиком вывешен только в единичном экземпляре - одним словом, черт его знает - нигде больше нет, хоть ты тресни! 

Итак. Вот вы нашли возможность скачать то, что вам надо и жмете на download. Хлоп - попадаете на бесплатный аплоуд хост под названием rapidshare.com. Отлично! Ждем положенное время т.к. для халявщиков не покупающих премиум-акаунт там всегда есть небольшое ожидание перед скачем. Прошли положенные 60-70 секунд и появилась вожделенная кнопка Скачать файл. Упс.. 

А не тут-то было - выясняется, что кто-то уже качает с рапидшары, да вдобавок ко всему, еще и с вашего ай-пи адреса! Мир жесток и система добро на скачку файла вам давать не собирается однозначно - она говорит просто - "жди пока скачают, а потом пробуй опять". Вы ждете, ждете, ждете... И так без конца. 

А дело вот в чем - у вас статический ай-пи адрес и провайдер у вас, мягко выражаясь, очень плохой (если позволяет себе такие вещи). 

Ну и что же делать - скажете вы - как же качать с рапидшары? Ну да.. Ответ есть в сети - и вот вы туда ломитесь, дабы разобраться и понять, а затем сделать так, что бы все заработало. И, конечно же, первое что вы найдете в сети, если наберете в гугле "как качать с рапидшары", будет полезный совет - "используй прокси и будет тебе счастье!" 

Упс. А что такое прокси? А с чем его едят? А где его взять? А как настроить? Да уж... Вопросов много, а вы один... Но не отчаивайтесь! Сейчас мы вам все расскажем (ну почти все!) 

Что такое прокси-сервер. 

Прокси сервер - это промежуточный компьютер, который является посредником (от англ. "proxy" - посредник) между вашим компьютером и Интернетом. Через proxy-сервер проходят все ваши обращения в кибер-пространство. Proxy-сервер эти обращения обрабатывает, и результаты (например, скаченные из Интернета файлы) передает обратно на ваш компьютер. 

Если объяснять на пальцах, то технически процедура работы прокси-сервера выглядит так:
- вы настраиваете свой браузер на соответствующий прокси-сервер (как это делается - см. ниже);
- браузер отправляет запрос на этот прокси-сервер через вашего провайдера;
- прокси-сервер (если он рабочий и добрый) отправляет запрос на требующийся вам сайт;
- сайт (если он не злой и доверяет доброму прокси) принимает запрос и выдает прокси-серверу затребованную им информацию;
- прокси, принимает этот ответ и посылает его вам (опять же - через вашего провайдера);
- ваш браузер, принимает полученные данные;
- вы сохраняете на винт файл или разглядываете страничку вожделенного сайта.


Таким образом, со стороны провайдера, ваша активность в Интернете выглядит весьма слабой, т.к. вы постоянно заходите на один и тот же сайт (прокси-сервер, как и сайт, имеет уникальный ай-пи адрес). Но, на самом деле, вы качаете требующиеся данные со всего Интернета, и провайдер даже предположить не может, где вы бываете, и что вас интересует. 

Последнее предложение прочтите внимательно еще раз, т.к. proxy сервера - это не только возможность качать с рапидшары, но еще и анонимность в Интернете. 

Про анонимность, кстати, мы еще поговорим, а сейчас - давайте еще раз вернемся к теории использования прокси-серверов в бытовых условиях. 

Все что необходимо сделать обычному пользователю сети, дабы использовать прокси-сервера, можно выразить в трех пунктах: 

- необходимо найти адрес прокси-сервера. Адрес может быть, например, таким - 59.39.71.201 8080. Последние четыре цифры - это порт (его тоже надо будет забить в браузер);
- необходимо ввести имеющийся адрес в специальную прокси-форму вашего браузера (делается это через настройки прокси, которые вы найдете без труда, если полезете в раздел "опции", "настройки" или т.п.)
- ввести адрес требующегося сайта в адресную строку браузера и нажать на кнопку "enter". 
И это все - теперь все сайты, которые вы посещаете, будут получать запросы исключительно с нового ай-пи адреса, который принадлежит выбранному вами прокси-серверу.


В начале статьи мы привели пример с рапидшарой. Так вот - используя хорошие прокси-сервера, вы сможете накачать оттуда тоны полезной информации, которая была вам до этого не доступна по причине статического ай-пи адреса, которым вас наградила приверженность многих отечественных провайдеров к колхозному строю. 

"Какая же еще польза от прокси-серверов?"

- спросите вы. Что ж - постараемся перечислить все: 

1. Прокси-сервер может ускорить ваш серф. 

Останавливаться на этом вопросе бессмысленно, т.к. на дворе уже XXI век и высокоскоростные подключения (1 мегабит и выше) сейчас не редкость. Пять-шесть лет назад этот вопрос интересовал многих - сейчас же, прокси-сервера используют для других целей;
2. Прокси-сервер делает выше путешествие в сети анонимным. 

Заметим, что не все прокси-сервера являются анонимными - поэтому, если вы решите шифровать свое пребывание в Интернете, то следует для начала убедиться в фактической анонимности прокси-сервера. К примеру, в каталогах бесплатных прокси-серверов, всегда указывается - анонимный тот или иной адрес прокси-сервера или нет. Как альтернативный вариант, рекомендуем поискать в сети хоршую программу, предназначенную специально для определения анонимности прокси-серверов. Софт называется просто - Proxy Checker.


3. При помощи прокси-серверов вы сможете получать доступ к сайтам, доступ к которым заблокирован вашим провайдером или администратором сети. 

К примеру, вы сидите на работе и хотите написать что-то в свой ЖЖ, а админ (конечно-же это не он - ему приказали!) заблокировал доступ на livejournal.com. В этой ситуации следует сделать так - проставить в браузере рабочий прокси-сервер, зайти на ЖЖ и сделать пост про админа и его начальство. Но! Шутки-шутками, а прокси-сервера для многих людей в этом мире являются окном в свободный Интернет - например, в Китае прокси-серверами пользуются для того, что бы посещать сайты забаненые коммунистической партией.


4. С помощью прокси-серверов можно фильтровать содержимое загружаемых веб-страниц (например, избавляться от рекламы). 

Используется это редко, т.к. для того, что бы резать рекламу достаточно настроить свой файрволл или, скажем, любимую Мозилу. 

5. Прокси-сервером, причем без особого труда, можно изменить свое "географическое положение" в сети. 

Например, некоторые сайты демонстрируют разный контент в зависимости от того, из какой точки планеты поступает запрос - прокси решает этот вопрос и дает вам больше возможностей анализировать информацию. Еще вариант - выдача поисковиков. Если ваш запрос поступает из рунетовского сегмента, то результаты поиска по одному и тому же слову, будут весьма сильно отличаться от немецкой, английской или японской выдачи. Дабы знать, на каком месте находится ваш сайт для серферов из дальних стран, рекомендуется использовать прокси-сервера с географической привязкой к этим странам. 

6. Если прокси сервер находится в локальной сети (т.е. в одной локальной сети с вами), то достаточно, что бы только этот прокси имел подключение к Интернету - вся сеть сможет выходить в Интернет через этот прокси (колхозный вариант). 

Ну вот.
Теперь несколько слов о том, какие прокси-сервера бывают.


Для начала заметим, что в ликбезной статье очень сложно дать подробную характеристику типам прокси серверов, но мы и не станем этого делать - зачем? Если вам в дальнейшем потребуется получить более полную информацию, то рекомендуем обратиться к специализированным источникам (в сети их масса - запрос в гугле даст хорошие результаты!). 
Существует четрые типа прокси-серверов и каждый из них, предназначен для выполнения определенного круга задач. Но, несмотря на это, у них есть очень много общего, а возможности всех четырех типов зачастую совпадают. 



1. HTTP proxy
HTTP proxy - это самый распространенный тип прокси серверов и, чаще всего, когда говорят "используйте прокси-сервер" имеют в виду именно HTTP proxy. Все типы браузеров поддерживают этот тип прокси серверов - более того, такие программы как скажем, ICQ-трещалки, тоже могут конектиться через HTTP proxy. Раньше ситуация выглядела несколько иначе - с помощью HTTP proxy можно было только просматривать веб-страницы и загружать картинки. 

2. Socks proxy 

Это самый универсальный тип прокси серверов, т.к. умеет работать с любой информацией, которая циркулирует в Интернете (используется протокол TCP/IP). Несмотря на свою универсальность, Socks proxy сервера имеют более ограниченное распространение (по сравнению с HTTP proxy), т.к. не все программы поддерживают такое соединение. Например, браузеры, сами по себе, не умеют работать с Socks proxy и что бы настроить такой коннект через браузер, необходимо устанавливать специальные плагины или даже программы. Тем не менее, вышеназванная трещалка ICQ (и т.п. приложения) запросто работают через Socks proxy - за это им большое спасибо. Существует две версии Socks proxy - socks 4 и socks 5. Для того, что бы настроить соединение, необходимо выбрать что-то одно. 

3. CGI proxy 

Такой тип прокси еще называют анонимайзеры и работать с ними можно только через браузер. Огромное преимущество данных прокси - простота, т.к. разработка с самого начала была заточена под браузеры. Удобство заключается в том, что посредством CGI proxy можно строить сколь угодно большие цепи прокси-серверов и весьма эффективно заметать свои следы во всемирной паутине (отсюда и название - анонимайзеры). Многие интернет-приложения не совместимы с CGI proxy вообще, а для других использование CGI proxy затруднительно. 

4. FTP proxy 

FTP proxy - это узкоспециализированный тип прокси серверов и предназначен он исключительно для работы с FTP (File Transfer Protocol) серверами. Чаще всего FTP proxy можно встретить в корпоративных сетях. Такие приложения, как FAR или Windows Commander поддерживают FTP proxy. 



В заключении следует отметить еще и то, что прокси-сервера бывают платными и бесплатными. В бытовых (и около бытовых) целях настоятельно рекомендуется использовать исключительно второй вариант - т.к. найдя быстрый бесплатный сервер вы не почувствуете никакой разницы, а деньги останутся при вас.


Что такое подкастинг

Продолжаем наполнять ликбезный раздел нашего сайта. В процессе работы над подбором материала выяснилось, что подбор ликбезных статей - это весьма неоднородная штука. Дело в том, что в зависимости от специфики основных разделов нашего сайта (партнерки, раскрутка, веб-дизайн и т.д.) необходимо делать сразу несколько ликбезных директорий! Что ж - видимо так и поступим. Эта статья будет первой ласточкой ликбезного раздела, который будет освещать непонятные термины. С ними сталкивается большинство начинающих пользователей Интернета. Независимо от того, собираетесь ли вы заняться дизайном, сеошными премудростями или еще какими манимейкерскими трюками – разбираться с общеупотребимой терминологией вам придется в любом случае. 

Интернет-словать развивается все динамичнее и динамичнее - почти каждый день мы сталкиваемся с новыми терминами и понятиями. Нельзя объять необъятное - поэтому, если вы чего-то не знаете, то лучше спрашивать гуглю, а не делать умный вид и проходить мимо незнакомого термина. 

В этой статье мы поговорим немного про подкасты. Вы, наверное, уже не раз слышали это слово - ну, а если до сих пор вы еще не разобрались с тем, что же оно означает, то данный материал будет для вас неимоверно полезен. 

Технология подкастинга базируется на формате RSS. Сразу оговоримся, что про RSS мы уже несколько раз писали на нашем сайте - весьма занимательная статья под названием "Что такое RSS и как им пользоваться".

Подкастинг представляет из себя в точности тот же RSS канал, только с одним отличием - пользователь может на нем публиковать не текстовые, а мультимедийные, чаще всего в аудио-формате, новости. 

Пользователь, который публикует вышеназванную мультимедийную ленту, именуется "подкастером". 

Может возникнуть вопрос - а разве всем привычные mp3 файлы, которые мы качаем со множества сайтов, не являются по своей сути подкастами? 

Нет, обычные мп3, которые загружены на какой-то хост, подкастом быть не могут, т.к. на них невозможно оформить подписку и, как следствие, автоматически узнать об обновлении тоже не получится. 

Для того, что бы окончательно понять суть подкастинга необходимо разобраться в первую очередь с тем, из каких слов образован этот термин. 

Термин "подкаст" был выведен посредством слияния двух английских слов - "IPod" (это знаменитый аудио-плеер компании Apple) и "broadcasting" (вещание). 

Таким образом, при помощи технологии подкаста, любой человек может надиктовать на микрофон будь какую информацию, а затем вещать ее в реальном времени в Интернете. В принципе, подкастинг мало чем отличается от персонального радио. Как вам нравится такое развитие событий? 

Самое широкое распространение подкастинг получил в блогосфере. Однако, в данное время, подкастинг все чаще и чаще можно заметить в повседневном обиходе. Например, в виде подкаста уже довольно успешно оформляются школьные уроки, церковные проповеди и проч. Ну а еще одна сфера применения подкастинга - это интервью. Нет ничего проще, чем взять интервью и тут же выложить его в сеть в формате подкаста! 

Рекомендуем использовать сервис от FeedBurnig для управления своими подкастами. http://www.feedburner.com/ 


rss против социальных медиа


В этой небольшой статье мы немного рассмотрим интересное явление, которое на протяжении 2010 года все больше и больше давало о себе знать. Сейчас можно с уверенностью утверждать, что традиционная порция трафика на сайты из такого замечательного источника как RSS, стала постепенно снижаться. Если вы еще не обращали на это внимание, то это значит, что вы или слабо наблюдаете за статистикой своего проекта или не имеете еще достаточно ощутимых показателей в плане посещаемости . Как вариант - вашему проекту еще не исполнилось критических трех лет и трафик носит нестабильных характер. 

Ситуация выглядит следующим образом - трафик из Гугл Ридера падает, но зато! - он появляется из другого источника - из социальных сетей. Такие социальные медиа, как Фейсбук, Твиттер и Вконтакте на сегодняшний день являются колоссальным аккумулятором ссылочной активности и, надо полагать, этот источник трафика будет с каждым годом все больше и больше увеличивать свои показатели. 

Суть вопроса очень и очень проста - насколько хороша для веб-мастера такая ситуация? Ведь смотрите - мы размещаем на самом видном месте кнопку "подписаться на канал", настраиваем его, а получается, что отдача от этой полезной фичи стала меньше. Анализ ситуации показывает, что в равной пропорции потерянный трафик возмещается ссылками из соц. сетей и это однозначный плюс. Однако, что же произошло? 

На замечательном сайте TechCrunch мы находим ответ на этот вопрос. 


Если внимательно прочитать статью на которую мы ссылаемся, то можно уразуметь, что определенная часть наших посетителей постепенно отдает предпочтение мониторингу не ГуглРидера, а именно новостей, которые поставляют социальные медиа. Причина кроется не только в популярности этих сервисов, но еще и в том, что информация там более ранжирована по важности - ведь для того, что бы определиться с тем - стоит ли она внимания или нет, пользователю требуется буквально секунда. К примеру, некоторых не устраивает то, что в rss-канале дается полностью новостной текст, который приходится перематывать в том случае, если контент не вызывает интереса. В Твиттере, опять таки, все иначе - там только заголовки и быстрая ответная реакция в виде клика в случае когда заголовок вызывает интерес. Ну а далее - новость может быть порекомендована друзьям и таким образом распространена уже по их кругу общения. Это один из вариантов. Другим людям просто не нравится rss-канал по той причине, что там нет возможности ответить (порекомендовать, перепостить и т.п.) одним кликом мышки. 

Иными словами - социальные медиа берут верх над rss и к этому надо привыкнуть. Как показывает практика и авторитетные мнения - в этом, все же, нет ничего плохого. Просто веб-мастерам настоящего времени, настоятельно рекомендуется всегда помнить о том, что рядом с кнопкой "подписаться на RSS" необходимо ставить еще и ссылки на аккаунты своего сайта во всех популярных социальных медиа, дабы не только приобретать новых посетителей посредством этих сервисов, но так же и для того, что бы не растерять старых. 



инструменты анализа

Небольшой обзор Google Analytics

Сегодня огромное количество веб-мастеров, маркетологов и самых обычных пользователей используют потрясающие возможности сервиса Google Analytics. 
Некоторые - для увеличения конверсии своих сайтов, другие - для оптимизации целевых страниц, ну а есть и те, кто регистрируется в системе и добавляет код только для того, что б быть просто в курсе - в курсе того кто, когда и как побывал на сайте (из любопытства, так сказать). :- )) 


Еще бы! Компания, щеголяющая своим брэндом по всему миру, имеет реальную возможность совершенно бесплатно предоставить каждому заинтересованному лицу свои аналитические разработки, которые по своим показателям, ничем не уступают (а иногда и превосходят!) платные аналоги от конкурирующих производителей. 
Конечно же, вы тоже знаете, что Google Analytics мегаполезная утилита и, возможно, используете ее в своих целях. Параметров же отчетности и прочих наворотов в системе предостаточно - устанешь перечислять! 

Более того - очень часто случается так, что веб-мастер даже не догадывается о некоторых возможностях анализа, а они есть и более того - эти фичи могли бы приносить весьма существенную пользу. 
Для всех, кто заинтересован во всестороннем изучении и использовании Google Analytics, мы посоветуем забраться в, довольно-таки, обширный суппорт сервиса - там имеются ответы на почти все гипотетические вопросы! Справка сервиса находится тут: http://www.google.com/support/analytics/ 

Начитаетесь вдоволь! :-) 

В данной же статье мы раскроем всего лишь два момента вызывающие трудности у некоторых людей, которые пользуются Google Analytics. 
Как нам кажется, это будет весьма своевременная информация, в первую очередь, для начинающих веб-мастеров рунета, которых с каждым днем становится все больше и больше.:-) 

Итак - вот что часто вызывает трудности: 

1. Важно знать, что термины "Ключевое слово" и "Ключевой запрос" в результах анализа Google Analytics не одно и тоже! 

Да, да - эти термины не синонимы, как к этому все привыкли в повседневной жизни :-) 

Дело в том, что система анализирует не только то, что ввел ваш посетитель в поисковую форму поисковика, но и то, что он желал найти непосредственно на вашем сайте. Сейчас очень многие сайты снабжены весьма полезным прибамбасом под названием "поиск по сайту" (например, такую формочку можно взять у того же гугла) - все что ищется там и является тем самым внутренним поисковым трафиком, который дополнительно анализируется алгоритмом Google Analytics. И как раз таки для того, что бы отделить в отчете трафик с систем внешнего поиска от внутренних поисковых запросов, гугл использует два разных термина - Ключевое слово и Ключевой запрос. Соответственно, "ключевое слово" - это слово, по которому пришел посетитель из внешнего поисковика, а "ключевой запрос" - это слово, которое он вводил в форму "поиск по сайту" уже находясь на вашем ресурсе. Часто веб-мастера забывают об этом нюансе и, как следствие, имеют слегка некорректные данные в отчете. Не забывайте разделять "ключевые слова" от "ключевых запросов" в своих отчетах! :-) 

2. Многие думают, что Google Analytics не умеет работать с русскоязычными поисковиками - считается, что только трафик с Яндекса учитывается алгоритмом системы. Это не так - все учитывается нормально, только необходимо немного поковыряться в коде, который выдала вам система! 

На сегодняшний день, Google Analytics, по умолчанию, работает с 21 поисковиком. Вот список: Yahoo, MSN, Lycos, Ask, AltaVista, Search, Netscape, CNN, LookSmart, About, Mamma, AlltheWeb, Gigablast, Voila (Франция), Virgilio (Италия, еще известный как Alice), Live (Windows Live) Baidu (Китай), Seznam (Чехия), Yandex, Najdi (Словения), ну и разумеется - Google. Как видите Mail.ru, Рамблера, Апорта и, например, Нигмы, там нет. Для того, что бы Google Analytics начала считать и этот трафик, делаем вот что. Берем код и добавляем в него несколько строк. Изначально код выглядит таким образом: 

[script src="http://www.google-analytics.com/urchin.js" type="text/javascript"]
[/script]
[script type="text/javascript"]
_uacct = "UA-xxxx-x";
urchinTracker();
[/script]

* ну конечно с заменой квадратных скобок на то что нужно ))) 

_uacct = "UA-xxxx-x"; - это уникальный код (под ним то и необходимо добавить несколько строчек). Строчки будут одинаковыми - различными будут только два параметра (в зависимости от поисковика, который вы хотите добавить), а именно - номер поисковика и дифинитива целевого слова (в некоторых поисковиках это или буква, или слово). Не бойтесь - все просто! :-) Для Mail.ru делаем следующее. Вводим в поисковую форму Mail.ru любое слово - например, слово gnom. Вот что будет отображаться в адресной строке браузера после того, как вы нажмете на кнопку "Найти" и система выдаст результаты: 
http://go.mail.ru/search?lfilter=y&q=gnom 

Из этого адреса нам надо обратить внимание на букву "q", которая стоит перед знаком "=" и словом gnom. 
Что бы добавить в базу Google Analitics поисковик Mail.ru, нам достаточно всего лишь после уникального кода вставить строчку следующего содержания: 
_uOsr[20]="Mail.ru"; _uOkw[20]="q"; 
20 в скобочках, как вы уже догадались, это номер поисковика. 

Для Рамблера проделываем ту же операцию - вычисляем целевое слово (это "words") и строчка будет выглядеть так: 
_uOsr[21]="Rambler";_uOkw[21]="words"; 
Хотите добавить еще один рунетовский поисковик? Пожалуйста, и сколько угодно :-) - только не забывайте увеличивать цифру (22, 23 и т.д.) 

Ну а в нашем случае, код уже приобретает следующий вид: 

[script src="http://www.google-analytics.com/urchin.js"type="text/javascript"]
[/script]
[script type="text/javascript"]
_uacct = "UA-xxxx-x";
_uOsr[20]="Mail.ru"; _uOkw[20]="q";
_uOsr[21]="Rambler";_uOkw[21]="words";
urchinTracker();
[/script]


Таким образом, все прописанные вами поисковики теперь уж точно будут учитываться Google Analytics и анализ посещаемости вашего ресурса будет намного более информативным и точным. 

В заключении добавим, что у Google Analitics бесчисленное количество плюсов, но есть и один минус, который весьма сильно портит впечатление от системы. Минус такой - система жрет очень много трафика. Будьте готовы, что его прирост будет равен где-то 20-ти, а то и 30-ти процентам - для некоторых сайтов это весьма ощутимая проблема, не так ли? 

Ну и сам просмотр статистики - он тоже весьма и весьма перегружен - каждая страница весит, в лучшем случае, порядка 400 кб и отключение флэш-анимации не дает, к сожалению, совершенно никакого эффекта. 
Но, несмотря на все это, Google Analitics - это бесспорный лидер в области маркетинговых аналитических технологий и остановив свой выбор на его статистических выкладках, вы сделает правильный ход. 

Надеемся, что вышеизложенный материал оказался вам полезен! 


Принципы работы Alexa.com

Вы занимаетесь раскруткой своего сайта? Вы хотите знать, как выглядит ваш проект среди миллионов других страниц? Вы заинтересованы в том, что бы быть постоянно в курсе рейтинговых положений своего сайта по отношению к конкурентам? Вам необходимо заглянуть вперед и хоть немного спрогнозировать динамику развития сайта? 
Если ответ положительный, то все что от вас требуется - это просто взять и зайти на alexa.com! 

В данной статье мы расскажем об основных возможностях Alexa.com и растолкуем некоторые термины, которые вызывают вполне понятные трудности, у тех, кто слабо знаком с английской seo-терминологией. 

Начнем, пожалуй, с небольшого исторического обзора. 

Так вышло, что будучи мега-полезным сервисом, alexa.com до сего дня практически не имеет конкурентов - такому положению вещей способствовал ряд обстоятельств, но главная причина заключается в том, что статистические данные такого большого масштаба получается собирать только таким компаниям, которые всецело интегрированы в персональные компьютеры постоянных посетителей Интернета. 

Приведем пример. 

Вы когда-нибудь сканировали только что установленный Windows антишпионской программкой под названием Adaware? Если да, то должны были заметить, что единственной "шпионской программой", которую обнаружил этот сканер, был небольшой модуль интегрированный в браузер Internet Explorer - это и есть частичка alexa.com на вашей машине. Alexa.com официально утверждает, что все данные берутся исключительно из, т.н. alexa toolbar, но по всей видимости, этот источник поставляет только определенную долю статистики. Основная же часть информации добывается посредством тесной коммуникации с популярными продуктами от Microsoft (и, разумеется, других производителей - например, гугла). 

Alexa.com была создана в 1996 году двумя американскими инженерами - Брюсом Гиллиатом (Bruce Gilliat) и Брюстером Кале (Brewster Kahle). Последний, среди всего прочего, сейчас является одним из директоров Electronic Frontier Foundation - некоммерческой правозащитной организации, которая следит за соблюдением гражданских прав пользователей Интернета.
На заре своей деятельности компания Alexa.com имела прямое отношение к созданию Wayback Machine (Машина Времени). Wayback Machine - это Интернет-архив, который собирает все данные, когда-либо появлявшиеся в сети. С помощью этой штуки можно посмотреть, как выглядел тот или иной сайт 5 или 10 лет назад. Через 20-30 лет информация из этой базы данных будет пользоваться неимоверной популярностью. Сайт архива находится тут

Помимо различных проектов, Alexa активно разрабатывала специальный toolbar - установив его на свой браузер, пользователь получал советы о том, куда направиться дальше с той или иной страницы. Эти данные брались из пользовательского сообщества, которое во все времена было генератором шаблонного поведения. alexa toolbar делала и еще одну вещь - показывала контекст посещаемого сайта, т.е. где он зарегистрирован, сколько на нем имеется страниц, количество входящих ссылок и частоту обновления. 

В 1999, компания Alexa была куплена корпорацией Amazon.com - цена сделки была определенна в акциях Амазона и равнялась 250 миллионам долларов. Несмотря на то, что Alexa - это составная часть Amazon.com, тем не менее, внешне, сервис сохранил свою брэндовую независимость и многими пользователями воспринимается, как нечто самостоятельное. 

С середины 2002 года Alexa вошла в тесный контакт с Гуглом - именно гугля предоставляла свои поисковые данные для сервисов от Alexa.com. Непродолжительное время, Alexa использовала также мощности Windows Live Search, но в конце 2006 года инженерами компании была разработана собственная поисковая платформа.
Среди продуктов компания Alexa можно выделить такие популярные сервисы:
- Alexa Image Search
- Поисковая система
- Предоставление информации о сайтах.
На последнем продукте мы и остановим свое внимание. 

Итак. 

В системе есть своя терминология и если в ней ориентироваться, то вопросов возникнуть не должно. 

Работать придется в основном с тремя терминами. Вот они: 

1. Reach for yoursite.com 

В данном случае подразумевается посещаемость сайта - она может или расти или, наоборот - падать. Уровень посещаемости в алгоритме alexa.com вычисляется на основании процентной шкалы - за общую единицу берутся все пользователи, которые предоставляют информацию в базу данных alexa. Посещаемость же выражается в процентах от миллиона пользователей. Например, сайт yahoo.com посещается 28% - это значит, что из миллиона серферов, 280 000 посещают yahoo.com. 

2. Traffic Rank for yoursite.com 

Фильтрация "ранга трафика" сапорт Алексы объясняет таким образом:
- за основу берется трехмесячный период;
- берутся данные о посещаемости всех сайтов Интернета от пользователей, которые установили на своей машине alexa toolbar;
- из этой информации высчитывается количество просмотренных страниц на этих сайтах;
- из полученных данных производится выборка по конкретно запрашиваемому сайту;
- данные усредняются в соответствии критериями количества посещений и количеством просмотра страниц; Таким образом, Ранг Сайта (Traffic Rank) - это положение того или иного ресурса среди других сайтов. Разумеется, не стоит забывать о том, что эти данные есть усредненное значение (average). Вычисление же изменений в Ранге производится путем сравнительного анализа - сравнивается положение ресурса в данный момент с тем рангом который был зафиксирован три месяца назад. 

3. Page Views per user for yoursite.com 

Этот отчет показывает, увеличивается ли или уменьшается количество просмотренных страниц на отдельно взятом сайте. За основу берется уникальный посетитель и число страниц просмотренных им за одно уникальное посещение (сутки). Данные от всех пользователей суммируются и получается усредненная цифра. В принципе, эта технология очень хорошо реализована в алгоритме Google Analytics - поэтому рекомендуется пользоваться и этим сервисом, т.к. там больше статистических данных (разумеется, конкурентов вы там увидеть не сможете - только свой сайт). 
Не забывайте, что alexa.com при обработке данных из раздела Page Views per user использует 3-х месячный период и, следующий отчет будет отталкиваться уже от данных предыдущего. 

Несмотря на то, что многие клеймят Alexa.com за весьма приблизительные обобщения посещаемости заданных ресурсов, тем не менее, сервис этот очень нагляден и постепенно становится все более точным. Этому способствует не только растущее количество пользователей, которые поставляют данные на сервер, но и усовершенствование алгоритмов расчета, которые анонсируются в последнее время весьма часто. 

Главный минус системы заключается в том, что alexa toolbar работает только с Internet Explorer и пользователи других браузеров, остаются вне поля зрения системы. 
Есть и еще другие ограничения. Например, на защищенных страницах (т.е. на страницах, которые работают по протоколу https) инструмент от алексы работать не будет (впрочем, это и понятно - на то они и защищенные!). Помимо всего этого следует помнить еще и тот факт, что пользователи проживают в разных странах и, если они используют alexa toolbar, то культурные, языковые и географические факторы могут сильно влиять на их активность в каком либо секторе Интернета. 

принципы работы поисковых машин

Принципы работы Google

Если задаться целью и проанализировать официальный блог гугла, блог Мэтта Катса (aka. GoogleGuy), а так же некоторые другие официальные источники, то без труда можно составить вполне четкое представление о том, что нельзя, что можно и что нежелательно делать при оптимизации своего веб-ресурса под поисковую систему Google. 

В этой статье мы постараемся аккумулировать все те осколки знаний касающихся принципов работы алгоритма Гугла, что разбросаны на вышеназванных ресурсах, и поможем понять начинающим веб-мастерам, как правильно вести себя при раскрутке своего сайта белыми методами (а они - самые надежные и потенциально приведут к успеху предприятия). 

Разумеется, обо всем сказать не получится - алгоритм Гугла постоянно модифицируется и идет в ногу со временем - то, что было правда в конце 2006 года, во второй половине 2007 представляется уже сомнительной информацией. Но все же! Система работает по определенным принципам и эти принципы, хоть и с небольшими нюансами, все же остаются неизменными - а коль так, то они заслуживают пристального внимания. Именно на них-то мы и будем опираться. 

И еще. Перед тем как начать наше повествование, хотим обратим Ваше внимание на то, что на bigffozy.com имеется немалое количество материалов в виде статей, которые рассматривают многие из тех моментов, что описаны ниже, причем - в более развернутом виде! Не поленитесь заглянуть в раздел статей - там Вы найдете много чего интересного и весьма полезного. 

Ну вот и все. Поехали. 
1. Гугл большое значение придает тому, как долго сайт находится в сети - это можно определить еще и как "историческое" знание о сайте. Достаточно упомянуть такой фильтр, как Песочницу (Sandbox) или же часть алгоритма под названием TrustRank, что бы без обиняков удостовериться в справедливости доминирования "исторического" момента, который, в свою очередь, влияет на благосклонное отношение поисковика к любому веб-ресурсу. 

Чем дольше сайт существует, тем больше Гугл ему доверяет и, как следствие, чаще дает зеленый свет - это справедливо не только в отношении поисковых запросов, но и затрагивает ранжирование. 

Помимо примитивного "исторического" подсчета существования сайта, Гугл немалое значение придает и таким данным (а их можно то же отнести к хронологической составляющей алгоритма), как:
- продолжительность нахождения контента на сайте (дата появления контента);
- сколько времени прошло с того момента, как часть контента (например, статья) была процитирована другим ресурсом. Иными словами, учитывается не только появление статьи на другом сайте, но и момент ее появления;
- количество сайтов, которые процитировали статью - причем, это делается не только по объему цитирований, но и по промежутку времени между ними.
Из сказанного можно сделать вывод, что Веб-мастеру важно подогнать свои действия под "исторический" алгоритм Гугла. Например, если появилась идея создать сайт, но пока нет достойного контента, то все равно не стоит откладывать регистрацию домена. Загрузка на сервер той малости, что уже сейчас имеется в наличии, будет хорошим началом Вашего предприятия. Появление же хорошего контента в будущем и последующее размещение его на сайте, который уже дал знать о себе гуглу, только прибавит очков в Вашу пользу, т.е. временная константа работает на Вас. 



2. Алгоритм Гугла очень четко отслеживает объемы обновлений, которые происходят на сайте. Если быть предельно точным, то содержание сайта и то, насколько часто меняется его контент, представляет интерес для поисковика только по той причине, что Гугл всеми силами стремится исключить спам из результатов поиска - следовательно, фактор контроля за динамическим контентом, является превалирующим. Веб-мастеру необходимо знать о том, что положение пункта 0128 патента Гугл (подробная статья по этому поводу находится тут: http://www.toprankresults.com/onlinemarketing/2005/05/google-patent-review-for-seo.html) указывает на то, что алгоритм системы заточен на фильтрацию сайтов у которых происходят резкие скачки в контентном наполнении (имеется в виду увеличение или уменьшение количества страниц). Наложение пеналти на сайт за подобные, ничем не обоснованные (по мнению алгоритма), изменения количества страниц, является основной мерой принуждения Веб-мастеров к соблюдению правил честной раскрутки ресурсов. Вышеописанный фильтр направлен на борьбу с дорвеями, которые в начале эры Гугла очень сильно подпортили кровь его создателям. 

В этот же раздел можно отнести и ту часть алгоритма, что занята борьбой со своппингом (swapping), т.е. подменой контента. Исчезновение оригинального текстового наполнения на сайте, при наличии весомых внешних ссылок на радикально модифицированные страницы имеющие, при этом, хороший Page Rank, будет расценено именно в том духе, что владелец сайта решил заняться спамом. 

В заключении этого пункта отметим следующее. Гугл анализирует и запоминает:
- как часто менялись страницы;
- существенность этих изменений;
- как меняется плотность ключевых слов на странице;
- изменялись ли якорные тексты ссылок.




3. Как известно, Гугл оперирует значениями Page Rank для того, что бы определить насколько весома страница и, какое место она займет в серпе. Если быть предельно кратким, то Веб-мастеру в связи с этим, необходимо зарубить на носу следующее:
- не желательно очень часто ссылаться на сайты, имеющих более низкий PR т.к. подобное усердие может быть расценено, как спам-метод раскрутки. Это не значит, что нельзя ссылаться на молодые сайты, которые еще не успели набрать оборотов - просто делать это надо с умом, а не лихо раздавать ссылки направо и налево.
- нельзя ссылаться на сайты у которых PR равен 0, т.к. это именно те сайты, которые находятся в черном списке Гугла (они либо оштрафованы, либо запрещены).




4. Домен, на котором находится сайт, очень о многом говорит Гуглу - поэтому, негативная информация о домене может затруднить раскрутку сайта (причем очень существенно). При выборе домена обращайте внимание не только на его благозвучность, но и на информацию о бывшем владельце (если такой, конечно, имелся). Так же, по (пока) до конца не проверенным данным, факт покупки домена на короткий срок, является основанием для того, что бы Гугл начал относиться к нему с опаской и подозрением. Обычно, именно дорвейщики, спамеры и те, кто не собираются заниматься развитием сайта, заводят домены на непродолжительное время - регистрируйте домен с таким расчетом, что б система вас не заподозрила в вышеназванных вещах (срок больше года, по всей видимости, будет вполне приемлем). 



5. Репутация хостинг-компании - еще один аспект, который учитывается Гуглом. Хостер хостеру рознь! Существуют "белые" хостинг компании, которые признаны в мире, а есть и такие, которые подпадают под категорию "серых". Например, есть хостеры, которые готовы без малейших препятствий размещать у себя дорвеи или же запрещенные сайты (скажем детскую порнографию и проч.) - к таким хостерам Гугл применяет санкции и, если Ваш сайт находится на неблагонадежном хосте, то эти санкции автоматически коснуться и Вас. С хостингом ошибаться не стоит!
На этом, пожалуй, и все. Думается что данного материала будет достаточно для порождения новых вопросов

Принципы работы Yandex

Данная статья не является исчерпывающим источником информации относительно поисковой системы Яндекс - в ней всего-навсего освещены некоторые моменты, из истории развития поисковика, а так же даны рекомендации относительно того, как оптимизировать свой сайт под Яндекс. 

Итак. Немного истории. 

Корни самого популярного поисковика рунета уходит в начало 90-х годов - именно тогда, нынешними директорами Яндекса, были предприняты первые шаги по разработке поискового программного обеспечения. Для любознательных, наверное, будет не небезынтересно узнать, что один из первых словарей, который обеспечивал поиск по документам с учетом морфологических форм русского языка, весил 300 килобайт и целиком загружался в оперативную память компьютера. Время шло, и вот уже в 1996 году был разработан, так называемый, алгоритм построения гипотез. С этого момента, все морфологические формы поисковых запросов уже не были непосредственно привязаны к словарю, а моделировались на основании схожести тех или иных слов. Можно смело утверждать, что именно с 1996 года Яндекс берет свой старт - не только как популярный поисковик, но и как удачный коммерческий проект рунета. 

Официальная дата возникновения Яндекса - 23 сентября 1997. Именно в этот день, на выставке Softool, было анонсировано о создании поисковой системы. 

Уникальность разработки заключалась, в частности в том, что Яндекс очень эффективно обрабатывал естественно-языковые запросы (т.е. длинные предложения, например, "где купить систему центрального отопления" и т.п.). 

1999 год - это год бурного развития Рунета. Яндекс не отставал от этого процесса. К 1999 году относится не только введение таких привычных яндексовских настроек поиска, как ограничение по группе сайтов, поиск по ссылкам и т.п., но и появление термина Тематический Индекс Цитирования (тИЦ). Историю становления Яндекса можно без особого труда найти по соответствующему поисковому запросу, поэтому не станем заострять свое внимание на этом аспекте, а перейдем непосредственно к предмету данной статьи, а именно - как эффективно оптимизировать свой сайт под Яндекс и как не попасть к нему в немилость. 

Любая уважающая себя поисковая система предлагает веб-мастерам свой вариант правильной оптимизации сайта - Яндекс же, как самый авторитетный поисковик рунета (так, наверное, сейчас еще можно сказать), не является исключением из этого правила. Зайдя, например, по этому адресу (http://rules.yandex.ru/termsofuse.xml) у нас появляется возможность в весьма официальной форме прочесть чрезвычайно много полезной информации - это "Лицензия на использование поисковой системы Яндекса". Из этого документа мы узнаем, к примеру, не только то, что Яндекс это некоммерческая поисковая система, которая не отвечает за содержимое страниц проиндексированных ее ботами - в "Лицензии на использование" имеются еще и пункты, которые напрямую затрагивают то, что сейчас принято называть SEO - на этом моменте и остановим свое внимание. 

Во-первых, в Лицензии вполне лаконично расталковано, что в глазах Яндекса является спамом, а что им не является. Читаем - " <Поисковый спам> - это попытки обмана поисковой системы и манипулирования ее результатами с целью завышения позиции сайтов (страниц) в результатах поиска. Сайты, содержащие <поисковый спам>, могут быть понижены при ранжировании или исключены из поиска Яндекса из-за невозможности их корректного ранжирования". Попытки же обмана поисковика, могут быть следующими (официальная трактовка Яндекса):
- автоматическое генерирование текста (например, дорвеи);
- создание сайтов, отдающих разный контент пользователю и роботам поисковых систем (клоакинг);
- создание страниц и сайтов, единственной целью которых является перенаправление пользователя на другой ресурс (редирект). К этому пункту еще относится и реклама на сайте не содержащем контент - т.е. добровольное перенаправление пользователя на сайт рекламодателя.
- создание на сайте условий позволяющих манипулировать ссылочным ранжированием, т.е. это сайты, ставящие ссылки исключительно для обмана поисковых систем (искусственное повышение релевантности) и сайты ссылающиеся исключительно друг на друга (т.н. линкфармы).
Все вышеперечисленные манипуляции будут расценены Яндексом как спам, ну а за спам, сами понимаете что будет - бан, песимизация и прочие неприятные санкции. Поэтому начинающему сеошнику, для того что бы эффективно раскрутить свой ресурс в Яндексе, необходимо не отклоняться от Яндексовских правил. Разумеется, есть огромное количество лазеек, с помощью которых можно обмануть поисковик - но это тема для отдельной статьи, а точнее для серии отдельных публикаций. 

Теперь немного про конкуренцию гугла с яндексом :-) 

Многие сейчас говорят о жесткой борьбе, которая идет за русскоязычный Интернет между Яндексом и Гуглом. Гугл, как известно, претендует на глобальный и мультиязыковой поиск - на ноябрь 2007 года выпадающее меню расширенного поиска гугла содержало 44 языка! Теоретически, поиск на всех языках, которые представлены в списке, должен быть качественным. Достичь же этого на практике чрезвычайно сложно и поэтому над проблемой мультиязыкового поиска работают сотни гугловских инженеров и программистов. Стоит отметить, что на сегодняшний день поиск в русском сегменте от гугла настолько превосходен, что многие приходят к выводу, что Яндекс уже оставлен позади и еще чуть-чуть и гугл завоюет российское поисковое пространство на все сто. Однако, как бы то ни было (кто его знает, кто еще кого победит!) трафик с Яндекса на русскоязычные сайты будет еще долго приходить весьма в больших объемах и стараться попадать в топ Яндекса ой как необходимо. 

Поэтому, за дело! 

Что необходимо для того, что бы сайт получал трафик с Яндекса. 

Первое, что стоит осуществить для того, что бы Яндекс заметил ваш сайт, так это отправить заявку на его индексацию. Сделать это очень просто - заходим по адресу http://webmaster.yandex.ru/ и добавляем свой url. Рано или поздно, бот придет, и ваши страницы обязательно попадут в индекс. 

Это первый способ, посредством которого можно достичь того, что бы ваш сайт подружился с Яндексом. Второй же, самый эффективный, способ - это входящие ссылки. Чем больше будут ссылаться на ваш сайт другие ресурсы, тем лучше. 


Яндекс ищет все, что написано на русском языке, т.к. является поисковиком по рунету и более глобальных планов, судя по всему, пока не имеет. Что из этого следует? Из этого следует - для того, что бы Ваш сайт попал в индекс Яндекса необходимо иметь русскоязычный контент. Разумеется, Яндекс индексирует не только русские тексты - в его индексной базе есть тексты на многих языках, но релевантность выдаваемой информации зиждется исключительно на русскоязычных запросах и поэтому индекс содержит в большинстве своем тексты на русском языке. Посему, чем больше на вашем сайте русскоязычного контента тем лучше. Контент - он, как говорится, превыше всего и тут уж сами решайте, что выкладывать на свой сайт. По этому поводу стоит заметить только вот что - широко распространенно мнение (оно никак документально не подтверждено, кстати) , что Яндекс отводит контенту второстепенную роль и в этом многие усматривают причину его отставания от Гугла. Считается, что попасть в топ Яндекса по определенному ключевому слову чаще всего удается не столько благодаря хорошо оптимизированному контенту, а сколько посредством удачного ссылочного ранжирования, т.е. на основании показателей тИЦ. Возможно это утверждение и имеет право на жизнь, как здоровая критика Яндекса за то, что он чьи-то сайты необоснованно понижает в выдаче.... Тут сказать что-либо наверняка нельзя, т.к. (и это очевидно) инженеры работающие на благо Яндекса прекрасно понимают значимость качественного контента и посему уж никак не станут отводить ему вторые роли. В настоящее время Яндекс настолько динамично изменяет свои алгоритмы ранжирования, что говорить о каких-то "законах по которым ищет Яндекс" уж никак не стоит - апдэйты следуют за апдейтами и оптимизаторы пребывают в тихом ужасе. Ясно одно - на данном этапе развития поисковых технологий, наличие качественного контента является (и будет являться) тем фактором, который в самую первую очередь будет влияет на положении того или иного сайта в выдаче. Сделаем небольшой вывод: оптимизациия контента по ключевым словам и получение хороших входящих ссылок на свой ресурс - это путь в топ Яндекса. 

Теперь о каталоге Яндекса. У Яндекса есть свой каталог сайтов и его объем весьма впечатляет. Наличие вашего сайта в этом каталоге очень сильно повлияет на позиции вашего ресурса в выдаче. Именно поэтому многие оптимизаторы и стремятся к тому, что бы сайт оказался в яндексовском каталоге. Яндекс, в свою очередь, предлагает два способа регистрации - платный и бесплатный. Бесплатный - это когда ваша заявка рассматривается администрацией в течении неопределенного времени. Ждать можно очень долго и не факт, что сайт окажется в каталоге. Платная регистрация представляется более выгодным способом - Яндекс гарантирует рассмотрение вопроса о принятии вашего сайта в каталог на протяжении одного рабочего дня. Вся дополнительная информация по этому вопросу представлена тут: http://advertising.yandex.ru/catalog.xml 

Каталог содержит только русскоязычные сайты. 

В заключении статьи следует отметить тот факт, что по данным alexa.com (очень полезный сервис, с помощью которого можно проследить динамику развития того или иного сайта) Яндекс неуклонно идет в гору и повышает свои позиции не только по посещаемости, но и по продолжительности нахождения пользователей на своих страницах. Тем не менее, основной конкурент Яндекса Гугл, завоевывает русский сегмент сети настолько быстро, что есть основания полагать, что Яндексу уготована та же участь что и Рамблеру - ведь раньше в рунете господствовал именно он! Активное вторжение Яндекса привело к тому, что Рамблер очень быстро утратил своих прежних пользователей и скатился на более низкие позиции посещаемости. Вполне возможно, что та же участь уготована и Яндексу - Гугл ведет себя намного целенаправленней и качество поиска в его индексной базе, на данный момент, более релевантно. 

Принципы работы Rambler

В данной статье мы немного поговорим о Рамблере - этот поисковик, в свое время, являлся, чуть ли не единственным, источником качественного ру-трафа. Сейчас же, как вы и сами, наверное, знаете - Рамблер уж никак нельзя назвать лидирующей поисковой машиной, т.к. свои позиции он уже давно сдал Яндексу (причем, практически, без боя). Но для начала - небольшое отступление (оно тоже в тему!) - пишется же оно для того, что б у вас сложилось представление о позиции автора относительно сложившегося положения вещей с поисковиками рунета. 

По нашему скромному мнению, Яндекс ожидает та же судьба, что в свое время постигла Рамблер. Ну а если говорить точнее, то это будет банальное оттеснение Яши на второй план. Извините за тафталогию, но конкуренция от Гугла вне конкуренции, и если Яндекс и дальше будет развиваться такими жалкими темпами, как сейчас, то увы... селяви. Чего только стоит дурацкий каталог Яндекса и шум вокруг того, что нахождение в нем - путь к успеху! Ведь всем известно, что от поисковика требуется одно - быстрая индексация ВСЕГО, что недавно появилось в сети, оперативное обновление уже имеющейся индексной базы и, конечно же, релевантная выдача (с учетом всего того, что расторопные боты недавно добавили в индекс). Констатируем факт - Яндекс в этом отношении - тугодум. 

Считаем, что самым классным поисковиком по рунету в настоящий момент является американский Гугл - Яндекс же жирует только за счет того, что люди используют его по привычке. Наблюдения показывают, что Яндекс предлагает своим пользователям неизменное положение вещей в топ-выдаче и, как следствие, устаревший контент от Яндекса заставляет задуматься над тем, что бы поскорее набрать в строке адреса заветное google.com. Несмотря на вышесказанное, убежден, что трафик оттуда (из Яндекса) еще долгое время будет поступать весьма объемными порциями. Только, к сожалению, не для всех - он будет у тех, кого "любит" Яндекс. Может, кто ни будь пояснит, что подразумевает под собой термин "любовь" в данном контексте? Может это что-то сродни кибер-сексу? Ну его нафиг, ребята! :-) 

Теперь же займемся Рамблером. Немного истории: 

Истоки Рамблера лежат, как не трудно догадаться, в начале 90-х годов. Создали поисковую систему следующие люди (страна должна знать поименно своих героев!): Дмитрий Крюков, Сергей Лысаков, Виктор Воронков, Владимир Самойлов и Юрий Ершов. Все они, так или иначе, были связаны с подмосковным городком Пущино - в нем располагается рекордное количество НИИ. 1996 год окончательно сформировал все то, что впоследствии стало очень популярным поисковиком. 

Название Рамблер (rambler (англ.) - бродяга) - очень хорошее название! Ведь оно как нельзя лучше подходит для поисковой системы, которая обязана именно бродить (и бродить, как можно больше!). Домен rambler.ru был зарегистрирован 26 сентября 1996 года, а сама система стартовала уже через две недели - 8 октября. Спустя непродолжительное время, тогда еще немногочисленные пользователи Интернета, были свидетелями появления важного новшества (оно, кстати сказать, до сих пор является "коронным финтом" Рамблера) - в 1997 году был реализован Rambler's Top100. На то время, этот алгоритм оценки полезности сайтов, был единственным средством классификации ресурсов по рейтинговой шкале. Напомним, что яндексовский тИЦ появился значительно позднее, а именно - в 1999 году. Rambler.ru, на какое-то время стал очень популярной поисковой системой и использовался он для поиска полезной информации намного чаще, чем амбициозный Яндекс. 

Что же привело к тому, что Рамблер, к середине 2002 года, начал постепенно терять своих приверженцев? Может это произошло потому, что разработчики реализовали неудачные маркетинговые схемы для продвижения своих проектов (love.rambler.ru, mail.rambler.ru и т.д.)? Может, повлияла нехватка средств? А может просто - отсутствие энтузиазма в команде Рамблера заниматься своим делом вызвала такой спад? Черт его знает! Пусть другие отвечают на этот вопрос - может кто-то когда-то и напишет статью под названием "причины, по которым сервисы Рамблера стали отставать от сервисов Яндекса"? Мы же этим заниматься не станем - зачем? Работаем только с фактами, а факты таковы - на сегодняшний день показатели alexa.com (проверьте сами!) свидетельствуют о неуклонном падении популярности Рамблера и этот спад идет уже не первый год (как, впрочем, и не второй и не третий...). Да что там Аlexa.com! Трафик с Рамблера - вот главный показатель. У вас есть хороший трафик с Рамблера? :-) 

Теперь немного о приятном. Несмотря на то, что Рамблер дает мизерный трафик и несмотря на то, что он отстает от Яндекста - Рамблер есть Рамблер. Он существует и им пользуются. В рамблеровскую поисковую форму каждый день вбивается не так то и мало поисковых запросов! А знаете ли вы о том, что существуют фанаты Рамблера? Да, да - они есть! Эти пользователи копаются в сети исключительно Рамблеровским поисковиком! А если, честно, то уже даже тот факт, что многие имеют почтовый ящик на rambler.ru создает массу предпосылок для того, что бы начать оптимизировать свои сайты под алгоритм Рамблера - ведь интерфейс ящика и поисковая форма соседствуют друг с другом... Вроде логично... Короче говоря, полностью не учитывать потенциал Рамблера при поисковой оптимизации ресурса - недальновидно. Необходимо, зная о том, как примерно устроен поисковой алгоритм Рамблера, стараться подгонять под него контент, внешние ссылки, дизайн и прочие компоненты сайта - это верная стратегия и она, безусловно, будет выигрышной. Целевые же посетители с любого поисковика, даже в небольших количествах, это то, к чему следует стремиться при раскрутке ресурса. 

Небольшой квест. 

Что же известно про поисковой алгоритм Рамблера? Каковы, заложенные в его основу, принципы ранжирования ресурсов? Есть ли какие-то отличия в поведении рамблеровских индексирующих ботов в зависимости от возраста сайта или размера индексируемого контента? Именно эти вопросы, (список весьма неполный :-), надо разрешить для того, что б получать качественный траф с Рамблера. Вот что мы можем сказать по этому поводу: Во-первых. Как и все поисковики, Рамблер держит за семью печатями информацию о том, как же на самом деле устроена его выдача - т.е. базовые принципы вы никогда не узнаете, даже если несколько месяцев потратите на изучение той ветки searchingines.ru, которая посвящена Рамблеру, Апорту, Вебальте и т.д. 

И так понятно - ноу-хау оно и в Африке ноу-хау. 

Во-вторых, то, что известно про оптимизацию под Рамблер, чаще всего носит теоретический характер. Информация на самом деле есть, но поскольку все концентрируют практические усилия на оптимизации сайтов под Яндекс, то ширина информационного поля касательно Рамблера, несоизмеримо уже. Очень много домыслов, субъективных впечатлений, а также велик процент совершенно противоположных утверждений. Как уже было сказано, Рамблер весьма большое значение придает своей рейтинговой шкале носящей название Rambler's Top100. Поэтому, не будет лишним зарегистрировать свой сайт в этой хитрой штуке. Что это даст? Сразу скажем - пользы от топ100 не так то и много, но она все же есть. Дела обстоят так - если вы думаете, что Rambler's Top100 на что-то сильно влияет, то очень глубоко заблуждаетесь. Единственное что произойдет, так это то, что если на морде будет стоять рамблеровский значок, то сайт будет быстрее проиндексирован. И это, к сожалению, все. Практический пример - если вы поэкспериментируете с Рамблером, то сайты включенные в Топ 100 не так то и хорошо ранжируются - где-то 70% топовых сайтов вообще не связаны с Rambler's Top100... Это субъективное утверждение и его всегда можно оспорить на нашем форуме - поэтому, велкам поспорить. 

Рамблер - русскоязычный поисковик, поэтому доменная зона .ru для него более приоритетна. Бот (идентификатор - StackRambler) весьма лениво индексирует международные зоны. В этом очень легко убедиться, если некоторое время заниматься мониторингом своих проектов прогоняя киворды через Рамблер. Вообще, скоростными индексациями Рамблер похвастаться не может - в этом отношении все настолько запущено, что впору кричать "Ахтунг!". Рамблер хорошо распознает любой контент - это факт. Динамический контент, например, кушается нормально, равно как и PDF-документы. Кстати, можно часто услышать жалобы на то, что мол "поисковик не индексирует мои PDFы" (речь не про Рамблер, а вообщее - про все поисковики). Если PDF текстовый - то все будет проиндексировано и быть такого не может, что б бот проигнорировал такое блюдо. 

Флэш-сайты Рамблер находит то ж хорошо - эксперименты показывают, что если даже нет html-версии созданной для бота, то ресурс все равно попадает в индекс и его, худо бедно, да ранжируют. Несмотря на это, если у вас флэшовый сайт, не поленитесь сделать html-версию - не помешает! Сейчас Рамблер полностью отказался от учета мета-тегов. К примеру, как показывают наблюдения, Гугл учитывает (!) мета-теги и если они составлены грамотно, то description попадает в снипет. Но с гуглом ситуация другая - ведь вышеназванные теги повлияют на выдачу, только после того, как страница пройдет т-а-а-а-акие фильтры (http://seoweb-master.blogspot.com/Articles/ Promoution/google-gspam-filter.php), что ого-го! Исключением для Рамблера является meta robots - желательно оформить этот тег подобающим образом! Рамблер великолепно реагирует на расположение ключевиков - title, заголовки h1-h4, b, strong. Все это учитывается и настоятельно рекомендуется проводить оптимизацию именно по этим параметрам. Разумеется, плотность ключевых слов - важная составляющая подгонки сайта под алгоритм Рамблера. Тут действует стандартное правило - не менее 8%. 

Бытует мнение, что Рамблер не очень любит большие документы, и все что больше 200 килобайт в индекс не попадает. На наш взгляд - это не правда. Вполне возможно, что информация просто устарела - на сегодняшний день, большие куски текста индексируются Рамблером на ура. Да и сами посудите - 2008 год, контент рулит во всю, а тут такие ограничения! Не сомневайтесь - Рамблер индексирует объемный контент. Рамблер большое значение придает тематике ресурса - по всей видимости алгоритм построен на заполнении пробелов в тематических нишах. Узко-тематические сайты пользуются большим уважением - Рамблер всегда выдает их в топ. 

Огромным минусом Рамблера является отсутствие гео-таргетинга в результатах поиска. Для сравнения Яндекс. Если вы находитесь, скажем, на Украине, то российские товары для вас не имеют актуальности - Яндекс это хорошо понимает и предлагает поискать по украинским сайтам - удобно? Удобно. Рамблер же вообще игнорирует такую полезную компоненту поиска, как привязка к географии пользователя. На наш взгляд, это очень большое упущение разработчиков. Следствием этого промаха является недополучение посетителей, а также отсутствие интереса к поисковику со стороны не российских оптимизаторов использующих потенциал рунета для своих проектов. 

Теперь о морфологических формах на основании которых ищет Рамблер. Морфологический словарь там бесспорно присутствует, но качеством не блещет. Для того, что бы найти что-то конкретное, зачастую приходится составлять очень точный запрос. Гугл с Яндексом ищут намного эффективней и проявляют завидный интеллект в этом плане. Кстати, относительно морфологических словарей, которые используют поисковики! seoweb-master.blogspot.com в скором времени опубликует ряд статей посвященных именно этой теме - будем надеяться, что ждать они себя долго не заставят. В этом же материале не будем заострять свое внимание на морфологии - следите за обновлениями нашего сайта! 

Все говорят, что большое количество ссылающихся сайтов - это тот показатель, который указывает поисковику на то, что ресурс важен и полезен людям. С Рамблером ситуация очень неоднозначна. Да, ссылки он любит и чем больше ссылаются на вас, тем приятней от этого Рамблеру. Но есть парадокс - иногда Рамблер совершенно не обращает внимания на ссылочное ранжирование, т.е. действует выборочно. Может это происходит по той причине, что алгоритм поисковика имеет какие-то глюки? На одной из веток searchengines.ru эта проблема обсуждалась - если интересно, то вы без труда ее там найдете. 

Небольшой вывод. 

Для того, что бы Рамблер стал приносить уников, необходимо:
- добавить сайт в Rambler's Top100 - это даст ускорение индексации, но, к сожалению, никак не скажется топовых показателях. Увы - это факт.
- пичкать сайт контентом (ничего нового - с другими поисковиками дела обстоят так же),
- создавать хорошо оформленные тексты - в них должны быть выделены заголовки и ключевые слова (гугля, например, придает этому очень маленькое значение - у нее своя метода и она намного более эффективна нежели Рамблеровский подход),
- постоянно следовать выбранной тематике при продвижении ресурса, не допускать брутальной разноплановости в контентном наполнении. Рамблер обожает сайты про "что-то" и не очень любит вебдванольный подход к сегрегации различной информации в одном месте.
- заниматься планомерным SEO и совершенно не обращать на Рамблер внимания. Он в игнор - мы в игнор. Рамблер очень медленный поисковик - если сразу он вас не заметил, то возможно через год... - в общем, тут и так все ясно.
Как сказал один человек - "Рамблер любит бездействие". Стратегия должна быть такой - совершить все необходимые действия по оптимизации для Рамблера и забыть на какое-то время о его существовании. Посетители будут, но не скоро...

Принципы работы Yahoo

Поисковая система Yahoo! в настоящее время занимает второе место по количеству обработки поисковых запросов в мире. Если покопаться в сети, то можно найти приблизительно такую статистику:
- 22 - 23% всех поисковых запросов по США;
- 13 - 14% общемировых запросов
Бесспорно, первенство в поисковой индустрии принадлежит Гуглу - третье же место стабильно удерживает MSN (этот поисковик не так-то и сильно отстает от Yahoo! по своим показателям). 

Из вышесказанного можно сделать вывод приблизительно следующего содержания - комплексная оптимизация любого веб-сайта под вышеназванные три поисковые машины даст несравненно больший приток трафика по сравнению с тем, который сайт будет получать, если основное внимание сконцентрировать на его заточку только под гугловские алгоритмы. 

Поэтому не забываем про Yahoo! и MSN - оттуда тоже можно получать посетителей! Ну а в данной статье мы поговорим исключительно про Yahoo! - сначала, конечно же, немного истории (как оно все начиналось), а затем уже начнем просвещать относительно того, что же необходимо делать для улучшения показателей в выдаче. 

Для начала надо понять, что Yahoo! - это живой поисковик, который в настоящее время переживает период весьма бурного развития. Более того, с 1 февраля 2008 года корпорация Майкрософт ведет переговоры с Yahoo! о покупке контрольного пакета акций. Что из этого выйдет пока не ясно, но уже с уверенностью можно предположить, что грядут великие перемены. 


История же Yahoo! берет свое начало в середине 90-х годов XX века. Все началось с каталога сайтов, который назывался так - "Путеводитель Джерри по Всемирной Паутине". 
Старт проекту положили два американских студента - Дэвид Фило (англ. David Filo) и Джерри Янг (англ. Jerry Yang). Уже в 1995 году ими была основана корпорация, которая стала известна на весь мир - Yahoo! 
Как известно, Yahoo! это не только поисковая система, а еще и колоссальное количество полезных сервисов, которыми реально пользуются. Например, самые популярные сервисы от Yahoo это: почтовая служба (yahoo mail), Yahoo! Games, Yahoo! Groups и Yahoo! Messenger. Разумеется, не стоит забывать и о мега-полезном сервисе www.flickr.com, который с 2005 года тоже перешел в собственность Yahoo! - в настоящее время гугловская Picasa по некоторым параметрам не на шутку стала отставать от flickr. Веб-два-нольные примочки, дружественный интерфейс, постоянная интеграция в новые интернет-проекты - все это Yahoo! 

Но давайте займемся поисковиком. Напомним, что до 2004 года Yahoo! использовала поисковой алгоритм Гугла и оптимизация сайтов под Yahoo! ничем не отличалась от оптимизации под Гугл. 18 февраля 2004 года Yahoo! прекращает использование поисковой технологии Google и переходит на свою собственную - в настоящее время алгоритмы Yahoo! успешно конкурируют с Гугловскими и некоторые эксперты полагают, что качество поиска у Yahoo! заметно выигрывает. 

Поскольку все познается на практике, то мы рекомендуем вам самим поэкспериментировать - вбейте что-нибудь в Yahoo! и сохраните выдачу. Потом сделайте тоже с гуглом - введите тот же запрос и затем сравните результаты. Вы увидите, что выдача от Yahoo! весьма и весьма хороша - у Yahoo! тоже рулит контент и в этом отношении можно смело утверждать, что грамотно наполняя свой сайт тематическим контентом мы получаем плюс от Yahoo и попадаем в топ. 

Ну а теперь о специфических особенностях системы.
- Если долгое время пользоваться поиском от Yahoo!, то можно заметить, что на свежесть контента поисковик обращает не такое большое внимание как Гугля. Старые страницы, допустим, двух-годичной давности прочно закрепляются в топе и потревожить их покой чрезвычайно сложно. Этот фактор можно рассматривать, как позитив и как негатив одновременно (как говорится, - для кого как). Однажды, попав в топ Yahoo! слететь с него будет намного сложнее, чем с гугловского - это факт. Поисковой алгоритм от Yahoo! менее чувствителен к возрастным составляющим и забывать об этом не стоит. 

- Yahoo! (впрочем, как и все поисковики) очень любит ссылки. Но и тут есть небольшой нюанс - в отличии, от гугловского алгоритма, Yahoo! не обращает (или же - почти не обращает) внимание на тематичность ссылающегося ресурса. Замечено, что ссылки с якорями, которые уж никак не соответствуют тематике сайта, хорошо воспринимаются поисковиком. Возможно, это и минус, который сказывается на частичной нерелевантности выдачи, но это и плюс - продвинуть сайт с помощью покупных ссылок в Yahoo! намного проще, чем в Гугле. Не забывайте о том, что оптимизируя свой ресурс с помощью ссылок под Yahoo!, вы можете попасть в бан к Гугле - как видите, палка о двух концах в данном случае работает на Yahoo!, т.к. выдача у них не так заспамлена именно по той причине, что оптимизаторы побаиваются гугловского пеналти. Чем не вариант? 

- Yahoo! не обращает внимания на внутренне ссылки. Речь в данном случае идет не о том, что "не обращает вообще" - просто на позицию сайта в серпе это не отражается. В этом плане очень контрастен пример с Гуглом - ссылки с морды сайта имеющего Page Rank = 4 на какую-то внутреннюю страницу с нулевым PR повышает ее видимость поисковиком. Что из этого следует? Грамотную внутреннюю перелинковку сайта в случае с Yahoo! необходимо делать только для того, что бы индексирующие яху-боты могли слизать как можно больше контента за один раз - положение же страниц в самом поисковике от этого зависеть не будет. 

- Для вывода страницы в Яху-топ, необходимо хорошо попотеть над заточкой контента под ключевые слова. Что это значит? Замечено, что Yahoo! отличается большой требовательностью к частоте ключевых слов, чем Гугл. Если для последнего достаточно 2 - 3%, то Yahoo! требует от 6 до 8% кивордов на страницу. Из этого делаем вывод - оптимизируя что-то под Yahoo! не стоит забывать о том, что Google оснащен весьма чувствительными анти-спам фильтрами, которые могут воспринять как спам ваши праведные усилия в оптимизации по ключевым словам. Ищите золотую середину - 6 - 8% ключевиков кушается гуглом весьма хорошо, но все что зашкаливает за 10-ти процентный рубеж уже создает элемент риска. Что бы набраться опыта в оптимизации своего сайта под Yahoo! рекомендуется сравнить топовые выдачи по вашей тематике в Yahoo! и Гугле одновременно - это очень поможет определиться с тем, какое количество ключевиком оптимально для обоих поисковых систем. Помните, что ничего не стоит на месте и алгоритмы постоянно усовершенствуются - то что вчера пахло баном, сегодня может оказаться вполне рабочим вариантом, а недавний белый метод раскрутки, по непонятной причине уже на следующее утро может окраситься в темно-серый цвет. 

- Yahoo! не такой быстрый поисковик как Гугля, т.к. индексирующего бота ждать приходится несколько дольше. Тем не менее, Yahoo! индексирует все качественно - бот сканирует сайт целиком и никогда не пропускает страницы, которые подверглись даже незначительному апдэйту. Это замечено многими веб-мастерами - считается, что Гугл в данном случае несколько уступает Yahoo! и, несмотря на всем известную "любовь к свежему контенту" зачастую забывает его искать на старых страницах.
В заключении необходимо отметить следующую аксиому. 

Оптимизировать сайт под Yahoo!, если вы собираетесь его продвигать в рунете нет никакого смысла - это фатк. Рунет Yahoo! не пользует и, по всей видимости, ситуация тут останется неизменной (тем не менее, Yahoo! ищет кириллические тексты!). Под Yahoo! следует затачивать англоязычные проекты - если все делать грамотно, то уникальные посетители с этого поисковика не заставят себе ждать. Приблизительное соотношение с гуглей будет такое - Yahoo! = 10-30 уников, Google = 100-120 


Принципы работы MSN

Как известно, MSN - третий по посещаемости портал в Интернете. Не много не мало. Из этого можно сделать приблизительно такой вывод - оптимизация сайтов под поисковик прикрученный к этой системе, дело весьма полезное. И это факт. Если вы хотите в полной мере использовать потенциал своего сайта и зарабатывать на трафике, то оптимизировать страницы придется под все мэйнстримовые поисковики сразу - и под Yahoo!, и под MSN (про гуглю речь вообще не заводим - и так понятно). 
Про алгоритм Yahoo! мы уже писали - настало время немного покопаться и в Майкрасофтовской машине. 

Для начала немного общих сведений - они необходимы для того, что б у вас появилась оптимизаторская прыть. 

MSN расшифровывается как Microsoft Network. По своей сути, MSN это ни что иное, как домашняя страница Microsoft - если помните, по умолчанию (как только ставится винда) Эксплорер грузит именно страницу msn.com. 
В этом у Майкрософта большое преимущество над всеми другими поисковиками - людей пользующихся Windows несравненно больше, чем юзверей оснащенных другой операционкой. По последним официальным данным (начало 2008 года) на сервисы и службы от MSN подписано более 9-ти миллионов пользователей. Поисковая же машина MSN владеет более чем тремя процентами всего поискового рынка. 

Что необходимо для того, что бы попасть в индекс к MSN? 

В принципе, все что необходимо - это ключевые слова, входящие ссылки и рабочий сервер на котором висит ваш сайт. MSN, как и все другие поисковики работает по принципу - "проиндексировалось, профильтровалось, выдано". Индексная база формируется на основании данных полученных от поисковых роботов, которые-то и блуждают в сети в поисках свежего контента. Найдя нечто такое, что, по их мнению, является свежим, боты незамедлительно передают эти данные на сервер. Информация, поступившая на главный компьютер, заносится в индексную базу и начинает обрабатываться. На сервере MSN постоянно запущен алгоритм, который определяет более релевантное содержание из индексной базы относительно наших поисковых запросов и, таким образом, то, что было отсортировано, попадает в выдачу - более релевантные страницы лезут в топ, менее релевантные - сидят этажом ниже. 
Как видите - все просто. 

Теперь о том, что же необходимо делать для того, что б сайт неизменно сидел в топовых выдачах по необходимым запросам. 

Как и у всякой другой поисковой системы, использующей собственноручно разработанный уникальный алгоритм ранжирования, у MSN имеются особенности, которые присущи только ей. Их то мы и рассмотрим.
- MSN мало внимания уделяет возрасту сайта. Никаких "песочниц" и прочих возрастных фильтров там нет. Все что индексируется, попадает в выдачу железно и это проверенно уже 1000 раз. 

- MSN любит ссылки, но в отличие от Yahoo! не особо обращает внимание на их количество. Конечно, чем больше ссылок тем лучше, но слабо-ранжирующиеся сайты, которые ссылаются на вас, дадут очень маленький эффект. А как определить, какой сайт для MSN имеет вес, а какой нет, - спросите вы - ведь у MSN не существует алгоритма Page Rank, Trust Rank или Тиц? Несмотря на то, что вопрос предельно прост, ответить на него сложновато. Наверное, ответ может выглядеть так - определите, по какому ключевому слову этот сайт продвигается, затем введите это слово в поисковую форму MSN и посмотрите выдачу. Если сайт присутствует в топе, значит вес у него есть, а если нет - то... и Бог с ним! Короче говоря - для MSN важно не количество ссылок, а их качество. 

- Тематика ссылающегося сайта тоже имеет важное значение. Ссылки с тематических сайтов намного более полезны, чем ссылки с левых ресурсов. 

- Плотность ключевых слов - важнейшей фактор, который непосредственно влияет на выдачу MSN. Специалисты утверждают, что 3,5 - 4% ключевиков вполне достаточно, что бы попасть в топ. Как видите, в данном случае MSN мало чем отличается от Гугла. Кстати, не забывайте, что при продвижении ресурса в Yahoo! необходимо увеличить количество кеев до 7 - 8%. 

- Так же как и большинство поисковиков, MSN уделяет внимание заголовкам (например, H1) и прочим элементам форматирования. Более того - MSN придает им значение немалое и этим отличается от Гугла, который с этим делом хоть и заморачивается, но не то что бы очень. Вывод - хорошо отформатированный текст с выделенными ключевиками есть прямой путь в MSN-топ. 

- Внутренняя структура сайта должна быть основана на текстовых ссылках - это надо всегда помнить, когда продвигаешь ресурс в MSN. Несмотря на то, что все поисковики любят что бы в наличии имелись карта сайта и прочие навигационные приборы созданные для поисковых ботов, без этих штук зачастую можно и обойтись, если ресурс продвигается, скажем в Гугле. С MSN дела обстоят посложней - этот поисковик очень любит хорошую перелинковку и если где-то что-то не так, то надолго забывает о непроиндексированном контенте. В этом заключается большой минус поисковой машнины MSN. 

- MSN очень любит многостраничные сайты на которых имеется вдоволь контента. Одностраничники и мелкие сайты ранжируются намного ниже, чем жирные порталы. 

- MSN придает большое внимание тематической направленности ресурсов. Сайты наполненные разноплановым контентом ранжируются ниже. Поэтому, продвигать легче тот сайт, который посвящен какой-то определенной теме. 

- Несмотря на то, что сейчас повсеместно наблюдается тенденция отказа от использования мета-тегов (за ненадобностью) в случае с MSN забывать об этом источнике хорошего ранжирования не стоит. Например, MSN чрезвычайно ценит все то, что пишется в TITLE. Не забывайте ставить грамотные мета-теги!
В заключении заметим, что если ваш сайт находится в индексе MSN, но не занимает топовых позиций (по сравнению с конкурентами), то проведите сравнительный анализ. Например, проверьте бэк-линки и плотность ключевых слов. 


Принципы работы Meta.ua

Данная статья является небольшим обзором украинского поисковика и портала meta.ua - ничего нового и революционного тут вы не найдете. Просто собрали кое-какую информацию и объединили в статью. Ликбез полезен всегда. 

Итак. 

Поисковая система Meta.ua стартовала в 1998 году и, как это ни странно, изначальное место базирования серверов находилось в Харькове. Лишь в 2000 году Мета переехала в Киев - этому способствовал Интернет бум, который наблюдался в то время (доступный dial up и т.д.), а так же весьма выгодные предложения от инвесторов - харьковчане не смогли от них отказаться, даже не смотря на то, что проект убыточным не был изначально. 

На данный момент (середина 2008 года) акции компании принадлежат российской компании "Русские фонды" и американской корпорации Digital Sky Technologies. Доля украинского капитала присутствует тоже. 

Как известно, Meta.ua представляет собой не только поисковую машину - в первую очередь это портал - портал, на котором можно найти массу полезных сервисов и статичной информации. Например, это - каталог сайтов, почтовая служба, онлайн магазин, новости, погода, форум, гороскопы и проч. Портал, по своему функционалу, весьма схож с Yahoo - практически тот же набор. 

Для обычного пользователя Интернета (т.е. не для веб-мастера или сео-специалиста) система интересна, прежде всего, тем, что на одном сайте одновременно находится колоссальное количество разнотематических сервисов - на любой вкус, как говорится. 

Ну а, для нас с вами, Meta.ua будет полезна несколько другими возможностями. Нас интересует вопрос следующего содержания - как получать трафик с поисковика работающего на движке Meta.ua? Не так ли? 

Тут дела обстоят следующим образом. 

Владельцы портала не особо суетятся относительно усовершенствования своих поисковых алгоритмов - поисковые возможности системы весьма ограничены, что напрямую сказывается на качестве поиска. Иногда можно даже усомниться в оправданности поддержания самого проекта - вбиваешь поисковое слово в гугле, получаешь 5000 результатов, вбиваешь тот же киворд в Мету - получаешь шишь. Восклицание по типу, - "Она вообще ничего не находит!" может служить красочным дополнением к такому раскладу.... 
Тем не менее - это не такое уж и частое явление. Иногда, с помощью Meta.ua можно найти весьма ценную информацию. 

Поисковиком пользуются, прежде всего, посетители портала, а посещаемость у него весьма высока. Официальная статистика системы говорит о том, что активных пользователей у системы более чем 2 миллиона. 
А вот еще данные - МЕТА индексирует более 140 000 украинских сайтов, в каталоге содержатся описания более 100 000 украинских сайтов, а посетители портала задают более 7 000 000 запросов в месяц. 

Политика построения поисковой базы у Меты очень проста - предпочтение отдается сайтам, которые так или иначе связаны с Украиной. Есть один момент - тот факт, что сайт находится на международном домене, по идее не должен влиять на выдачу, но все же предпочтение отдается доменной зоне .ua, что является большим минусом системы. Впрочем, то же самое можно сказать и про Яндекс, который не индексирует колоссальное количество кириллического контента, размещенного, скажем, на блогерской платформе блогспот. Яндекс уверяет, что индексация сейчас производится, но факты говорят о том, что она носит всего лишь эпизодический характер. Та же ситуация и с Метой. 

"Поисковая система МЕТА предназначена для поиска по украинским интернет-ресурсам как на территории Украины, так и за ее пределами. Ресурс будет добавлен в поисковую базу в том случае, если он имеет региональное либо тематическое отношение к Украине" - это официальное заявление. 

В принципе, это все что касается построения индекса. Никаких ограничений в языковом плане не наблюдается. Сама же Мета имеет три языка интерфейса: Украинский, Русский и Английский. 

Главное достоинство Меты заключается в том, что у нее есть весьма большой каталог тематических ресурсов - если сайт присутствует в этом каталоге, то он обязательно попадает в серп. Из этого можно сделать простой вывод - нахождение ресурса в каталоге прямой путь в топ. В принципе, сайт добавляют в каталог без проблем - разумеется, если он отвечает вышеназванным требованиям. Ресурс, который так или иначе касается, допустим, украинского бизнеса или культуры будет добавлен в каталог однозначно. Зарегистрировать сайт можно по этому адресу 

Тем не менее, иногда бывают продолжительные задержки и сайты висят в ожидании модерации весьма долгое время. Если это произошло с вами, то рекомендуем (это неоднократно проверено) напомнить о своей заявке. Для этого имеется специальная опция в интерфейсе раздела "Добавить сайт". Модераторы начинают шевелиться. 

Кстати, не забывайте составлять красивое описание своего сайта и ставить релевантные теги (желательно побольше). Все это напрямую будет влиять на видимость вашего ресурса. 

Теперь несколько слов о том, как непосредственно ищет мета-поисковик. 

Мета.ua уделяет повышенное внимание мета-тегам и Title, H1 и т.д. Если гуглу вообще наплевать на то, что мы пишем в этих тегах, то Мета, напротив, все это хорошо читает и честно поставляет в снипеты. 
Минус ли это? Однозначно ответить сложно - спамеров злостно влияющих на выдачу Меты замечено не было... 

К сожалению, следует констатировать тот факт, что алгоритм ссылочного ранжирования у Меты находится на очень и очень низком уровне. Более того - не со всех сайтов учитываются ссылки. Допустим, если на вас ссылается сайт находящийся на домене .lv или .com, то выхлопа вообще никакого не будет. Информация эта не совсем проверена, но, во всяком случае, большинство оптимизаторов придерживаются именно такого мнения. Поэтому ссылками лучше всего обзаводиться из украинской доменной зоны - com.ua, .ua, .kiev.ua и т.д. 

В целом, оптимизация под Мету должна проводиться так же само, как и под другие поисковики - побольше ключевых слов, хорошие заголовки, свежий контент и т.д. Нового тут вряд ли что-то придумают. 
За эталон можно взять оптимизацию под Яндекс - на нашем сайте есть статья посвященная этому поисковику. Поэтому рекомендуем ознакомиться и с ней. Читать статью "Принципы работы Yandex" 

В заключении скажем так - Meta.ua не особо радует поисковой выдачей и до сего дня так и не понятно - будет ли производиться улучшения поискового алгоритма у этой системы. Время покажет.

Комментариев нет:

Отправить комментарий