Поделитесь информацией с Друзьями

суббота, 31 марта 2012 г.

продвижение сайта в интеренете (Теория)


Статьи о раскрутке сайта с описанием различных аспектов работы поисковиков, вообщем небольшой ликбез и набор позеных сведений о поисковиках и в собенности о принципах работы Google 

Использование заголовков

Правильное написание заголовков и их позиционирование на странице - еще один финт, который заслуживает пристального внимания со стороны веб-мастера. Поговорим о том, как их правильно писать. Во-первых, заголовок должен быть коротким и простым. Три слова - идеальный вариант. Не стоит злоупотреблять в его тексте непонятными словами, которые могут вызвать другой ассоциативный ряд у посетителя Вашего ресурса. Едем далее - чаще всего, человек не читает слово по буквам, а видит его как отдельный символ. Это происходит в силу его частой употребляемости, т.к. глаз привыкает к порядку букв и уже не выстраивает цепь, которая складывается в слово. Поэтому, сложные слова, которые являются не общеупотребляемыми и, следовательно, не воспринимаемые вышеописанным образом, лучше не использовать. Разумеется, очень многое зависит от контента сайта и, может статься, что необходимо употребить именно "трудное" слово - тут все в Ваших руках, но игнорировать простоту слов не стоит! 

Второй момент, который влияет на отношение посетителя к Вашему заголовку - это его завершенность или, наоборот, незавершенность. Человек любопытен и манипулировать этим качеством очень полезно! Незавершенный заголовок распаляет фантазию и создает побуждение кликнуть по ссылке, что бы глянуть, о чем же там все-таки речь? Например, незавершенными заголовками пестрят всевозможные ленты новостей, а некоторые фирмы, даже держат в своем штате людей, работа которых заключается в придумывании незавершенных заголовков, которые побуждали бы к клику. Поэтому, вооружаемся и этим средством заманивания! 

И еще вот что - есть такие штуки, как знаки препинания. Наличие правильно расставленных точек в Ваших заголовках - немаловажная деталь их привлекательности. Не должен смущать тот факт, что точка в конце заголовка, есть нарушение грамматики русского языка. Нарушаем это правило и получаем стабильный, статичный и умиротворяющий своей законченностью факт, который представлен в виде заголовка. Это хорошее средство для стимуляции кликов. Напротив, многоточия в законченных заголовках - вредное дело и лучше ими не баловаться, т.к. это создаст впечатление неуверенности и мешанины. Будьте внимательны, когда используете тире и двоеточия - эти знаки препинания требуют от посетителя включения ассоциативного мышления, которое может быть полезно, а может, наоборот - вывести его из равновесия, что не есть хорошо. Например, если ваша статья о пользе наркотиков, то заголовок, по типу "наркотики - полезны!" будет расценен разными людьми по-разному, а вот использование к такой статье заголовка в виде словосочетания "о пользе наркотиков" представляется более выгодным по той причине, что такая фраза побуждает узнать этот факт более подробно - получаем клик. 

Заголовок - это указание на объект поиска и если указание будет понято не так, то к объекту никто не придет. 

Использование мета-тэгов

Мета-теги - это специальные тэги языка HTML, предназначенные для того, что бы указывать на тематику той или иной веб-страницы. 

Мета-теги не отображаются браузером и не видны пользователю, но их присутствие в коде HTML призвано ориентировать поисковую машину, как бы, указывать ей - <эта страница об этом>. Давно известно, что вышеприведенное значение мета-теги утратили и поисковики, мягко выражаясь, обращают на них внимание только косвенно. Но, несмотря на это - мета тэги являются составной частью последней версии языка html и запрет на их использование никто не налагал.

Поэтому, грамотный html документ должен содержать грамотные мета-теги. Есть еще одна причина по которой желательно их использовать. Допустим, ваш документ не содержит тэга title. На результате поиска это, конечно, не скажется, но можно заиметь некоторый геморрой и вот в чем он будет заключаться - поисковик сам присвоит название вашему документу исходя из содержания контента страницы. Это не всегда выгодно. Поэтому, лучше дать релевантное описание вашей страницы в теэге title и поисковик, удостоверившись, что этот тэг не противоречит содержанию, поставит именно его при позиционировании в поисковике - а это уже большой плюс. 

Плюс потому, что это будет именно то, что имели ввиду Вы, ведь тэг содержит не отдельно взятое предложение из вашего контента, а осмысленный и броский заголовок. Относительно других важных мета-тегов (например, Meta description и Meta Keywords) ситуация выглядит подобным же образом, т.е. их использование не повредит. Meta Keywords - это тег, который содержит в себе ключевые слова с Вашего сайта. Наличие хорошо подобранных ключевых слов, которые соответствуют основному контенту сайта, представляет из себя еще одну гарантию того, что Ваш сайт будет адекватно расценен поисковым ботом, как соответствующий запросу. Суммируем сказанное - мета-теги никто не отменял и их использование не повредит, а только добавит плюсов. Использование разумно сделанных мета-тегов говорит о грамотности веб-мастера и является очком в его пользу. 

Внешние ссылки на сайт

О полезности входящих линков было сказано уже немало, но попытаемся дать небольшой вывод в виде совокупности способов, как и откуда их можно заиметь. 

Итак. Первое место, где целесообразно размещать линки на свой сайт - это гостевые книги. Можно использовать специальные программки, которые разместят ваш линк в множестве гостевух, можно и самому посканировать эту благодатную почву. Минус тут в том, что размещение бэк-линков в гостевых книгах стало очень популярным делом и современное положение вещей показывает, что они очень часто завалены всякой туфтой, типо виагры и т.п. Поэтому значение таких гостевых книг падает и они закрываются, а вместе с ними пропадают и линки в числе которых будут и Ваши. 

Но какое-то время они еще будут давать свой положительный эффект. Главное - это что б их проиндексировал поисковик, а там уже только время покажет, как долго ссылка с удаленной гостевухи будет считаться функциональной. 

Теперь о форумах. Что бы заиметь возможность постить на форуме, как известно, необходимо пройти регистрационную форму, а это сопряжено с тратой уймы времени. А для того, что бы бэк-линки имели свой эффект надо запостить их не в одном десятке форумов. Поэтому рекомендуется использовать специальные программы, которые автоматически заполнят необходимые поля. Рекомендуется воспользоваться Google Toolbar или же, что самое приемлемое - AI RoboForm. 

Разобраться, как это все работает не составит труда, т.к. в сети много подробных описаний, причем на русском языке. Проблема возникает в том, как найти форумы - нужно ведь как можно больше! Помочь в решении этой задачи может использование операторов, т.е. специальных значений, которые призваны отсеять или же наоборот включить те или иные страницы в результат поиска. 

Например, если Вы ищете форумы в определенной доменной зоне, то использование операторов site: и inurl: очень даже на руку. Выглядеть это может следующим образом: site:com inurl:memberlist. Это значит, что мы ищем в доменной зоне com сайты, в url которых есть слово memberlist. Короче говоря, не забываем, что поисковые системы допускают использование операторов, которые очень полезны при поиске. 

Потратьте время на то, что бы разобраться в их правильном использовании и сэкономите уйму времени при поиске форумов, которые дадут Вам дополнительный трафик. Следующее место, где можно размещать свои линки - это блоги. Тут уже постарайтесь по полной - блогов много и темы в них разные! Размещайте в них свои драгоценные линки, не стесняйтесь :). И на последок - не забываем про старые-добрые доски объявлений - с них ведь тоже можно поиметь трафик! 


Влияние исходящих ссылкок на позиции сайта



Ссылки с Вашего ресурса на какие либо другие сайты, принято называть исходящими ссылками. Про них то мы и поговорим в настоящей статье. Более того - попутно дадим рекомендации, по поводу того, как правильно ставить ссылки, что бы не загреметь в бан поисковых машин. 

Первым делом, развеем распространенный миф относительно исходящих ссылок, ибо многие начинающие оптимизаторы, прослышав про то, что идущие от них линки могут повлечь негативные последствия, всячески стремятся избегать ссылаться на хорошие сайты, что есть, по меньшей мере, неправильно. Часто, можно услышать утверждение приблизительно такого характера - "Исходящие ссылки на другие ресурсы - не есть хорошо". Причин для этого заявления, как выясняется, целых три:
1. Ссылаясь на кого-то, я создаю совершенно напрасную утечку Google PageRank (PR - алгоритм, посредством которого Гугл определяет ссылочную популярность ресурса); 

2. Ссылаясь на кого-то, я ослабляю позицию сайта в поисковой выдаче по ключевым словам; 

3. Ссылаясь на кого-то, я теряю посетителей свого сайта, т.к. по этим ссылкам уходят на другие ресурсы.
Как вариант борьбы с этими напастями, предлагаются советы, которые призваны обезопасить веб-мастера, например - такие:
1. Используйте JavaScript при создании блоков с исходящими ссылками (поисковики не работают с JavaScript и не видят того, что заключается в нем); 

2. Используйте "nofollow" (данным тегом можно закрыть индексирование какой-либо конкретной ссылки); 

3. Используйте "noindex" (при помощи этого мета-тега можно запретить индексирование всей страницы целиком); 

4. Составляйте файл robots.txt, таким образом, что бы в нем было указанно, что от индексации закрыты именно те страницы, которые содержат исходящие ссылки. 

5.Придавайте сссылкам такой вид, что б они выглядели, как обычный текст - этим Вы избежите оттока посетителей на другие ресурсы.
Вот, в принципе, и вся "наука" об исходящих ссылках. Теперь давайте разберемся - так ли страшен черт как его малюют? 

Если почитать правила для веб-мастеров от Гугла, а они доступны для всеобщего обозрения по следующему адресу, то нигде не будет сказано что-либо про утечку PR и про ослабление выдачи сайта по поисковым запросам за использование исходящих ссылок (обратите внимание на эту формулировку!). Ну а правила Гугла - это очень серьезный документ. 

Обратимся же к фактической стороне рассматриваемого нами вопроса! Итак. Оказывается, Гугл (как и все другие поисковики) совершенно лояльно относится к тем сайтам, которые ссылаются на тематически близкие им ресурсы. Сказать "лояльно относится" - не сказать ничего! Гугл ЛЮБИТ, когда сайт имеет хорошие исходящие ссылки! Если Ваш сайт ссылается на авторитетный сайт, который Гуглом расценивается как ресурс, заслуживающий доверия, то можете быть уверенны в том, что никаких проблем у Вас не возникнет - ни с утечкой PR, ни с выдачей по поисковым запросам. Ну а весь сыр-бор с вредностью для сайта исходящих ссылок, происходит исключительно по той причине, что существует такое явления, как Черное СЕО. Черные сео-технологии (если объяснять на пальцах) базируются на злоупотреблении линкованием, а так же на использовании повышенной плотности ключевых слов на странице. Дабы не углубляться в дебри СЕО, отправим Вас к другим справочным материалам http://seoweb-master.blogspot.com/ - в них подробно рассмотрены технологии черного СЕО и, в частности, те аспекты, которые касаются злоупотребления ссылками для быстрой раскрутки ресурса. Здесь же только заметим, что один из методов, который практикуется черными сеошниками, называется Дорвеестроение. Дорвей же, в одном из своих проявлений, может быть представлен в виде, т.н. линкопомойки, которая, есть не что иное, как страница наполненная чрезмерным количеством исходящих ссылок. Именно дорвеестроение, во многом, послужило причиной, которая заставила поисковые системы (с Гуглом во главе) заняться внедрением различных фильтров, которые идентифицировали бы те сайты, которые занимаются раскруткой с помощью черного Сео. 

Из вышесказанного можно сделать вывод, что исходящие линки со страницы Вашего сайта, будут совершенно нормально восприняты поисковой системой, но при одном условии - если их не будет чрезмерно много, как это практикуется дорвейщиками. Сколько же должно быть ссылок, что бы страница Вашего сайта, не попала под идентификатор "дорвей"? Опять же - обратимся к справочному центру Гугла. Там четко сказано: "Keep the links on a given page to a reasonable number (fewer than 100)"(Не размещайте на одной странице слишком много (более 100) ссылок). Получается, что число ссылок более чем 100, может быть расценено, как спам. Видите, дело проясняется и все становится на свои места, т.е. старайтесь не переборщить и все будет в ажуре! Вы воскликните - да разве буду я ставить столько ссылок, зачем это надо?! Но тут дела обстоят несколько хитрее - после того, как вы освоитесь с сайтостроением и поймете, что с помощью своего сайта можно заработать не такие уж и скромные денежки, то первое что Вас соблазнит, будет именно торговля рекламными площадками на своем сайте! Для этого необходимо не так-то и много - более и менее раскрученный сайт (скажем с PR=3) и рабочий аккаунт в одной из бирж ссылок (или аккаунты в нескольких). После этого, начнется всем известная песня - а размещу ка я не 5, а 20 ссылок со страницы, а может сразу 50? Ну и т.д. Поэтому помните, что при такой жажде к наживе, можно действительно попасть в бан к Гуглу (в лучшем случае - добиться пессимизации). Не забывайте совет - ссылок со страниц на левые сайты, которые никак не соотносятся с Вашим проектом, должно быть как можно меньше. Оптимальное число - 5 ссылок. Размещение же ссылок на близкие по тематике ресурсы - дело благородное и всем необходимое. Ваш сайт - это прежде всего информация и только потом уже начинаются продажи и коммерческие предложения. Да, и еще вот что. Биржи ссылок - явление новое (во всяком случае большинство из них стартовали после 2005 года). То, что они дают возможность заработать очень многим веб-мастерам - реальный факт. Но сейчас часто можно услышать, что поисковые системы, вот-вот начнут закручивать гайки, т.е. постараются прекратить столь широко распространенную методу по раскрутке сайтов путем платного проставления линков через биржи. Внимательно следите за последними сео-событиями! :-) 

В заключении коснемся еще одного аспекта - размещение исходящих ссылок на сайты, которые умудрились заработать плохую репутацию. Старайтесь избегать ссылаться на такие ресурсы - даже если забаненные сайты имеют схожую с Вами тематику. Прежде чем поставить ссылку, проверьте - какой Page Rank у этих ресурсов? Если PR равен 0, то лучше воздержитесь от размещения ссылки. А в чем проблема? - спросите Вы. А проблема в том, что в сети не так уж и мало ресурсов, которые попали в черный список Гугла из-за раскрутки незаконными методами - ссылаясь на эти сайты, Вы можете растерять весь тот запас Page Rank, который имеется в Вашем распоряжении, что равносильно потраченному в пустую времени. Не забывайте об осторожности - она не помешает! 

Теперь же небольшой вывод. Исходящие ссылки, есть не что иное, как движущая сила сетевой активности - Вы ставите ссылку, ссылку ставят на Вас и, таким образом, все довольны. Посетитель рад, что нашел требующийся ресурс - Вы довольны, что получили посетителя. Исходящие ссылки ставить не только можно, но и нужно - просто делать это надо с умом. Делайте это так, что бы поисковая машина не посчитала, что Вы пытаетесь влиять незаконными методами на точность ее выдачи. Вот, собственно говоря, и все. 

принципы правильного построения блога

Использование сплогов

В этой статье мы поговорим о сплогах - что это такое, зачем они нужны и как правильно их делать. 

Публикаций на эту тему не так уж мало - сплого-строительство и монетизация трафика посредством сплогов сейчас весьма актуальная тема и теоретического материала - хоть отбавляй. Но, к сожалению, статей, написанных практиками, которые показывали бы на примерах, как работают сети состоящии из сплогов, весьма мало - поэтому, сразу отметим, что материал, который представлен Вашему вниманию возник на основании постов незабвенного Давыдова (http://davydov.blogspot.com) и Бомжа (http://homelessin.blogspot.com), коим http://seoweb-master.blogspot.com/ выражает признательность и желает, что б трафик на их ресурсы поступал прямо пропорционально вкладу в дело просвящения народа. 

Начнем, пожалуй с классического определения - сплог, это... и т.д. 

Под сплогом, принято понимать спам-блог, который создается для того, что бы собирать поступающий трафик и перенаправлять его в некое другое место - на другой сплог или же на сайт. Существует еще и другая трактовка предназначения сплога - сплог создается для того, что бы, прямо на месте, собирать клики по рекламе, которая на нем вывешенна. Сам термин, являясь неологизмом от выражения спам блог, вошел во всеобщее обращение во второй половине 2005 года - технология же генерации трафика посредством сплогов, восходит к линклогам, с помощью которых, одно время, пытались влиять на выдачу поисковых систем. 

Теоретически, технология сплого-строения проста. Создается, например, 15 блогов, которые наполняются популярным (допустим, бизнес-новости) контентом - при этом, контент может браться откуда угодно, т.е. чаще всего это обычный плагиат - к примеру, перепечатка статей с различных ресурсов по избранной теме. Наполнение контентом осуществляется методичными темпами - скажем, несколько постов в день в каждый сплог. Дмитрий Давыдов, например, наполняет свои сплоги черпая материалы с Google News,Yahoo News, NewsVine и NetScape - во всяком случае так он ответил на вопрос относительно источников контента. Сразу добавим, что среди сплогеров ведется полемика о том, каким образом сплоги должны наполняться материалами - автоматически или вручную? Ведь если сплог растет посредством постоянных ручных добавлений, то это уже будет не спам-блог, а вполне таки приличный блог, единственным отличием которого будет не уникальность информации - допустим, человеку нравится перепечатывать чужие статьи из различных источников, что тут такого? 

Поэтому следует признать, что спам-блог - это прежде всего автоматизированный блог и контент он получает автоматически. Но это уже детали - каждый делает сплоги как ему хочется, а от того, как сплог наполняется контентом, дело не меняется. Главное - что б на сплог ходили и все. 

Итак, сплоги растут и, будучи перелинкованы между собой, они создают некий замкнутый круг - посетитель, попавший на первый сплог, с большой долей вероятности может перейти на другой, третий и четвертый - все они принадлежат одному и тому же владельцу. Схема, как видите, действительно проста: вопрос контента - решается в сторону плагиата; сами сплоги - висят на бесплатных платформах и не требуют оплаты за хостинг и единственное, что требуется от сплогера - это не забрасывать проект и постоянно пополнять его свежим контентом. Но тут начинается самое интересное. Во-первых, как добиться хорошей посещаемости (т.е. где брать трафик)? И, во-вторых, что с этим трафиком делать? На второй вопрос ответ может быть таким - умный догадается, что делать со, скажем, 1000 уников в день. Поэтому не будем палить тему - каждый сам решает, что ему делать со своими посетителями :-). Но вот первый вопрос - очень важен, ибо блог - это куда ни шло: там уникальный контент, авторская редакция, полезность, ценность... А сплог? Сплог - это прежде всего: неоригинальный контент и, как следствие - более низкая ценность материала, т.к. он уже где-то был. Кто же будет проявлять интерес к сплогу и кто на него пойдет? 

У Давыдова есть сплоги (которые, кстати сказать, можно просмотреть, если зайти в его профайл на блоггере) и кто-то же на них ходит! В рунете существуют и другие персонажи практикующие тему сплогов - они тоже имеют хороший трафик и сумели поставить дело на поток. 

Для прояснения этого вопроса, привлечем Бомжа. В одном из своих постов он делится опытом из своей практики. Его рецепт основан на использовании социальных новостных сайтов - оказывается, публикуя т.н. "новости" со своего сплога в этих сетях, можно заполучить хороший трафик. Более того, если, сплог "выстреливает" (т.е. становится популярным), то подписавшиеся на него люди, будут уже без участия сплогера раскручивать проект. 

Вот еще рекомендации относительно того, как раскрутить сплог:
- регистрация блога на технорати (http://Technorati.com) - этот сервис создан для того, что бы блогосфера узнала о том, что появился новый блог.
- регистрация на AddThis (http://AddThis.com) - с помощью этой службы посетители смогут добавлять себе закладки на сплог.
- создание аккаунта на http://reader.google.com - так можно продвигать свой ресурс в этом сервисе - достаточно только впечатывать туда ссылки на свои новые посты.
- попытаться добавить свой сплог в http://blogcatalog.com. Ресурс имеет PR7 - не помешает.
- воспользоваться сервисом http://www.Stumbleupon.com, добавив к своему блогу необходимые теги. 

Иными словами для раскрутки сплога необходимо применять те же технологии, которые используются для оптимизации сайтов, но с одной оговоркой - упор должен делаться на блогосферу. В качестве вывода отметим, что создавая сплог, необходимо удостовериться в том, что тема, которой он будет посвящен, востребована. Как показывает практика сплогеров - даже при перепечатке чужих материалов, при условии, что подборка сделана качественно и строго по теме, порождается интерес и как следствие - возникает трафик. 

- софтинка для создания скриптов, что помогут в автозаполнении сплога 

Раскрутка блога в поисковиках

Несмотря на то, что поисковые системы имеют склонность пессимизировать блоги в своей выдаче, дела обстоят не так уж и плохо, как может показаться на первый взгляд. Если взять за основу алгоритм Гугла, то при детальном изучении принципов его работы, будет видно, что Гугл обращает огромное внимание на уникальность контента - Гугл просто обожает контент и зеленый свет получают именно те ресурсы, которые публикуют на своих страницах уникальные материалы оптимизированные под определенные ключевые слова. С другими поисковыми системами дела обстоят приблизительно аналогично - Гугл являясь лидером в поисковом деле, задает вектор развития для своих конкурентов - и на основании этого можно утверждать, что контент Вашего блога будет веским основанием его попадания в топ любого уважающего себя поисковика. 

Посему - контент и его оптимизация под ключевые запросы это именно то, что необходимо реализовать любому блогеру, который решил раскрутить свой ресурс. 

Самое главное, что необходимо знать и использовать, так это то, что лучше всего индексируется именно заглавная страница блога (морда) - более того, именно она чаще всего подвергается переиндексации в отличии от других страниц. Поэтому, первое и основное правило для продвижения блога в поисковиках, можно озвучить приблизительно так - следите за тем, что бы ключевые слова, по которым Вы хотите что бы блог появлялся в выдаче, не пропадали с главной страницы блога. Как показывает практика - если ключевые слова пропадают с морды, то число заходов на блог с поисковиков резко падает и все это несмотря на то, что страницы с прошлыми оптимизированными записями, давно имеются в индексе поисковой машины. 

Вывод: правильное использование ключевых слов и постоянное обновление контента - главный метод получения поискового трафика на блог. Иными словами, дело обстоит почти так, как и с раскруткой обычных сайтов, только, в случае с блогами, основной упор следует делать на его заглавную страницу. 

И еще один немаловажный момент - хорошо зарекомендовал себя еще один метод раскрутки блогов, а именно - покупка определенного количества ссылок и установка на них хороших якорей. Покупку ссылок, можно использовать, как дополнительное средство продвижения блога по ключевым словам.

о каталогах сайтов

Классификация каталогов для SEO

В данной статье мы поговорим про каталоги и попытаемся в меру своих сил классифицировать эти ресурсы - думается данная статья будет весьма полезна, прежде всего, начинающим веб-мастерам, которые только начинают познавать все хитроумные премудрости многочисленных сеошных технологий. Регистрация сайта в каталогах - это один из ключевых моментов любой Seo-компании. Грамотно проведенная регистрация, способствует не только усилению значимости наших сайтов в глазах поисковых машин - качественные каталоги приводят еще и целевой трафик, а целевой траф это очень хорошо. Итак. Каталоги можно классифицировать по-разному - все зависит от того, с какой точки зрения смотреть на эти ресурсы. 

Начнем, пожалуй, с поисковиков - как видят каталоги они? В алгоритме поисковой машины каталоги могут быть только в двух ипостасях - или забаненые, или незабаненые. Бан - распространенное явление и прежде чем регистрировать свой ресурс в том или ином каталоге, рекомендуем проверить его наличие в поисковой выдаче. Делается это очень просто - вводите урл и проверяете. Заметим, что иногда можно столкнуться с небольшим нюансом - морда каталога присутствует в индексе поисковика, а разделы - нет. Наличие требующейся ветки каталога в индексе поисковой машины проверяется так же само - вводим требующийся урл и жмем "Искать". 

Второй метод классификации - он чаще всего используется SEO-специалистами - заключается в идентификации каталогов по принципу "белый", "серый" или "черный".
"Белый" каталог - это такой каталог, зарегистрировавшись в котором вы можете спать спокойно - никто с вас не будет требовать обратной ссылки, обратной кнопки и т.п. лабуды. Вы регистрируетесь, указываете тематику сайта, выбираете директорию и на вас ставится прямая ссылка - никаких редиректов, скриптов и прочих ухищрений в "белых" каталогах нет. 

"Серые" каталоги. Это самые распространенные ресурсы - мы регистрируемся, указываем раздел, даем описание сайта, а взамен нас просят разместить ответную ссылку (причем, очень часто это является обязательным условием - без обратной ссылки каталог ничего не гарантирует). Самыми распространенными "серые" каталоги стали потому, что посредством ответных ссылок, владельцы этих ресурсов как раз таки и достигают своего продвижения. Поисковики не очень любят такие методы раскрутки, но, тем не менее, деваться им некуда - "серых" каталогов валом и если их начнут банить, то в сети, возможно, произойдут значительные изменения. Массового бана "серых" каталогов пока еще не наблюдалось, но единичные прецеденты уже имеются. 

Теперь о "Черных" каталогах - что это такое? Суть любых "черных" сео-технологий одна - обман. То же можно сказать и о "черных" каталогах - владельцы таких каталогов делают свое дело не честно. Ссылку, которую вы разместите в таком каталоге, поисковой бот проиндексировать не сможет - ну а в случае если ему это и удастся сделать, то выглядеть она будет весьма коряво. "Черные" каталоги, как и "серые", однозначно требуют размещения ответной ссылки с вашей стороны. "Черное" от "серого" иногда с первого взгляда не отличить - все проверяется на собственном опыте. "Черные" каталоги чаще всего попадают в бан к поисковикам.
Третий способ классификации заключается в разделении каталогов по информационной шкале. Тут все очень просто. Каталоги могут быть нетематическими, тематическими и узкоспециализированными. В первом случае - нетематические каталоги - имеет место, следующее явление. Нетематический каталог - это каталог обо всем понемногу. Ну а в зависимости от того насколько удачно он разбит на директории, как раз таки и определяется его ценность для пользователя, т.е. удобно ли что-то там искать или нет. Для поисковой же машины - все одно. Если вы имеете ссылку на свой сайт с безграмотно сделанного нетематического каталога, то посетителей ждать оттуда придется долго, но эта ссылка, все же, будет иметь определенный вес в глазах поисковика - а это, согласитесь, уже приятно. 

Теперь о тематических каталогах - такие ресурсы еще называют "специализированные". Идея такова - берется за основу какая-то одна тема, например - "заработок в Интернете" - и все вертится вокруг этой составляющей. Различные подразделы в таком каталоге могут носить такие названия, как скажем, "PPC", "Партнерские программы", "Контекстная реклама" и т.п. Если тематический каталог пользуется популярностью и вдобавок ко всему постоянно модерируется, то наличие там вашей ссылки может сыграть весьма положительную роль при раскрутке вашего проекта, т.е. с тематических каталогов можно поиметь жирный трафик. 

Узкоспециализированные же каталоги являются одними из самых полезных справочных ресурсов и польза от них очевидна. 

Именно такие каталоги приводят максимальное количество посетителей. Происходит это по той простой причине, что узкоспециализированные каталоги изначально посвящены какой-то одной теме (и только ей). В вышеописанном случае ( "заработок в Интернете") имеет место весьма широкий разброс ресурсов - тема заработка в сети безгранична, как и сама сеть. Узкоспециализированный каталог, содержащий в себе линки, например, исключительно на партнерские программы, существенно сужает круг поиска - такой каталог будет иметь огромный авторитет у различных веб-мастеров (и не только). Чем больше база такого каталога - тем больше его авторитет. Для получения целевого трафика стремитесь регистрироваться именно в таких каталогах. 

В заключении, хотелось бы отметить еще один тип каталогов - блог-каталоги. С развитием блогосферы, блог-каталогов развелось чрезвычайно много, а это напрямую сказывается на их эффективности. Опыт показывает, что регистрация блога в большинстве из них, не очень сильно сказывается на повышении его PR, а посетители на блог, если и приходят, то только из очень раскрученных директорий, которые соответствуют весьма популярным тегам.

Использование зарубежных каталогов

Вам, наверное, уже известно, что в рунете в настоящее время очень широко распространен платный сабмит сайтов в различных каталогах - оказанием таких услуг занимается немалое количество контор. О самых эффективных проектах мы уже писали на страницах нашего сайта и если вы еще не определились, какими сервисами воспользоваться, то мы, со своей стороны, можем порекомендовать вам две очень перспективные службы, а именно - 1ps.ru и uhuhu.ru Эти сервисы имеют весьма внушительные базы белых каталогов, да и тарифные планы которые предлагаются на выбор, подойдут почти всем обитателям сети - от малобюджетных и некоммерческих проектов до амбициозных сетевых предприятий. На http://seoweb-master.blogspot.com/ размещены две статьи, в которых весьма детально повествуется о вышеназванных сервисах - рекомендуем к прочтению:

В данном же материале мы поговорим немного о зарубежных каталогах - ведь рунет, являясь пока еще по своей сути, большой деревней, не сможет дать вам того трафика и тех барышей, которые присущи западному сегменту. Подключиться же к его траф-закромам, как раз таки и можно посредством регистрации своего ресурса в тамошних каталогах. Такая стратегия представляется весьма эффективной и практический опыт говорит о том, что регистрация сайта в каталогах буржнета дает не только прирост PR, но и приличное число целевых посетителей, т.к. в отличии от каталогов рунета, буржнетовские директории частенько становятся предметом исследования, например, американских серферов. 

Как известно, самым серьезным каталогом является DMOZ (что там говорить - это святая-святых для любого веб-мастера!) - добиться включения своего сайта в этот проект не так то и легко, но, теоретически, возможно. Главное условие попадания в DMOZ - это уникальный контент вашего сайта (ну и, разумеется, расторопный модератор раздела, а это уже от вас не зависит). Но дмоз-дмозом - если вы там есть, то хорошо, а если нет? Ответ один - не беда. Помимо дмозовского каталога существует огромное количество других белых каталогов - в них то и рекомендуется самостоятельно сабмитить свой ресурс. Идею автоматического сабмита в каталогах буржнета, как это не горестно прозвучит, придется откинуть сразу. Можете даже не пытаться использовать такие программы, как Allsubmiter - ничего путного из этого не выйдет. Платных же сервисов по регистрации, наподобие рунетовских, в буржнете нет. Единственное ваше оружие - это поисковые запросы в гуглю (например, Add Site или Free Submit), ну и, конечно же, всевозможные примочки, которые автоматически будут заполнять те или иные регистрационные формы, а их на вашем пути встанет оооочень много (тут заметим, что очень удобен в этом отношении браузер Opera, а точнее - встроенная туда утилита под названием "Жезл"). Еще вариант - купить базу каталогов. Делать это не советуем, т.к. вряд ли вам удастся найти рабочую базу, а покупать кота в мешке дело разорительное. Да и хороших баз бесплатных каталогов для западного сегмента, по-видимому, не существует. 

Регистрация в буржентовских каталогах дело хоть и эффективное, но весьма и весьма муторное и вот по какой причине. Дело в том, что найти действительно бесплатные белые каталоги не так то и легко - например, очень часто указывается, что каталог бесплатный, но после непродолжительного знакомства с ним выясняется, что это вовсе не так. Сама же плата за регистрацию может быть чисто символической - тут уж смотрите сами. Иногда, кстати, можно и заплатить - особенно если PR такого каталога равен, например, 4-ке! Но, как правило, рунетовские веб-мастера ничего никогда не платят - они ищут халявные каталоги и в конечном итоге их находят. 

Не стоит сбрасывать со счетов еще и такую беду - многие буржнетовские каталоги требуют ответной ссылки и не регистрируют сайт до тех пор, пока робот не убедится в ее наличии. Короче говоря, с каталогами буржнета придется попотеть еще как! Но вот вы нашли бесплатные каталоги. Теперь вам необходимо правильно зарегистрировать в них свой ресурс. Правило тут одно - чем больше информации вы укажете, тем лучше. Старайтесь давать подробное описание своего сайта не только в виде, так называемых, тегов (что, по сути, будет вашими ключевыми словами в дальнейшем) - стремитесь дать грамотное описание своего ресурса посредством простых предложений. Как правило, все каталоги буржнета (независимо от того являются ли они, например, французскими или немецкими) имеют английский интерфейс - на этом-то языке вы и должны давать краткое описание своего сайта. 

Еще один совет. Если вы, во что бы то ни стало, хотите раскрутить свой сайт, то попытайтесь заниматься этим делом на основании определенного плана. В этих же планомерных действиях, хотя бы месяц, отведите на сабмит по каталогам. Практика показывает, что за две недели, можно получить весьма неплохую самопальную базу англоязычных каталогов - остальное же время уйдет на сам процесс сабмита (намучаться придется еще как!). 

Несмотря на такие вот пироги игра стоит свеч - имея ссылки на сайт из, скажем, 200-т буржнетовских каталогов, вы получаете весьма стабильный бурж-траф и при этом добавляете кучу очков в свою пользу, а они будут обязательно учтены гуглом при перерасчете PR. 

фильтры Google - для начинающих

Принцип Песочницы Гугля для сайтов

В том что SandBox существует, нет никакого сомнения - гугл это признает и даже немного коментирует, дескать, это специальный продукт алгоритма поисковой системы и что это метот проверки нового ресурса. Метод-методом, но владелец сайта может войти в полный минус из-за того, что его сайт не находится поисковиком, а если это, вдобавок ко всему, малобюджетный проект, то тогда вообще наступит предгеморроидальное состояние. 

Итак, если попытаться определить, что же такое Sandbox, то придем к выводу, что это просто фильтр, преодолев который мы попадаем в результаты поиска. Такого рода фильтрование делается с одной простой целью - борьба с новыми сайтами, которые искусственно стремятся улучшить свои позиции по тем или иным ключевым словам. Гугл борется за релевантность результатов поиска и поэтому - оптимизированные страницы, содержание которых нулевое, ему не к чему. В этом суть его политики, которая выливается (в одном из частных своих проявлений) в SandBox. Срок, на протяжении которого, сайт находится в "песочнице" - отдельная тема, поэтому только отметим, что он может быть равен, как нескольким неделям, так и годовому промежутку времени. Для нас важно то, как выйти побыстрее из этой самой песочницы, не оставшись там надолго. Первый определяющий фактор, который влияет на попадание сайта в "песочницу" - это его недавнее появление. Сайт туда попал и система следит - следит за тем, что же с ним происходит (думает, короче говоря). 

Следует отметить, что фактор популярности тематического ядра сайта тоже очень важный критерий, как для попадания в песочницу, так и для срока нахождения в ней. Следовательно, если вы решили специализироваться в прибыльном деле, которое занимает не одного только Вас, то приготовьтесь бороться с "песочницей" во всеоружии. Первое что делаем - это не унываем, а работаем над контентом, т.е. обновляем страницы и пишем новые материалы. Второе, ведем борьбу за ссылки и наращиваем их объем - тем самым мы достигнем того, что называется повышение PageRank, а это уже прямая дорога к успеху. Не забываем, что входящие ссылки с сайтов с высоким PR главная задача - ищем пути получения этих ссылок. Повышая свой ИЦ, мы тем самым, делаем шаг к тому, что бы гугл дал нашему сайту зеленый свет - в этом, большинство веб-мастеров и видят реальное средство борьбы с песочницей. Как только система убедилась, что ресурс важен и оправдан, то она снимет с него свою железную лапу. Поэтому, подводя итог, смело можно сказать, что удачное позиционирование ссылок на свой сайт - это отличный метод в максимально короткий срок выйти из Google SandBox чистым и пушистым. 

А теперь, совет для тех, кто пока не имеет своего сайта и только планирует его завести (да и всем остальным пригодится, кстати). Последняя информация говорит о том, что в песочницу не попадают сайты, которые появились на доменах, раньше принадлежавших другим лицам, т.е. тем, кто лишился на них прав по причине истечения (не продления) срока регистрации. Если этот срок истек недавно, то, заимев в свое распоряжение такой домен, можно даже забыть, что SandBox существует :) 

Что такое Google Bombing ?

Что из себя представляет Google Bombing? 

Во-первых, это гугловский фильтр, о котором речь пойдет ниже. 

А во-вторых, это явление или же, как определяют знающие люди - артефакт поисковой системы (причем необязательно гугла - любого поисковика). 

Для начала целесообразно рассмотреть второе значение, прежде чем переходить к первому. Артефактом называется любое явление или процесс, появление которого в наблюдаемых условиях по естественным причинам невозможно или маловероятно. Появление артефакта, следовательно, является признаком целенаправленного вмешательства в наблюдаемый процесс, либо наличия неких неучтённых факторов, а с поисковиками частенько случаются разнообразнейшие артефакты. Злоупотребляя возможностями линкования по тем или иным ключевым словам, можно достигнуть неплохих результатов - это и есть то зерно из которого произрастает Google Bombing в своем втором (и самом знаменитом) значении. За примерами далеко ходить не надо, а достаточно только вспомнить ситуацию, когда во время войны в Ираке, группа матерых спамеров (да и не только) разместили на множестве сайтов ссылки на страницу Белого Дома и, в качестве текста ссылки, прописали [Miserable Failure] (т.е. "жалкий неудачник"). Это привело к тому, что при запросе поисковика по этому словосочетанию выдавалось немереное количество ссылок, которые приводили непосредственно на сайт Белого Дома. 

Это была самая известная бомба, которая наделала много шума и породила проблему, которую, как многие утверждают, до сих пор так и не решили (есть, впрочем, и иные мнения). Сама проблема звучит приблизительно так - может ли поисковая система сопротивляться подобному поисковому спаму, который создается как реакция на различные социальные и политические конфликты? Однозначных ответов нет, хотя Google в лице Мэтта Каттса заявил, что в настоящее время сайты подымаются по тем ключевым словам, которые выбрали с целью раскрутки их создатели и владельцы. То есть, имеется в виду, что если на сайте нет выражения [Miserable Failure], то как бы на него по этому словосочетанию не ссылались, то в серп (а тем более в топ) он не попадет. Но тут много вопросов, т.к. каким образом это работает на практике и на сколько эффективно, пока, к сожалению, непонятно. Другие примера гуглбомбинга: пишем "враг народа", попадаем на сайты Правительства РФ и Путина; если написать "More evil than satan himself" (Зло больше чем сатана), то полезет Microsoft; слово "Liar", приведет на страницу Тони Блэра; также, если ввести по-фински выражение "тупая корова" (tyhma lehma), то появится сайт финского министра культуры по имени Таня Саарела. Короче говоря, вот такой вот Google Bombing. %-) 

Поскольку нас интересует непосредственно фильтр гугла, то вот мы до него и добрались. Грубо говоря, Google Bombing - это алгоритм, посредством которого, система определяет сколь большое количество сайтов ссылаются на какой-то определенный ресурс используя для этого одинаковую (шаблонную) текстовую ссылку. Если вдруг машине покажется, что это выглядит противоестественно, то последует бан сайта на выдачу в серп по конкретному ключевому слову. При попадании сайта в фильтр, есть проверенный метод, который решает эту проблему - надо обратиться с просьбой о повторном внесении в индексную базу поисковой машины, а так же, постараться сделать так, что бы обратные ссылки на ваш сайт были заменены и не были идентичными. Имеется и другой вариант - нарастить новые внешние линки (например, купить) и сделать для них текст таким, какой будет отвечать вашим интересам. Проблема Google Bombing'a очень хорошо обсуждена на http://googleblog.blogspot.com/. Рекомендуется к ознакомлению. 

Фильтры против спама в гугле

В этой статье будут рассмотрены кое-какие фильтры, которые использует поисковая система Google, для того, что бы отсеять постоянно растущее количество спам-ресурсов, а так же другие недобросовестные проекты, выдача которых в серп будет не релевантна поисковым запросам. Сразу же оговоримся, что основные (самые известные) алгоритмы уже освящены в отдельных статья на http://seoweb-master.blogspot.com/ - поэтому, в этой статье вы не найдете информации относительно песочницы (Sandbox), а так же фильтра именуемого Google Bombing. 

Зато, прочтете про кое-что другое - не менее важное и полезное, да и лишние знания не помешают, как говорится. 

Первым делом остановимся на Google Duplicate Content Filter. Этот фильтр направлен на то, что бы отсеять сайты, которые содержат жестокий плагиат с чужих ресурсов. Очень часто можно услышать совет, что перед тем, как у кого-то что-то украсть и запостить у себя (имеется в виду текстовое наполнение), то следует немного переделать этот оригинальный материал, ибо гугл не жалует ворованный контент и не позволякт такой странице подняться в выдаче, т.е. банит. Это и есть результат работы вышеназванного фильтра. Вообще-то, называть это баном не совсем корректно - алгоритм фильтра устроен так, что сайт помещается в специальный результат поиска, который именуется supplementary results (т.е. дополнительные результаты поиска) или же попадает в другой, тоже не менее приятный раздел, под названием omitted search results (результаты опущенный за незначительностью). Так что, будьте аккуратны когда что-то тырите - лучше уж немного попотеть над контентом, чем потом вылезать из вышеназванного фильтра. Ну, а если есть потребность посмотреть, что же воруют непосредственно у Вас, то посетите это место: http://www.copyscape.com/ - очень полезный сервис. 

Но вернемся к гугловским анти-спамерским примочкам. При оптимизации сайта следует опасаться еще одного фильтра, именуемого Google -30. Принцип работы таков - если система определяет Вашу деятельность как нарушение, то сайт пессимизируется на 30 позиций в выдаче. Что же это за нарушения? Разумеется речь идет о любом виде black-seo - если гугл это спалит, то сайт не поднимется выше 31-й позиции в серпе. Сюда следует отнести прежде всего спам на форумах, гостевухах, блогах и т.п. Неграмотное использование Java Script редиректа так же повлечет вышеописанные последствия. Рекомендуется использовать 301-й редирект (т.н. 301 Moved Permanently). Если гугл решит, что сайт похож на дорвей, то так же будет применен фильтр Google -30. Что бы избавиться от нахождения ниже 30-й позиции, следует устранить причины, которые повлекли за собой эту беду, т.е. надо убрать спам - сайт выйдет из фильтра автоматически (придется, конечно подождать какое-то время). 

Еще один фильтр можно определить, как "фильтр взаимного цитирования". Уже давно известно, что меняться ссылками надо с умом - с кем попало не стоит. Если Ваш сайт ссылается на ресурсы, которые не соответствуют вашей тематике, а они ссылаются на Вас, то это даст повод гугловской машине помешать Вашему ресурсу появляться в первых рядах по нужным ключевым словам. Немаловажный аспект - всегда следует быть разборчивым и проводить кампанию по обмену ссылками только с тематически близкими сайтами. 

Существуют еще кое-какие фильтры, но они выполняют скорее техническую функцию - например, что бы не перегружать и без того занятого бота. Фильтры, отсеивающие сайты на которых имеются битые ссылки или ресурсы, загрузка которых занимает продолжительное время - из их числа. Но поскольку это не из области спама, то, в настоящий момент, обойдем их вниманием - прочтете о них в другой сатье. 

Дополнительный индекс гугла

До 31 июля 2007 года, пользователи поисковой системы Google имели возможность наблюдать рядом с основными результатами поиска, еще и так называемые "дополнительные" результаты, т.е. Supplemental Results. Но вот с августа этого года, привычной зелененькой надписи больше не будет - об этом было официально объявлено инженером по программному обеспечению компании Google Мэттом Катсом (Matt Cutts) (http://googlewebmastercentral.blogspot.com/2007/07/supplemental-goes-mainstream.html). Зелененькой надписи не будет, но дополнительные результаты останутся - в них по прежнему будут находиться сайты, которые не удовлетворяют определенным критериям. Данная статья призвана осветить проблему двух индексов Google (основного и дополнительного) и помочь начинающему веб-мастеру в решении ряда вопросов, которые могут возникнуть на его пути, из-за различных недопониманий по поводу "секретов" индексирования его сайта. 
По этому адресу (http://groups.google.com/group/Google_Webmaster_Help-Indexing/browse_thread/thread/4130d7e2a6efc4bf) находится очень любопытный комментарий алгоритма дополнительного индекса. 
Комментарий дан сотрудником компании по имени Adam Lasnik и озаглавлен как 
"The skinny on the supplemental index" (т.е. "неофициальные данные касательно дополнительного индекса"). Ниже приведем перевод этой немаловажной информации, а потом попытаемся немного ее проанализировать и наконец-то понять - что же скрывается под маской supplemental index. 
Итак. 
"Мне пришлось столкнуться с огромным количеством вопросов, а так же с неподдельным беспокойством со стороны веб-мастеров относительно дополнительного индекса Google. В скором времени этот вопрос будет предельно четко и официально рассмотрен в FAQ Google, но что бы прояснить обстановку уже сейчас попытаюсь ответить на Ваши вопросы: 
1) Является ли дополнительный индекс НАКАЗАНИЕМ?
Когда страницы Вашего сайта оказываются в дополнительном индексе это НЕ ОЗНАЧАЕТ, что Ваш ресурс наказан. Подчеркиваю, мы не перемещаем страницы сайтов из основного индекса в дополнительный в ответ на какие-либо нарушения "Правил для Веб-мастеров".
2) Свежесть?
Есть основания полагать, что в скором времени появится более свежий дополнительный индекс. Но, исходя из самого определения "дополнительный", я не могу ручаться за то, что обновления в нем будут происходить так же часто, как и в основном.
3) Как можно избежать попадания в дополнительный индекс?
Стремитесь к получению как можно большего количества качественных бэклинков. Это ключевой момент - именно на его основании наши алгоритмы будут расценивать Вашу страницу, как одну из достойных нашего основного индекса"
Вот и все, что добились люди от Google - не густо?
Правда в конце, мистер Adam, еще добавляет, что если Вы не желаете что бы страница находилась в дополнительном индексе, то можете смело воспользоваться специальным сервисом, который удаляет оттуда страницы (т.н. removal tool) - удаляет на 6 месяцев.
Но это ладно - попали так попали, удалять не будем.
Из приведенного выше материала видно, что если страницы Вашего сайта не появляются в основном индексе, а оказываются в дополнительном, то это никак не наказание. Только вот почему одним основной, а мне дополнительный?
Оказывается, как это не странно, все просто. На форуме www.webmasterworld.com, тот же Adam Lasnik поясняет все следующим образом - попадание страницы в дополнительный индекс вызвано тем, что она имеет низкий Page Rank. Цитируем - "Ваша страница находится в дополнительном индексе по той причине, что мы всеми силами хотим показать ее пользователю и это несмотря на то, что у нее низкий PR, а именно он дает возможность фигурировать в основном индексе. Вам необходимо обзавестись большим количеством качественных ссылок на сайт - только это пропишет максимальное количество страниц Вашего сайта в основной индекс".
После всего прочитанного, не напрашивается ли у вас вывод, что Google хочет представить дополнительные результаты поиска в виде одного из фильтров?
Фильтр стоит на пути у Веб-мастера и обязывает последнего совершенствовать контент до тех пор, пока он не станет настолько ценен, что на него не начнут ссылаться с авторитетных сайтов - после этого автоматически начнет расти Page Rank и страница переместится из дополнительного индекса в основной.
Можно даже провести аналогию с песочницей (Sand Box) - только там, только что появившемуся сайту, необходим определенный отрезок времени на то, что б сайт очутился в серпе, а тут требуются качественные внешние ссылки. При этом, как уже было сказано, речь идет не про весь сайт (т.е. не все страницы сайта имеющие низкий PR оказываются в дополнительном индексе), а только об отдельных его страницах, которые на запрос по определенным ключевым словам не могут конкурировать с другими - им не хватает PR и они идут в дополнительные результаты поиска.
Поэтому - наращиваем контент, ищем источники внешних ссылок и не отчаиваемся из-за такой ерунды, как дополнительные результаты.
Как узнать - находится ли Ваш сайт в дополнительных результатах поиска или нет? Это очень просто проверить - введите в поисковик вот это: site:http://www.site.com/&
(только не забудьте слово site заменить на свой домен ...;-)
В качестве вывода отметим, что все что было известно про дополнительный индекс Google раньше, продолжает быть актуальным и до сих пор. Просто постоянное модернизирование и развитие алгоритма, привело к тому, что нынешняя система индексации страниц стала более глубокой - и, как следствие, дополнительные результаты начинают становиться все более и более релевантными (т.к. слабые страницы в них не попадают).
Ну и напоследок. На официальном блоге гугла, после объявления о том, что дополнительные результаты поиска больше не будут маркироваться, в одном из комментарием по этому поводу можно прочесть - "PLEASE!!!!! Leave the supplemental tag on the results so we have a chance of improving our web sites content." И подобных возгласов не мало - практика покажет, насколько верным было решение сокрыть дополнительные результаты поиска от Веб-мастеров в результатах выдачи. 

фильтры Yandex - для начинающих

Фильтры Яндекса

В этой статье мы немного поговорим про те алгоритмы поисковой системы Яндекс, которые доставляют столь много головной боли почти всем оптимизаторам - речь у нас пойдет про яндексовские фильтры. 

К слову сказать, на нашем сайте уже имеется материал, посвященный гугловским фильтрационным алгоритмам.однако оптимизатору, который ориентирует свой ресурс на раскрутку в рунете чрезвычайно полезно знать особенности фильтрации выдачи как раз таки от Яндекса, т.к. немалая доля запросов принадлежит именно ему. Сразу оговоримся - яндексовские фильтры мало чем отличаются от технологий, реализованных в Гугловском алгоритме - единственное, что рознит данные механизмы - это их названия и, конечно же, мотивы, на основании которых накладываются баны, вылетают из индекса страницы и т.п. 

Следует признать, что фильтрация спам-сайтов и прочих черных технологий в Гугле на сегодняшний день реализована намного более эффективней, нежели у Яндекса. Но, тем не менее, как мы видим, Яндекс не сдается и периодически выдает весьма интересные фортеля. 

Итак, приступим. 

Поисковой фильтр - это алгоритм поисковой машины, выявляющий в сети недобросовестные сайты, а так же применяющий ряд мер, направленных на удаление их из поисковой выдачи (как вариант – осуществляется пессимизация сайта в ранжировании). Иными словами - сайты выявляются и на них накладываются, т.н. штрафные санкции. Соответственно, в зависимости от того, какой фильтр применен - такая санкция и последуют. 

На сегодняшний день существует огромное количество черных технологий и методов в СЕО, которые позволяют влиять на поисковую выдачу - по этой причине, фильтрационных алгоритмов от поисковых машин существует почти столько же. Остановимся же на самых известных и составим нечто вроде топа фильтров Яндекса.
1. Спам-фильтр. 

Как следует из самого названия, данный фильтр борется с сайтами, страницы которых излишне ретиво оптимизируются веб-мастерами под определенные поисковые запросы. Например, яндексовский спам-фильтр очень эффективно выявляет дорвеи. Тем не менее, в силу сложившихся на данный момент условий под данный фильтрационный алгоритм могут попасть и вполне доброкачественные ресурсы. Почему это происходит? Тут дело в том, что иногда веб-мастера, в погоне за топовыми показателями, начиняют страницы излишне оптимизированными текстами (например, от общего объема текста ключевые слова встречаются в 10-ти или даже в 15-ти процентном диапазоне) - такие сайты могут уверенно подпасть под анти-спамовый фильтр. Главный признак того, что сайт попал под вышеназванный фильтр - выпадение ресурса из топовых позиций, на которых он прибывал раньше. Выйти из-под анти-спамового фильтра достаточно просто - необходимо всего лишь обновить контент, уменьшить плотность ключевых слов (4-7%) и дождаться очередного апдейта поискового индекса. Таким образом, для того, что бы ни попасть под анти-спам фильтр, необходимо всего лишь следить за количеством ключевых слов, а это значит - надо публиковать на сайте нормальные (с точки зрения читабельности) тексты. Только-то и всего. Анти-спамовый фильтр Яндекса периодически модифицируется, но в целом, его стандартный механизм изучен веб-мастерами вдоль и поперек и ничего загадочного в нем нет. 

2. Ты последний. 

Это официальное название фильтра говорит само за себя - при его наложении сайт очень радикально понижается в ранжировании (нечто вроде тотальной пессимизации). За что же накладывается сей фильтр? Тут тоже все просто – что б попасть под Ты последний необходимо наличие на сайте неуникального контента (причем независимо от того - текстовый он или графический). Разумеется, неуникальный контент может быть где угодно, т.е. вполне качественный сайт может себе позволить определенный процент неуникальных страниц и тут нет никаких проблем. Речь идет именно про сайты, которые действительно злоупотребляют копипастом. Как следствие, если вы не публикуете на своем ресурсе уникальный контент, а используете чужие материалы и этих материалов у вас уже много, то вполне возможно, что на ваш сайт будет наложен названный фильтр. Выше мы уже сказали, что результат попадания под фильтр - это брутальное понижение показателей сайта в выдаче. Однако, иногда случается, что уличенный в злостном плагиате ресурс просто напросто выбрасывается из индекса. Если произошел второй вариант, то вряд ли вам уже что-то удастся сделать (хотя можно и попытаться - пишем в сапорт Яндекса), ну а если вас просто понизили, то следует просто переделать сайт (наполнить его уникальным контентом) и запастись терпением до следующего апдейта. 

3. Непот-фильтр 

Непот-фильтр накладывается на сайты, которые очень активно занимаются, т.н. "непотистским спамом". Достаточно подробно это понятие раскрывается вот в этой статье и мы вам настоятельно рекомендуем с ней ознакомиться. Однако же если быть кратким, то непотизм в сети - это продажа ссылок. Тут имеется тонкость вот какого плана - дело в том, что непот-фильтр накладывается непосредственно на те сайты, которые уличены в непотизме (т.е. доноры), а не на те ресурсы, которые растут за счет их ссылок. Ситуация такая - вы заимели неплохие показатели в ранжировании за счет донорских сайтов и сталось так, что они попали под непот-фильтр - что за этим последует для вас? Очень просто - ваш сайт потеряет весь тот вес, который заимел за счет доноров, ибо вес ссылок с донорских сайтов, которые попали под непот, обнуляется. Вывод - следите за тем, кто на вас ссылается, и не делайте упор при раскрутке на дешевые ссылки с говносайтов. Еще один момент, который обязательно следует учитывать и помнить - не злоупотребляйте продажей ссылок со своего сайта (сейчас это, кстати сказать, очень актуально!), т.к. Яндекс вполне резонно может решить, что ваш ресурс, как раз таки, и является говносайтом. Вот такая вот дилемма. 

4. Фильтр аффилиатных сайтов. 

Это один из самых старых фильтров Яндекса и действует он весьма эффективно до сих пор. Что подразумевается под термином "аффилиатные сайты"? Тут речь идет о сайтах, которые принадлежат одному владельцу и продвигаются по одному (или реже - нескольким) ключевым словам. Поясним на примере. Допустим, существует фирма, которая продает кондиционеры (или другой популярный товар), директор же этой конторы заказывает десять сайтов с целью вывести их в топ по основному ключевому слову, что в результате существенно снизит конкуренцию (все посетители из топовой страницы будут приходить только в вышеназванную фирму через 10-ть топовых сайтов). В подобной ситуации включается алгоритм фильтровки аффилиатов - 10ть сайтов склеиваются в один и в выдаче появляется только тот, который поисковик считает наиболее релевантным. Конечно, пример, который мы привели, очень грубый, но, думается, вам стало понятно, в чем основной смысл фильтра. Еще следует заметить, что по имеющимся данным первыми в мире применили такое фильтрование на поисковике Yahoo еще в середине 90-х годов и, по всей видимости, аффилиатный фильтр - это один из дедушек интернета. Фильтр пытаются обойти разными способами - например, регистрацией аффилиатных сайтов на разные имена и т.п. Однако в целом - алгоритм фильтрации весьма технологичен и в 90% случаев справляется со своей работой на пять баллов. На сегодняшний день качественные афилиатные сайты заиметь весьма сложно. 

5. Фильтр для новых доменов 

В принципе, этот фильтр у Яндекса появился совсем недавно и главная причина его появления - засранность рунета спамовыми говносайтами, которые регистрируются на несколько месяцев для поднятия денег с продажных ссылок. К слову будет сказать, что у Гугла данный фильтр появился значительно раньше и это свидетельствует не только о его прогрессивности, но и о завидной развитости буржуйского инет-пространства. Суть Фильтра для новых доменов проста - сайты, сидящие на молодых (только что зарегистрированных доменах) не пускаются в ТОП-выдачу по высоко-конкурентным запросам (высокочастотники). На высокочастотниках мы останавливаться не будем - это отдельная тема - но следует особо оговориться, что фильтр новых доменов применяется не для всех сайтов, а только для тех, которые претендуют на высококонкурентные позиции. Считается, что по прохождению года со дня регистрации домена, фильтр однозначно снимается и сайт получает полноценную преференцию от Яндекса. На наш взгляд, начинающему веб-мастеру, равно как и белому оптимизатору не стоит обращать на этот фильтр никакого внимания, т.к. на первом этапе жизни сайта следует главным образом заниматься не его продвижением, а исключительно контентным наполнением. 

6. АГС 

Фильтр АГС - это одна из модерновых разработок Яндекса и на сегодняшний день, по всей видимости, его алгоритм находится в процессе бурного развития и тестирования. Существует два вида фильтров - АГС-17 и АГС-30. Название расшифровывается двояко - в одном случае это армейская аббревиатура для гранатомета (Автоматический Гранатомет Станковый), а в другом - Анти Говно Сайт. В общем, как видно из второй расшифровки, данный фильтр призван бороться с говносайтами, а из первой - делать это он должен, как гранатомет - эффективно и наповал. Ежели немного погуглить, то можно найти немало различных суждений и даже полноценных исследований, касательно данного фильтра. Однако все, что касается АГС основано исключительно на опытных данных от веб-мастеров имевших непосредственное дело с АГС, а так же на предположениях жителей интернета. Ну а поскольку официальных комментариев от Яндекса касательно алгоритма работы АГС мы в ближайшее время не дождемся (это, как и понятно, тайна за семью печатями), о причинах попадания сайта под АГС, время от времени, ведутся весьма интересные дискуссии. Точно установлено, что под фильтр попадают сайты, которые в той или иной степени, но при этом одновременно, соответствуют следующим параметрам: 

торгуют спам-ссылками (рекомендуется соблюдать осторожность и не продавать под ссылки все страницы);
не имеют трастового возраста домена (сайту не исполнился год);
наблюдается существенный дисбаланс между входящими или исходящими ссылками;
наблюдается неравномерный трафик (с посещаемости в несколько человек, сайт резко получает тысячу уникальных посетителей);
наблюдается неуникальный контент и дублирующиеся страницы;

Главным образом, именно эти пять пунктов, и называются основными факторами, которые приводят к наложению Яндексом фильтра АГС. Наверное, у вас уже возник вопрос, а что же все таки происходит, когда сайт попадает под АГС? Отвечаем - из индекса вылетает 99% контента и остается только морда сайта + еще несколько страничек. По заверениям Яндекса, для того что бы не залететь под АГС, следует заниматься исключительно белым СЕО. Тем не менее, в алгоритме фильтра, вне всякого сомнения, имеются большие глюки и сеошные форумы кишат рассказами о том, как белые сайты по какой-то непонятной причине выпадают из индекса, что напрямую связывается с наложением АГС.
На этом наш рассказ подошел к концу. В ближайшее время мы дополним этот материал еще кое-какой информацией. 

Что такое АГС от Яндекса

В данной статье мы разберем один из фильтров поисковой системы Яндекс называемый АГС. По имеющейся информации этот фильтр имеет две модификации, причем это официально подтверждено администрацией Яндекса - фильтры именуются АГС-17 и АГС-30. Хронологически 17-й АГС появился раньше 30-го и на сегодняшний момент фильтрацией некачественных, по мнению Яндекса, сайтов занят именно 30-й номер (более совершенный с точки зрения алгоритма). 

Название АГС имеет два значения:
Во-первых, АГС это один из видов гранатометов находящийся на вооружении армии Российской Федерации (Автоматический Гранатомёт Станковый). Как и понятно, Яндекс не случайно взял эту аббревиатуру для своего фильтра ибо такой фильтр и должен быть сродни гранатомету (17я модель АГС сейчас усовершенствованна и солдатам выдают уже новую модификацию - 30-ю). 

Ну а во-вторых, в сеошных кругах фильтр АГС расшифровывается весьма поэтично - "Анти Говно Сайт". Таким образом, данный фильтр (в идеале) должен резво бороться с говносайтами заполонившими рунет.
С названием мы вроде бы разобрались, а это значит, что давайте теперь непосредственно поговорим про сам фильтр - в чем его суть, почему его так бояться и постоянно обсуждают. 

Цель, которую преследовал Яндекс разрабатывая вышеназванный фильтр, очень проста - борьба с сайтами, которые не делаются для людей, а создаются исключительно для зарабатывания денег в сети (в основном - это продажа ссылок) - в народе такие ресурсы называют ГовноСайты, что, конечно же, не всегда соответствует истине. 

Результат, который мы имеем после применения фильтра к сайту тоже, весьма и весьма, прост - из индекса поисковой системы вылетают почти все страницы, за исключением морды. Правда иногда, после наложения фильтра, наблюдается присутствие в индексе еще нескольких страниц, но сути дела это не меняет. Еще момент - если веб-мастер добавляет на сайт новые страницы, то в индексе они, увы, не появляются вообще - они попросту не индексируются ботом. В принципе, действие АГС-30 можно расценить как бан, но, как видите, есть небольшой нюанс - морда сайта не пропадает из базы поисковика. 

Фильтр АГС начал применяться еще в 2008 году и где-то к концу 2009 посредством его наложения Яндексу удалось завалить немало реальных говносайтов, которыми в то время буквально кишил рунет. Однако у фильтра выявился немалый косяк - дело в том, что под него попадали и качественные сайты, и сайты, которые были сделаны не то что бы совсем "для людей", но говносайтами их тоже назвать было нельзя. В частности, АГС очень немало хлопот доставил - и, надо сказать, доставляет до сих пор - владельцам сателлитов, на которых поднимается неплохое бабло посредством продажи ссылок. 

На сегодняшний день сеошные форумы переполнены обсуждениями касающимися принципа работы алгоритма АГС и, конечно же, полезными советами из серии "как не попасть под АГС". Внесем же и мы свою лепту в эту копилку. 

Итак. 

Алгоритм фильтра, как это и понятно, засекречен - ведь если Яндекс поведает рунету правила по которым банятся говносайты, то последних появится еще больше, т.к. веб-мастера просто обойдут фильтр. Однако же, кое-какая официальная информация касательно АГС имеется. К примеру, Яндекс рассказал, что наложение АГС - это результат совпадения нескольких факторов, которые по отдельности никоим образом на попадание сайта под фильтр не влияют. Именно совокупность, сумма таких факторов, приводит к наложению пеналти в виде АГС. 

Давайте же рассмотрим эти факторы по отдельности! 

Прежде всего следует оговориться, что списка причин по которым сайт попадает под АГС в официальных Яндексовских публикациях вы не найдете - это, опять таки, большой секрет большой компании. Однако же веб-масетрами уже давно выявлено ряд закономерностей, которые со 100 процентной вероятностью приводят к наложению АГС. Так же существуют факторы, которые с 50-ю процентной вероятностью влияют на попадание под фильтр. Существуют и чисто теоретические предположения, за достоверность которых поручиться нельзя никак. Все, что касается АГС, основано исключительно на опыте и собственных измышлениях веб-мастеров. 

Сто процентное влияние, приводящее к созданию условий для наложения на сайт АГС-фильтра это:
1. Торговля спам-ссылками на сайте. 

Не будем вдаваться в подробности и объяснять, что представляет из себя "продажа ссылок" (ведь если вы читаете эту статью то, конечно же, сто раз слышали про сапу и прочие биржи ссылок), а скажем только одно - продажа ссылок является самым существенным фактором и в 90% случаев под АГС попадают именно те сайты, которые очень ретиво монетезируются посредством продажи прямых ссылок. Уже точно известно, что даже самые деревянные говносайты мирно существуют в индексе до тех пор, пока их не начнут использовать по прямому назначению. Возникает вопрос - а как же быть, например, владельцам сателлитов, которые специально создаются, раскручиваются, наполняются читабельным контентом только для того, что бы быть монетезированными с помощью бирж ссылок? Тут есть несколько советов, самый главный из которых - это продавать ссылки умеренно, т.е. не злоупотреблять продажей. К примеру, если вы владелец жирного сателлита (скажем 100 страниц), то оставьте, хотя бы половину страниц без ссылок (просто не активизируйте их при добавлении в биржу). Разумеется, это напрямую скажется на заработке, но, в то же время, вы не получите пеналти в виде АГСа или, во всяком случае, существенно снизите такой риск. Еще момент, если модерация продаваемых ссылок осуществляется вами вручную, то выставляйте высокие цены на продаваемые линки - это не пустит на ваш сателлит мусор, который Яндекс очень не любит. И последнее - при продаже ссылок учитывайте еще и другие факторы, про которые речь идет ниже. 

2. Возрастной критерий сайта. 

Про то, что возраст ресурса (регистрация домена) имеет важное значение для СЕО известно всем. Как показывают наблюдения, именно возрастные показатели влияют так же и на попадание сайта под АГС. Установлено, что риск попадания под фильтр у старых сайтов (т.е. находящихся в индексе более года) намного ниже, нежели у только что созданных ресурсов. Как следствие следует помнить, что регить сателлит на бирже и активно продавать с него ссылки можно только после того, как ему исполнить хотя бы 8-9 месяцев. Лучше всего подождать год, а уже потом приступать к манимейкерству. Про фактор возраста сайта и его связь с АГС написано в сети немало - вы без труда можете нагуглить эту информацию в более существенном объеме. 

3. Число входящих ссылок на ресурс относительно к исходящим ссылкам является еще одним фактором, который учитывается АГС фильтром. 

Возможно, это и не самый существенный фактор, но было замечено, что под АГС часто попадали ресурсы, которые были уличены в резком увеличении исходящих ссылок. Иными словами, ситуация выглядела так - на сайт никто не ссылается, однако же он ссылается на кучу других сайтов. Таким образов видно, что веб-мастеру следует пытаться сохранять более или менее сбалансированное соотношение между исходящими ссылками и входящими. Еще одно наблюдение касательно вышеизложенного звучит приблизительно следующим образом - если сайт только создан и не имеет хоть каких-то показателей тИЦ (т.е. входящих ссылок) + начинает активно использоваться для продажи линков, то вероятность попадания под АГС почти сто процентная. Вывод прост - трудимся на ниве наращивания тИЦа и уже только после этого добавляем его в сапу. 

4. Количество уникальных посетителей на сайте в немалой степени влияет на АГС. 

Этот факт тоже установлен посредством многочисленных опытов и, по всей видимости, его вполне можно отнести в разряд "существенных факторов". Сайты, которые имеют сносный трафик, попадают под АГС намного реже по сравнению с ресурсами, которые трафика не имеют. Поскольку Яндекс считает трафик по количеству переходов со своей выдачи, то настоятельно рекомендуется раскрутить сателлит хотя бы по минимальным низкочастотным запросам и поиметь хоть какой-то трафик с Яндекса. Так будет лучше, поверьте. Разумеется, для этого потребуется читабельный (или хорогий графический) контент, который будет интересен посетителям. Еще одна рекомендация - для тех, кто имеет трафик на сателлитах - поставить счетчик от Яндекса, который, хоть и косвенно, но будет свидетельствовать в пользу того, что сайт полезен и АГСу не подлежит.

5. Уникальный контент. 

Тут дело обстоит следующим образом и наличие добротных оригинальных текстов на сайте - это только видимая часть айсберга. Понятное дело, что контент следует иметь уникальный - это очевидно и всем давно известно. К примеру, большинство сателлитов, которые создавались в 2008-09 годах, вылетели моментом из индекса, попав под АГС, только потому, что имели копипаст-контент. Сейчас ситуация почти не изменилась, но выявилась одна интересная и очень неприятная особенность - дело в том, что фильтр АГС ведется и на дублированный контент на одном и том же сайте! Что это значит? Все просто - выяснилось, что АГС накладывается на сайты, которые в силу своей конструкции дублировали свои страницы, т.е. страницы не были уникальны относительно друг друга! Чаще всего это происходит не по вине веб-мастера, а исключительно из-за конструкции движка сайта (например, CMS Wordpress очень неудачно сделана именно в плане дублежа имеющегося конетента). Ситуация выглядит следующим образом - допустим, вы сделали пост и он автоматически появляется не только на странице самого поста, но и на: странице коментов, на главной странице, в разделе календаря, на странице тегов (а если тегов к одному посту много, то и дублей будет столько же!), ну и т.п. Именно вот такое дублирование контента напрямую влияет на вероятность попадания под АГС - это проверенный факт. Панацея от такой напасти имеется - следует закрывать для индексации ненужные страницы (к примеру, посредством robots.txt можно закрыть теги, календарь и т.д, а оставить только основные урл с постами).
Ну а теперь немного информации из непроверенных источников. Иногда среди факторов, которые влияют на наложение АГС, называются еще и вот какие моменты:
- Использование традиционных движков, на которых чаще всего делаются говносайты. Иными словами, предполагается, что Яндекс подозрительно относится, скажем, к Wordpres или CMSimple - сайты на этих CMS находятся в зоне риска;
- Отсутствие текстового контента на страницах или его незначительное количество;
- Автоматическое и неестественное размещение контента на сайте (т.е. текст разбит на блоки и они похожи друг на друга);
- Клонированность сателлитов - предполагается, что Яндекс накладывает АГС, если его алгоритм выявляет сеть из говносайтов;
- Короткое время пребывания на сайте посетителей.
Существует еще ряд неподтвержденных факторов, но думается, тут мы и остановимся. 

Ну и напоследок немного про то, что же делать, если ваш сайт попал под АГС. Допустим, произошла ошибка в алгоритме фильтра, и ваш белый сайт попал в бан. Такое, к сожалению, бывает. 

Первое - это не впадать в отчаяние. Проанализируйте для начала свой ресурс относительно всего того, что было сказано выше. Если вы уверены, что сайт попал под АГС совершенно, что называется, ни за что, то следует за него начать бороться. Что это значит, думается понятно - писать в сапорт Яндекса. Более чем реально, что Платон вам ответит положительно, извинится и фильтр будет снят. Интересный факт - оказывается, популярная социалка news2.ru одно время находилась под АГС - фильтр был снят, как только администраторы ресурса обратились в Яндекс.