Сюда помещены статьи про seo и вообще про то как начинать создание своего ресурса в сети, полезные для начинающего вебмастера, так сказать, основы.
Все статьи подобраны и написаны, исходя по большей части из собственной практики . некоторые статьи затрагивают терминологию SEO, некоторые рассказывают знания необходимые для стартапа своего проекта, ну а некоторые приведены просто чтобы задуматься, а это как известно полезно. Статьи поделенына несколько категорий (Основы СЕО,О Доменах, О Хостинге, О Контенте, О Трафике ), и каждый раздел поможет сделать вам шаги в создании своего сайта и освоении поисковой оптимизации.
Что такое сайт
Как показывает практика, базовые знания являются одним из самых важных моментов в любом деле, а сайтостроение и все что с ним связанно, не является исключением из этого правила. В данной статье мы поговорим про понятие "вебсайт" - дадим определение, проанализируем самые простые принципы функционирования веб-ресурсов, классифицируем сайты по различным параметрам, а также поговорим об истории сайтостроения. Весь материал написан исключительно для новичков и, как следствие, не претендует на полноценное исследование, но тем не менее, мы постараемся в сжатой форме дать максимум полезных сведений.
Итак, приступим!
По классическому определению, которое можно найти во многих учебных пособиях посвященных вебу, понятие сайта раскрывается следующим образом: веб-сайт - это совокупность цифровых документов (страниц, файлов) в компьютерной сети, доступ к которым осуществляется по уникальному адресу (IP-адрес, доменное имя). Сам же термин позаимствован русским языком из английского - website: web - "сеть" и site - "место" и буквально может переводиться как "место в сети".
В принципе, на сегодняшний день, можно смело утверждать, что совокупность всех веб-сайтов как раз таки и составляет тот самый Интернет в котором мы в данный момент находимся, а он, в свою очередь, представляется не чем иным, как всемирной планетарной базой данных. Доступ к вебсайтам, размещающихся на веб-серверах, осуществляется посредством специально созданного протокола (правила) называемого http, а техническая реализация связи между страницами отдельно взятого сайта реализована при помощи технологии гиперссылок (язык HTML). В равной степени это относится и к совокупности веб-страниц в Интернете - гиперссылка с одного сайта переправляет посетителя на другой ресурс и тем самым становится наглядно видно, что Интернет - это большая и безграничная паутина состоящая из гиперссылок (нити) и узлов (веб-сайты).
История Вебсатов
Принято считать, что первым вебсайтом был info.cern.ch и появился он в 1990 году. Создателем страницы именуется Тим Бернерс-Ли (Tim Berners-Lee) и первое, что было опубликовано на той странице - это описание принципа работы World Wide Web, протокола HTTP и языка HTML. Впоследствии этот сайт был превращен в каталог и на сегодняшний день он используется, как музейная страница.
Как понятно, все технические средства для появления первого веб-сайта появились значительно раньше - так например, для этого заранее был разработан гипертекстовый браузер и сервер. Иными словами, на сегодняшний день однозначно известно, что Тим Бернерс-Ли фактически является основателем главных технологий всемирной паутины - HTTP, URI/URL и HTML. Более того, созданный им Консорциум Всемирной Сети (World Wide Web Consortium) является основным источником стандартов Интернета.
Ну и в заключение этого маленького исторического очерка следует отметить, что теоретическая база под такие понятия как "веб-сайт" и "интернет" была подведена еще в конце 40-х годов 20 века и особую роль в этом процессе играли такие личности, как Ванневар Буш, Теодор Нельсон и Даг Энгельбарт.
Классификация веб-сайтов
Классифицировать сайты, казалось бы, легко, однако же, если заняться этим вопросом всерьез, то откроется немало коллизийных моментов, что моментально внесет некоторую путаницу и послужит причиной споров. Лично на наш взгляд классифицировать веб-сайты можно исключительно основываясь на ряде ограничительных категорий. Так, например, сайты можно классифицировать по их физическому расположению - локальные (местная сеть) и общедоступные (Интернет) или же по природе их содержания - динамические (материал сайта формируется автоматически на сервере и зависит от запроса пользователя) и статические (выдача сайта конечному пользователю заранее определена администрацией).
Однако же, одна из самых значимых классификаций - это разделение сайтов по типу размещенной на них информации и, как следствие, целям, которым они служат. Здесь ситуация обстоит следующим образом - несмотря на то, что в сети существует не один миллион веб-сайтов, прослеживается весьма наглядно разделение их по назначению. Давайте же вкратце, перечислим эти категории!
1. Визитка. Такие сайты чаще всего имеют одну (реже - несколько) страниц и предназначены для того, что бы репрезентовать личность владельца сайта. Владельцем может быть не только физическое лицо (фотография, имя, отчество), но и организация (название, схема проезда, перечень услуг). Иными словами, сайты-визитки - это полноценные цифровые визитные карточки. Иногда можно встретить сайты, которые имеют несколько (или более) страниц с функционалом визитной карточки - там могут размещаться резюме, отзывы и т.п.
2. Корпоративные сайты. Сайты, которые содержат полный свод информации касательно деятельности той или иной компании и наделены функциональными инструментами (поиск по услугам, галереи, примеры, прайс-листы и т.п.) именуются корпоративными ресурсами. На таких сайтах могут находится не только формы для регистрации клиентов и прочие атрибуты "серьезных" ресурсов, но еще и закрытые разделы, созданные специально для внутреннего пользования работников компании. Как видно, от визитки такой ресурс отличается не только функционалом, но и предназначением.
3. Интернет-магазины. На сегодняшний день это одна из самых популярных категорий веб-сайтов - такие ресурсы могут быть основаны на сложных алгоритмах специально разработанных под конкретную целевую аудиторию, равно же они могут действовать и на простых платформах. Главная отличительная черта сайта-магазина - возможность прямо в интернете заказать требующийся товар из каталога и оплатить его получение.
4. Тематические сайты. Сразу же после возникновения Интернета и победоносного его шествия по планете, тематические сайты стали расти, как грибы после дождя. Можно даже сказать, что создатели тематических ресурсов были пионерами в сайтостроении. В классическом понимании, тематический сайт - это ресурс, который посвящен определенному предмету исследования (Вторая Мировая Война, Раскрутка Сайта, Автомобили, Музыка и т.п.). В настоящее время тематические сайты тесно переплетены с другими категориями ресурсов и многие классификаторы выделяют Тематические сайты в отдельную категорию Информационных сайтов.
5. Веб-сервисы. Такие сайты созданы для того, что бы оказывать те или иные услуги в рамках сети Интернет. В настоящее время, в силу широкого распространения веб-сервисных шаблонов, практически каждый желающий, может создать свой собственный веб-сервис (например, социальную сеть) и предоставлять те или иные услуги неограниченному количеству пользователей. Самыми популярными веб-сервисами, являются поисковые системы, почтовые сервисы, блогерские платформы, файло-обменные сервисы, форумы и социальные сети.
6. Игровые сайты. Это отдельная категория веб-сайтов, которая на данном этапе развития может совмещать в себе не только такие функции как социальная сеть или форум, но даже выступать в качестве полноценного магазина. Например, игра Герои очень наглядно демонстрирует мощь потенциальных возможностей игрового ресурса.
7. Блоги. Этой категории сайтов посвящена специальная статья на нашем ресурсе - тут , однако же, если быть кратким, то блог - это просто напросто более или менее часто обновляемый тематический авторский сайт, которому присуща очень мощная социальная компонента, именуемая "возможностью оставлять комментарии к постам". На сегодняшний день, количество блогов зашкаливает за невероятную отметку и можно с уверенностью сказать, что это один из самых популярных видов сайтов в сети Интернет.
8. Информационный сайт. Чаще всего информационные сайты выделяют в отдельную категорию из-за того, что информация, которая на них появляется, носит авторский и, что не менее важно, хронологически значимый характер. Например, сайты предоставляющие сводку новостей за определенное время (мировые новости, финансовое состояние в стране и т.п.) имеют определенные источники поступления информации (журналисты, новостные агенства и т.д.), что напрямую связанно с расторопностью, финансовыми возможностями и заинтересованностью администрации ресурса. Как следствие, большинство информационных сайтов находятся в жесткой конкуренции по отношению друг к другу и представляют определенные интересы экономически заинтересованных лиц. Электронные СМИ - синоним информационных сайтов.
9. Порно-сайты. Ресурсы, публикующие на своих страницах порнографию, являются самыми популярными сайтами в мире - об этом говорит не только количество "порно-запросов" в поисковых системах, но и колоссальное количество самих ресурсов. На сегодняшний день нельзя определить точно, сколько порно-сайтов существует в сети по той простой причине, что конкуренция в среде сайтостроителей данной ниши чрезвычайно высока и наблюдается очень нестабильная динамика появления и удаления таких сайтов.
На этом мы покончим с классификацией и перейдем еще к одному важному моменту, который следует обязательно понять, дабы свободно ориентироваться в теоретическом понимании интернет-пространства.
Доменное имя.
Как известно, каждый веб-сайт имеет свое уникальное имя. Нельзя, допустим, набрать адрес site.info и попасть на два разных сайта - каждый ресурс имеет уникальный адрес и даже, если адреса внешне схожи, то различие в них скрывается в последнем разделе (после точки) - info, com, net, biz, ru и т.д. Дабы не морочить читателю голову занудными объяснениями из разряда, что такое DNS, gTLD, ccTLD, идентефикация областей и т.п. мы проиллюстрируем структуру имени сайта на простом примере самого популярного сайта в Интеренете под названием wikipedia.
В обыденном смысле под термином домен понимается полное название сайта, которое видится в браузере. Однако же, на самом деле, полный адрес ресурса состоит из следующих компонентов - имя основного домена и имена всех остальных доменов в которых он расположен (их может быть несколько). Домены разделяются точками, и полный адрес русскоязычной Википедии выглядит следующим образом - ru.wikipedia.org. В данном случае, мы имеем дело с доменом третьего уровня (ru), входящим в домен второго уровня (wikipedia), который расположен в домене высшего уровня (org). Сам же высший домен org располагается в корневом домене, который названия не имеет.
Таким образом, мы видим, что благодаря доменным именам сайты идентифицируются в сети Интернет и представляются конечному пользователю в виде адреса состоящего из букв. Однако всегда следует осознавать, что буквенное название сайтов реализовано исключительно для удобства пользователей, т.к. изначально вся паутина основана на цифровых адресах (ip-адреса). Каждый сайт имеет свой уникальный ip-адрес, который преобразуется в буквенный эквивалент исключительно благодаря работе технологии DNS (Domain Name System - система доменных имён). Поскольку мы уже подошли к техническим моментам функционирования интернет пространства - что однозначно выходит за рамки нашего обзора! - не лишним будет напомнить читателю, что в публичном доступе существует масса информационных ресурсов, в которых совершенно доступно рассказывается про все эти тонкости. Как следствие, если вам действительно интересно узнать, как регистрируются, где размещаются и каким образом идентифицируются веб-сайты, то воспользуйтесь специальными разделами нашего сайта - Статьи про домены и Статьи про хостинг
Краткий словарь SEO терминологии
Апдейт (от англ. update) - обновление чего-либо, например "апдейт блога", "апдейт индекса поисковой системы" и т.п.
CMS (Content Management System) – программное обеспечение управления контентом. Синоним - "движок сайта". Более подробно про CMS смотрим тут
CTR (от click-through rate — показатель кликабельности) - соотношение числа кликов по баннеру или рекламному объявлению к числу показов, измеряющееся в процентах.
Cапа – (сленг) биржа ссылок SAPE.ru
Doorway (дор, дорвей) – специализированный сайт, основное предназначение которого - перенаправление посетителей на целевой ресурс посредством редиректа. Дорвеи оптимизируются под поисковые системы и на короткое время попадают в топ-выдачу поисковиков, где и собирают своих посетителей по высокочастотным запросам. Поисковые системы постоянно борются с дорвеями (посредством бана).
HTML (HyperText Markup Language — язык разметки гипертекста) — общепринятый язык разметки документов в Интернете. 99% веб-страниц создаются посредством языка HTML.
HTTP (HyperText Transfer Protocol — протокол передачи гипертекста) — правило (протокол) передачи информации в Интернете.
IP-адрес (айпи-адрес, от Internet Protocol Address) — уникальный цифровой идентификатор узла в компьютерной сети, созданной на основе протокола IP. В более узком смысле - адрес порта, при посредстве которого юзер заходит в Интернет.
MySQL (май-эс-кью-эль) — свободная система управления базами данных (СУБД), используется для хранения и выдачи данных на большинстве сайтов.
PageRank, PR, пэйдж-ранк - алгоритм ссылочного ранжирования, используемый поисковой системой Google. Более подробно про PR смотрим тут
URL (Uniform Resource Locator, Единый указатель ресурсов) - фиксированный адрес страницы в сети Интернет.
Абуза (от англ. abuse) – сленговый термин означающий жалобу на какие-то действия ("накатать абузу админу")
Адалт (от англ. adult — взрослый) все, что, так или иначе, связано с "тематикой для взрослых". Синоним термина "порно".
Адверт – вебмастер, занятый сливом трафика со своих ресурсов на платные сайты, имеющие партнерские программы (заработок на комиссии с платежей приведенных посетителей).
Админка – раздел сайта, из которого администратор управляет своим ресурсом.
Адсенс (Google Adsense) - контекстная реклама от корпорации Google. Подробно о заработке на Адсенс смотрим тут
Адурелка (от англ. add url) – сленговое название специальной веб-формы Яндекса для добавления новых сайтов в поисковой индекс.
Анкор (от англ. anchor) – текст ссылки. Крайне важный элемент в SEO.
Ап, апдейт (от англ. update) – обновление базы поисковой машины, которое приводит или к изменению позиции сайта в поисковой выдаче, или к изменению показателей сайта (тИЦ, PR).
Апрув (от англ. approve) – подтверждение на выполнение каких-либо действий, согласие. Чрезвычайно часто употребляется в партнерских программах.
Бан (от англ. ban) – удаление ресурса из индекса поисковой машины. Сайт существует, но через поисковую систему на него уже никто не попадает, т.к. поисковик вычеркнул сайт из своего списка. Существуют методы, посредством которых в бан можно загнать даже самый добропорядочный ресурс.
Баннер (от англ. banner) – один из видов графической рекламы в Интернете.
Беки, Бэклинки (от англ. Backlinks) – обратные ссылки на сайт, ответные ссылки.
Белый каталог – каталог, который ставит прямые ссылки на сайт (т.е. не используется технология редиректных ссылок). Чаще всего белыми каталогами являются те каталоги, которые не требуют обратной ссылки.
Бид (от англ. bid price) – цена клика по ссылке рекламодателя. Стоимость такого клика определяется исходя из ценности конкретного ключевого слова (кея).
Блог (от англ. blog) – сайт который построен по принципу дневника.
Блогер (от англ. blogger) – 1. пользователь, ведущий блог; 2. платформа для ведения блогов от Google.
Бот (Поисковой Робот, Spider, Паук) – специальная программа разработанная администраторами поисковой системы для того, что бы заносить в базу данных изменения, происходящие в интернете (появление нового контента на сайтах, изменение контента и т.п.). Данные, которые собирает бот, заносятся в индекс поисковой машины и впоследствии демонстрируются в выдаче.
Браузер (от англ. Browser) – компьютерная программа для просмотра сайтов. На сегодняшний день самым популярным браузером является Firefox.
ВИЦ (Взвешенный индекс цитирования) – один из показателей авторитетности веб-страницы. Высчитывается исходя из количества входящих сслок на конкретно взятую страницу с других ресурсов, которые, в свою очередь, тоже учитываются по "весу" и "значимости" в сети.
ВЧ – высокочастотный запрос; слово или фраза, которую чаще всего ищут пользователи поисковой системы.
Выдача – результаты, которые демонстрируются поисковой машиной по каждому конкретному запросу.
Генератор дорвеев – специальная программа создающая дорвеи. Чаще всего генерация происходит в полуавтоматическом режиме, но существуют и полностью автономные приложения. Наблюдается разделение генераторов на десктопные и серверные.
Гостевуха, гесты – специальный модуль позволяющий посетителям сайта оставлять сообщения. В современном интернете гостевухи являются уже анахронизмом и используются в основном спаммерами для получения дополнительных ссылок.
Говносайт (сленг) - сайт, который сделан не для людей, а для поисковиков. В большинстве случаев не содержит уникального контента и дизайна. Используется исключительно для зарабатывания денег путем размещения ссылок и усиленной демонстрацией рекламных объявлений.
Движок – сленговое наименование CMS (система управления контентом).
Денвер – локальный сервер поддерживающий PHP и MySQL. Используется для того, что бы без подключения к реальным серверам в Интернете создавать и отлаживать веб-сраницы.
Домен (от фр. domaine) – уникальный адрес сайта в сети Интернет.
Дорвейщик – лицо, занимающийся созданием дорвеев.
Дорген – тоже что и "генератор дорвеев"
ДСДЛ – сленговое сокращение означающее "делаем сайты для людей". Альтернативное сокращение СДЛ – "сайты для людей"
Зеркало - копия сайта или конкретной страницы. Может создаваться как для безопасности, так и в корыстных целях.
Зеркальщик – специальный бот (робот), который ищет копии сайтов и страниц.
ИЦ (Индекс Цитирования) – количественный показатель ссылок на конкретный сайт с других ресурсов.
Капча, CAPTCHA (от англ. Completely Automated Public Turing test to tell Computers and Humans Apart — полностью автоматизированный публичный тест Тьюринга для различия компьютеров и людей) - буквы и цифры которые требуется ввести пользователю для того, что бы где-либо зарегистрироваться, отослать сообщение и т.п. Применяется для защиты от ботов.
Клоакинг (от англ. to cloak - маскироваться) - специальная технология, посредством которой производится введение в заблуждение поискового робота. Чаще всего это выглядит так, что поисковику подсовывается одно, а посетителю другое (например, поисковику показывается качественный текст, а посетителю - реклама с оплатой за клик). Более подробно про этот метод читаем тут
Ключевые слова – слова, которые наиболее часто встречаются на сайте. Грамотный подбор ключевых слов приводит к тому, что сайт хорошо себя позиционирует в выдаче поисковика.
Контент (от англ. content — содержание) – совокупность материалов имеющихся на определенном сайте (графика, тексты, файлы и т.д.). Контент определяет ценность сайта не только для посетителя, но и для поисковых машин. Сайты с ценным контентом хорошо ранжируются в выдаче.
Копипаст (сленг) – любой текст, который не написан самостоятельно владельцем ресурса, а скопирован (copy - paste) с другого сайта.
Копипастер (от англ. copy paste) – сленговоре обозначение лица, которое ворует чужой текстовый контент.
Копирайтер (от англ. copywriter) – лицо, создающее уникальный контент. Один из способов заработка денег, профессия.
Куки (сленговое, от англ. HTTP cookie) - данные, которые автоматически создаются сервером и размещаемые на компьютере пользователя. Используются для таких целей, как статистика, аутентификация, хранение персональных настроек и т.п.
Линкопомойка – хаотичное нагромождение внешних ссылок на какой-либо странице. Сходны по смыслу - линкферма и ФФА (каталоги, которые позволяют размещать любые ссылки).
Морда – главная страница веб-сайта, место, куда посетитель попадает набрав доменное имя сайта. Ссылки с морды считаются самыми весомыми.
Мускул (сленговое) – база данных MySQL
Накрутка – специальные действия пользователей направленные на фальсификацию (чаще всего завышение) каких либо показателей сайта (рейтинг, посещаемость и т.д.).
Непот – специальный фильтр накладываемый на ресурс поисковой системой для уменьшения веса внешних ссылок. Про причины наложения непота читаем тут
Нуб (от англ. newbie) – “чайник”, лицо, которое не очень хорошо разбирается в каком-то вопросе.
НЧ – поисковой запрос, который встречается не часто. Синоним - "низкочастотник", "низкочастотный запрос".
Паг, пага (сленговое, от англ. page) - веб-страница, сайт.
Парсер (от англ. parsing) — программа автообработки текста. Чаще всего используется спаммерами для создания специальных веб-страниц или же для обработки поисковой выдачи.
Парсить — производить целенаправленную автообработку с целью нахождения нужных данных. Например, можно парсить выдачу поисковых данных на предмет рейтинговых показателей веб-страницы.
Паук, робот, бот - составная часть движка поисковой системы, которая осуществляет наблюдение за изменением контента сайтов, а так же производит сохранение требующихся данных на сервер поисковой машины.
Песочница, Sandbox - специальный поисковый фильтр (чаще всего используемый Гуглом), который призван занизить показатели только что созданных сайтов. Песочница присутствует и на других поисковиках. Дополнительная информация про это явление - тут
Плагиат – противоправная перепечатка и распространение чужих произведений без указания авторства. Попадает под нарушение Закона об Авторском Праве.
Плагин (от англ. Plug-in) – специальный программный модуль, который позволяет расширить функционал той или иной программы. В настоящее время очень широко распространены, к примеру, плагины для CMS.
Поисковый спам – всеразличный контент имеющийся в сети и созданный с целью привлечь поисковых ботов. Не представляющий никакой ценности для живого человека материал с сети.
Прогон – процесс регистрации сайта, на каких либо ресурсах с целью получения входящих ссылок. Чаще всего используются каталоги, форумы, блоги и т.п. В большинстве случаев прогон осуществляется специальными программами.
Прода, продакт (сленг, от англ. – productivity) – фактическое соотношение количества посетителей ресурса, к числу произведенных ими кликов по тем или иным объектам.
Прокси, Прокси-сервер (от англ. proxy) – специальный сервер, который обеспечивает анонимность пользователя. Существуют платные и бесплатные прокси-сервера.
Псевдо сателлит – небольшой сайт, созданный с целью заработка в интернете и не отличающийся качественным контентом.
Пузомерка – специальные картинки-счетчики на которых демонстрируются показатели тИЦ и PR сайта, а так же другие статистические данные (рейтинги, посещения в сутки, за час и т.п.)
Рама (сленговое) – поисковая система Рамблер.
Ранжирование – многоуровневый процесс, который происходит в недрах механизма любой поисковой машины. Основная цель ранжирования - построение адекватной (релевантной) поисковому запросу выдачи.
Ратио (от лат. ratio) – фактическое соотношение числа посетителей ресурса и количества произведенных ими кликов по определенным объектам на сайте. Чаще всего используется в интернет-торговле (соотношения посетителей и продаж).
Редирект (от англ. redirect) – принудительное перенаправление посетителя сайта на какой-либо другой ресурс. Чаще всего используется в адалте и дорвеестроении. Редирект осуществляется при помощи специального скрипта.
Релевантность (от англ. relevant) – фактическое совпадение данных введенных в поисковик с отображаемыми результатами произведенного поиска.
Рефка, рефссылка – специальная ссылка с идентификатором на какую-либо партнерскую программу размещенная на сайте реферала. На сервере партнерской программы происходит учет перехода и, как следствие, производится начисление комиссионных на реферальский счет.
Сабмит, субмит (от англ. submit - регистрация) – регистрация какого-либо ресурса в поисковиках, каталогах, форумах и т.п., что приводит к увеличению посещаемости сайта. Различают категорию «автосабмита» - в этом случае регистрация сайта производится посредством специальных автоматизированных средств (программы, скрипты и т.п.). В настоящее время автосабмит очень близок к понятию "проспамиться".
Сайт упал, падение сайта – полная или частичная недоступность сервера, на котором расположен веб-сайт. Выражение используется еще и в том случае, когда сайт начинает очень медленно работать.
Сапер (сленговое) – манимэйкер, который зарабатывает на сапе (биржа ссылок sape).
Саттелит – специальный сайт, который создается с целью дополнительного содействия при продвижении основного ресурса. Чаще всего используют т.н. "сети саттелитов", т.е. несколько сайтов вспомогательного назначения. Саттелит может иметь уникальный контент и вполне хорошо позиционироваться в выдаче.
СДЛ (сленговое) - сайт для людей
СЕО, SEO (от англ. Search Engine Optimization - оптимизация сайта для поисковой системы). Что такое SEO оптимизация и зачем она нужна, смотрим тут
СЕРП, SERP – загружаемые в браузер пользователя результаты поиска по ключевым словам. Чем выше сайт поднимается в выдаче, тем больше на него заходит посетителей.
Сидж скрипт, (CJ) - специальный скрипт, который анализирует поведение посетителя ресурса и совершает определенные действия по его передаче какому-либо из трейдеров. Чаще всего используется в адалте. Посредством сиджей посетитель может часами блукать по одной и той же трейдерской сети.
Синонимайзер – скрипт или программа, генерирующая текстовый контент из уже имеющегося контента посредством перестановки слов в предложении и использования синонимов. Часто тексты подвергаются синонимизации для создания дорвеев, говносайтов и т.п.
Сквозняк - тип ссылки, которая демонстрируется на всех страницах определенного сайта.
Ским – в терминологии SEO это слово используется для определения типа трафика. Чаще всего ским-траф идет с сиджей-скриптов. Широко распространена оптовая покупка таких посетителей.
Скрипт (от англ. script) – программа или программный файл-сценарий. Подробно о скриптах, можно прочитать тут
Сниппет (от англ. snippet - лоскут, отрывок или фрагмент) - короткая текстовая информация про контент сайта, которая появляется в результатах поисковой выдачи (сразу же под урл-адресом страницы). Подробно про сниппеты и про их правильное позиционирование читаем тут
Софт (от англ. soft) – программа, программное обеспечение. На сленге - софтина или софтинка.
Спам (от англ. spam) - в сео этим термином обозначается все, что, так или иначе, связанно с массовым и автоматизированным продвижением какого-либо ресурса посредством размещения ссылок.
Сплог (от англ. splog) – чаще всего сплогом именуют спамерский автонаполняемый сайт (или блог), который не отличается уникальным контентом и создан для манимэйкерства (продажа ссылок, демонстрация рекламы и т.п.).
СЧ – среднечастотный запрос, т.е. такой запрос к поисковой машине, который нельзя назвать высокочастотным, но и низкочастотником не являющийся.
Статистика запросов — количество обращений пользователей к поисковой системе по одному и тому же ключевому слову.
Съедено паг (сленговое) – количество страниц попавших в индекс поисковой машины.
Тематический каталог – специальный каталог, который создан с целью размещения ссылок определенной тематики. Ссылка с хорошего тематического каталога является очень ценной.
Титул (сленговое) - информация, которая внесена в тег title.
ТИЦ – тематический индекс цитирования используемый Яндексом. Является неким подобием гугловскому пэйдж ранку.
Тлог – специализированный блог на котором нет (или практически нет) текстового контента, но присутствует медиа-контент (например, картинки, онлайновое видео и музыка).
ТОП – максимально высокие показатели в поисковой выдаче. Чаще всего попадание в ТОП - это демонстрация сайта по определенному ключевому слову в первой десятке сайтов.
Трамплин – специальная страница или даже отдельный одностраничный сайт, основная задача которого - демонстрировать ссылку на какой-то определенный ресурс.
Трастранк (от англ. trust) – категория уровня доверия (определяемая автоматически), которая присуждается определенному сайту поисковой машиной. Иногда, трастранк распространяется и на свободные домены.
Траф, траффик (от англ. traffic) – количество посетителей на каком-либо сайте. Так же используется как категория посещаемости.
Трейд, трейдить, трейдинг – процесс обмена посетителями между ресурсами. Чаще всего трейдинг производится посредством специальных скриптов.
Уникальный контент – какая-либо информация доступная для ознакомления только на определенном ресурсе. Чаще всего предназначается для людей, но может быть генерируема и для поисковых роботов.
Уникальный посетитель – посетитель, который впервые попал на тот или иной ресурс за какой-то определенный интервал времени. Чаще всего "уникальность" посетителя определяется по ай-пи адресу или кукис-файлам.
Фид – в сео-терминологии это та страница, на которую попадает посетитель дорвея, после того, как произошел редирект.
Фрихост (от англ. free host) – бесплатный хостинг, место где можно бесплатно открыть сайт. Характерный пример бесплатного хостинга – яндексовский народ.ру.
Хит – сео-категория, которая определяет единицу просмотров страниц отдельными посетителями. 1 просмотр страницы 1-м посетителем = 1 хиту.
Хитбот – специальный скрипт или программа, которая накручивает рейтинги, пузомерки, показы и клики. Чаще всего применяется в спаме.
Хомяк – (сленговое, от англ. homepage) - домашняя страничка, персональный сайт какого-либо человека, музыкального коллектива и т.п.
Хост – в сео, это один уникальный посетитель на каком-либо ресурсе.
Хрумер (Xrumer) – одна из самых мощных спамерских программ, которая получила широкое распространение в Интернете. Подробно про Хрумер можно узнать тут
Цитируемость – категория количества и качества ссылок на определенный сайт с других ресурсов. Цитируемость используется поисковыми алгоритмами и представляется в виде т.н. Индекса цитируемости. Чаще всего значение выражается в цифрах.
Юзабилити (от англ. Usability) – категория, определяющая то, насколько удобен и понятен для посетителя тот или иной ресурс. Считается одним из важнейших моментов в интернет-маркетинге. Подробно про юзабилити сайтов можно прочитать тут
ЯД (сленговое) – один из сервисов Яндекса именуемый "Яндекс Деньги"
Яка (сленговое) – каталог сайтов от поисковой системы Яндекс. Находится тут Считается, что попадание сайта в этот каталог принесет хорошие показатели в выдаче Яндекса.
Яха (сленговое) - поисковая система Yahoo.
Яша (сленговое) – поисковая система Яндекс.
Индексирование поисковыми машинами
Индекс поисковой машины - это база данных сетевых ресурсов, которая постоянно обновляется и модифицируется с учетом того, насколько часто поисковые боты обнаруживают новые страницы или перемены в уже существующих сайтах.
Перемена - это изменение контента, появление новой ссылки или изменение системы ссылок. Если сайт новый, то необходимо некоторое время, что бы он был проиндексирован поисковиком - только после этого можно надеяться повстречать его в результатах поиска. Период индексации занимает от 2 дней до двух недель и тут все зависит от конкретной поисковой системы.
К примеру, по статистическим данным, самая высокая скорость индексации у Googl'а. Индексация происходит следующим образом - бот находит страницу и сравнивает ее содержимое с тем, что ему о ней известно. Если страница только народилась на свет, то она появляется в индексе, как новая страница, если же в ней старый контент, то бот отправляется по своим делам дальше и ничего не делает. Схематически все выглядит просто.
Но для того, что бы сайт максимально был проиндексирован, необходимо создать дружеский для бота интерфейс, а это значит - код сайта должен удовлетворять параметрам, которые позволят боту забраться по ссылкам с Index-страницы в глубь сайта. Для этого надо стремиться придерживаться ряда условий, среди которых надо назвать, во-первых, глубину ссылок. Очень хорошо индексируются страницы, где, даже до самой дальней, можно добраться за три перехода с главной, а если такой возможности нет, то полезно создать карту сайта.
Во-вторых, если Вы хотите, чтобы была проиндексирована вся страница целиком, то выгодно ее делать не очень объемной, т.к. бот индексирует только первые 100-200 кб. текста. Ну и в третьих - поисковики не всегда понимают скрипты и, если навигация ими перегружена, то бот, скорее всего, не станет хорошо индексировать сайт в глубину. Поэтому, целесообразно сделать альтернативные html-ссылки. Напоследок надо сказать, что чем больше внешних ссылок имеет сайт, тем быстрее он будет переиндексирован.
Что такое SEO оптимизация и зачем она нужна
Допустим, Вы заимели сайт и все что вам необходимо для дальнейшего счастья - это тонны посетителей. Дальше просто - или Вы что-то продаете, или вы чем-то делитесь, или же меняетесь. Вариантов получения полезностей от поиска контактов в Интернете посредством своего сайта не счесть.
Но тут возникает проблема - сайт есть, более того - Ваш сайт висит на отличном домене и содержимое сайта, ну просто вне конкуренции, но сайт никому не известен, за исключением Вас и тех, кому Вы об этом персонально сообщили. Сайт, попросту, не находится поисковыми системами, т.к. та технология, которая используется поисковиком, не обращает внимание на существование вашего детища.
Ну а если робот и находит Ваш сайт, то он сидит себе где-то на одной из последних страниц вылезающих на запрос и, что бы до него добраться, надо потратить уйму времени, погружаясь по гиперлинку все глубже и глубже (может статься, что и до самого дна). А кто просматривает тьму линков, которые выдает, например, Google, выжимая из Интернета все возможное? Как тут быть? Как сделать так, что бы сайт появлялся на первой странице, что б он был вторым, третьим или, что самое приятно, первым в списке?
На помощь приходят технологии SEO оптимизации. Если расшифровать эту аббревиатуру (SEO), то это сама по себе - Search Engine Optimization, что переводится как Поисковая Оптимизация. Именно грамотное использование всех (а иногда только даже некоторых) приемов seo оптимизации веб-сайта для поисковых систем, приводит к тому, что популярность сайта растет и, соответственно Вы, добиваетесь того, ради чего, собственно говоря, его и создали - на сайт заходит народ и этот народ начинает контактировать с вами персонально. А если еще учесть и рекламный фактор, который в настоящее время просто нельзя сбрасывать со счетов, то Ваш сайт становится потенциальным источником дохода - ведь за эффективную рекламу можно поиметь не мало денег.
Таким образом можно сказать что seo оптмизация это то что помогает сделать так чтобы сайт был виден в поисковых машинах и находился по профильным запросом людей, желательно конечно в топе серпа, то бишь на первой-второй, максимум третьей странице поиска. И На bigfozzy.com мы публикуем и будем публиковать полезные знания как это сделать.
Классификация методов SEO
Существует три вида SEO - белый, серый и черный. Деление на такие группы весьма условно, но оно есть - во всяком случае, в специализированных статьях часто упоминаются именно эти три термина.Различие между ними настолько размыто, что на современном этапе, практически одни и те же действия, только слегка отличающиеся друг от друга, могут привести к тому, что сайт будет забанен поисковиком или же, наоборот, получит дополнительный трафик.
Белая оптимизация - это самый надежный, но в то же время очень долгий, нудный и кропотливый процесс. Для того, что бы все развивалось успешно, необходимо провести подготовку, а это значит, сделать действия, среди которых необходимо назвать: грамотное компилирование семантического ядра сайта, составление списка соответствия страниц запросам и еще кое-что (в меру потребности, конечно). Без хорошей подготовки, качественное продвижение, увы, не получится.
Затем следуют упорные действия в следующих направлениях - создание новых страниц на сайте, обогащение их свежим контентом, подгонка внутренней ссылочной структуры, подгонка html кода, обмен ссылками с сайтами, которые близки по тематике, ну и, разумеется, формирование внешних ссылок на сайт посредством публикации в специализированных каталогах. Все это - белая оптимизация. Существуют специальные фирмы, занимающиеся этим видом деятельности. По статистике, что бы раскрутить сайт подобным образом необходимо где-то около шести-семи месяцев. При этом, цены колеблются от 700 баксов в месяц и выше:
Черная оптимизация - это не что иное как спам, во всяком случае, по факту. Эффективная раскрутка, но существует прямо пропорциональная опасность пострадать. Чаще всего черная оптимизация осуществляется в форме т.н. дорвеев (англ. doorway), но есть и масса других методов. Идея заключается в том, что бы пользователь, перемещающийся по Интернету, независимо от своей воли очутился на раскручиваемом сайте. Разумеется он не получает того, что ему было нужно, а поисковая система оказывается в положении виноватого, т.к. именно она, на вполне конкретное ключевое слово, выдала не релевантный с точки зрения юзера адрес.
Поэтому поисковики, оснащены и постоянно оснащаются новыми фильтрами, которые идентифицируют, скажем, те же самые дорвеи и банят все ссылки, которые есть в них. Как результат - черной оптимизацией можно не только быстро раскрутить свой сайт, но и получить прямо противоположный эффект, а это значит - быть внесенным в черный список поисковой системы и потерять все, что было до этого в плане раскрутки. В черной оптимизации, помимо дорвеев с редиректом, используют: невидимый текст, клоакинг и непотистский спам.
Серая оптимизация - балансирование на грани запрещенного и дозволенного. В зависимости от конкретного случая или небольшого отличия оптимизационного приема, оптимизация может быть расценена поисковиком, как вполне нормальное явление или же, как злобная черная оптимизация. Чаще всего, под определение серой оптимизации подпадают методы размещения ссылок и работа с ними. Но имеются и другие способы - искусственное увеличение количества ключевых слов на странице, хитрости и заморочки в отношении тегов:..
SEO Копирайтинг
Любой веб-ресурс, который поставил своей целью раскрутиться и занять высокое положение в избранной нише, должен регулярно пополняться новой информацией, которая будет цеплять посетителя за живое и не давать ему расслабиться - эта аксиома известна любому веб-мастеру и на претворение в жизнь концепции наполнения сайтов ценным контентом ежеминутно по всему миру тратятся весьма приличные денежные средства. И немудрено - коммерческий проект нуждается в текстах, которые будут ориентировать посетителя относительно достоинства того или иного товара; развлекательному сайту необходимо постоянное обновление устаревших материалов, а новостной ресурс стремится к тому, что бы актуальная новость была подана не только своевременно, но и увлекательно, причем так, как не сумели этого сделать конкуренты.
Таким образом получается, что оригинальный контент это не только залог успеха для владельца определенного сайта, но и источник постоянного дохода, для тех, кто имеет склонность к написанию статей, обзоров и прочих текстовых материалов на определенную тему. В этой небольшой статье, мы рассмотрим такое явление, как SEO-копирайтинг и дадим практические рекомендации для тех, кто желает посвятить свое время этой увлекательной работе, а эта работа - если подойти к ней серьезно - вполне может стать альтернативой основной специальности, какая бы она не была. Но обо всем по порядку.
Профессия копирайтера (copywriter) появилась задолго до появления Интернета и деятельность лица, которое на нее подрядилось, заключалась в том, что бы создать такой слоган или презентационный текст, который бы не оставил потребителя равнодушным к рекламируемому и продвигаемому на рынок товару. Иными словами, копирайтер (в классическом понимании) - это человек, который способен выдавать слоганы откладывающиеся в памяти и побуждающие совершить определенные действия. Это определение сохранило свое значение и до сих пор, но в настоящее время, копирайтером чаще принято называть такого человека, который умеет писать тексты на определенную тематику (чаще всего узкую) и, как правило, - на заказ. Деятельность копирайтера - это источник постоянно наращиваемого контента для любого, даже мало-мальски раскрученного сайта, который стремится сохранить и, конечно же, преумножить свои позиции. Таким образом, на вопрос, - "Где взять контент?" - очень часто можно услышать, - "Обратитесь к копирайтеру".
Копирайтером же можно родиться, но можно им и стать - тут все зависит от конкретно взятого человека и его способностей. Способности же могут проявиться сразу, а могут дать о себе знать и через какое-то время. Но, факт остается фактом, если человек открыл в себе такой дар, как способность связно излагать свои мысли и в последствии фиксировать их на каком либо носителе - то ему, без сомнения, может подойти работа которой посвящена настоящая статья. На сегодняшний день в Сети существует немалое количество сервисов, функционирующих по принципу бирж - копирайтеры присылают свои тексты, которые вывешиваются на сервере в ознакомительном режиме, а желающие приобрести эти тексты, выкладывают денежку и становятся обладателями уникального контента для своего сайта. Адреса же таких систем, через которые осуществляется купля-продажа уникального контента, без особого труда можно найти обычным поисковым запросом - мы же не станем приводить конкретные url, лишь по той простой причине, что это может быть расценено, как рекламный ход, ну а наш ресурс не занимается продвижением каких-либо сайтов.
Задача которая стоит перед копирайтером, чаще всего состоит из двух элементов. Во-первых, это непосредственно текст - текст, который интересен, оригинален и информативен. Ну а что касается второго элемента, то тут необходимы особые пояснения. Как известно, киберпространство и принципы по которым оно развивается, в немалой степени, основано на результатах выдачи поисковых машин по ключевым запросам пользователя - ведь, в настоящее время, именно поисковики являются самым главным источником целевого трафика практически на любые ресурсы, доступные для просмотра.
По этой причине, оптимизация конкретно взятого сайта для поисковых систем, является одним из самых главных факторов, который в конечном итоге и приводит посетителей именно на эту страницу. Оптимизация сайта под поисковик (т.н. сео-компания) включает в себя не только организацию правильной перелинковки страниц внутри сайта, не только размещение внешних ссылок на сайт с других, более весомых, ресурсов и, не только постоянное наращивание объема подобных ссылок, а еще и грамотную расстановку ключевых слов в тех текстах, которые будут проиндексированы поисковиком и доступны для всеобщего просмотра. По этой причине, люди, которые стремятся к тому, чтобы тот или иной текст был обнаружен ботом и занял свое место в выдаче, большое внимание уделяют именно оптимизации текстовых материалов под конкретные ключевые запросы - ведь именно они являются источником целевого трафика.
Таким образом, вторая задача, стоящая перед копирайтером, заключается в том, что бы результатом его работы был текст в котором, помимо чисто информативного аспекта, содержалось бы еще и необходимо-оптимальное количество ключевых слов, предназначенных специально для поискового бота. Из вышесказанного видно, что копирайтеру необходимо уметь не только писать тексты на заданную тему, а еще и оптимизировать их в зависимости от того под какие ключевые запросы они будут в перспективе подпадать. Если коснуться темы ключевых слов, то объема настоящей статьи вряд ли хватит для того, что бы подробно описать все хитрости на которые идут матерые копирайтеры с целью достижения оптимального сочетания информативности текста и плотности содержащихся в нем ключевых слов. Отметим только, что критерий в размере 3-8% является, по распространенному мнению, оптимальным - при таком насыщении текст не приобретет тафтологичного характера и будет проиндексирован поисковиком именно так, как нужно. Но на "распространенное мнение" полагаться, как известно, не стоит - мир находится в динамике и поисковые алгоритмы не являются исключением из этого правила.
Поэтому, все зависит только от эксперимента, опыта и практики - эти три кита укажут нужное направление. SEO-копирайтинг - это поле деятельности в котором, без сомнения, есть где развернуться человеку, который обладает такими качествами, как фантазия, усидчивость и, конечно же, сообразительность. Доходы же копирайтеров рунета, как и везде в мире, разнятся прежде всего от того, насколько копирайтер профессионален. Разумеется, копирайтер имеющий что предъявить клиенту в доказательство вышеназванного качества, получит за написание статьи несравненно больше, чем новичок, который только набирает обороты. Минимальная же цена за текстовый материал размером 1 килобайт чаще всего составляет от 2 до 4 долларов - следовательно, профессионал, за такой же объем, попросит уже от 9-ти и выше. Но тут все зависит от конкретного заказчика и от его возможностей - начинающим рекомендуется начинать с 2 долларов и, набравшись опыта, плавно поднимать планку.
А теперь немного об особенностях, свойственных копирайтингу как таковому. Написание оригинального текста может быть осуществлено различными путями. Например, оригинальный текст можно взять из головы, основываясь исключительно на личных знаниях, которые в ней и хранятся, а можно, переделав чью-то оригинальную статью на свой лад, создать абсолютно новый контент, который будет авторским творением, ничем не уступающим оригиналу - ни по объему авторских прав, ни по прочим критериям. Такой вид копирайтинга получил название "реврайтинг" (rewrighting) и, судя по всему, его можно отнести к вполне самостоятельному направлению в копирайтинге. Реврайтеры, опять таки, могут быть поделены на две категории, а именно - реврайтеров, которые переделывают статьи основываясь на материалах опубликованных на их родном языке и на тех, которые берут за основу публикацию на иностранном, но по такой теме, которая еще не была освещена, например, в рунете.
Таким образом, если обладать знанием иностранного языка на достаточно приемлемом уровне и при этом уметь хорошо переводить тексты на родной язык, то можно с выгодой для себя применять эти навыки, посредством переводов различных актуальных интервью или, допустим, обзоров касающихся востребованных, но не распиаренных до сего часа, товаров. Как видите, поле деятельности не очерчено никакими рамками - достаточно выбрать какой либо из вариантов и взяться за работу. Ну, а если еще учесть и такой факт, что с каждым днем все больше и больше рунетовских сайтов стремятся обзавестись версией на иностранном языке, то вышеназванный копирайтер в любой момент может переквалифицироваться на переводчика и в момент творческого кризиса ему не будет грозить безработица.
В заключение же хотелось бы сказать и о том, что в профессии копирайтера есть еще одна позитивная изюминка - и она ценится намного больше чем деньги, которые платятся за работу. Позитив состоит в том, что занимаясь написанием статей на заказ, копирайтеру приходится сталкиваться с неимоверным количеством информации в которую надо вникнуть, а также переварить. Получается, что копирайтер - это эрудированный человек, который постоянно, волей или не волей, развивает свой кругозор, приобретает новые знания и не останавливается в своем развитии. Тут может возникнуть вопрос - неужели, копирайтеру платят деньги за то, что он познает этот мир?
Непотистский спам (непот)
По своей сути, Интернет - это социальное явление. Поэтому, все процессы, которые происходят в сети, так или иначе уже происходили в других сферах общественной жизни. Как говорится - все новое, есть это хорошо забытое старое. В этой статье мы поговорим немного про "непотистский спам" - уже чего-чего, а непотизма в сети хватает. Ну а, если бы его не было, то кто знает, как бы выглядел Интернет....
Термин берет свое начало от латинского слова Nepotis, что в переводе значит "внук" или "племянник". Во времена нового времени (XV-XVI вв), римские папы весьма хорошо отдавали себе отчет в том, что чем больше родичей удастся привлечь на свою сторону, тем сильнее и надежней будет папское положение.
Понятие "Непотизм", Википедия определяет предельно просто - "раздача папами римскими ради укрепления своей власти доходных должностей, высших церковных званий или земель близким родственникам." Папский непотизм - нарицательное явление, а последующее развитие человеческого общества, лишний раз продемонстрировало то, насколько коварны и умны были ватиканские наместники. Сегодня мы можем наблюдать все прелести непотских технологий и схем не только в политике, но и в более приземленных областях - на работе, например.
Разумеется, Интернет тоже не стал исключением - как уже было сказано в самом начале этой статьи, непотизма в сети хоть отбавляй. Один из ярких примеров непотистских методов в Интернете - это раскрутка сайтов посредством влияния на поисковой индекс непотистскими ссылками.
Все началось с того, что в далеком 2001 году Google начал использовать новую технологию определения релевантности (соответствия) сайтов и страниц поисковым запросам. Помимо контентного наполнения сайтов (ключевые слова и т.п.) был придуман еще один алгоритм определения степени важности того или иного сайта - количество и качество входящих ссылок (т.е. ссылок с других сайтов).
Иными словами - чем больше и, что самое главное, качественнее ссылки, ведущие на сайт — тем выше этот сайт показывается в поисковых системах. Конечно же - сразу возник соблазн меняться ссылками "налево и на право" - некоторые извлекали из этого выгоду, некоторые делали это просто - по велению души или из энтузиазма. Ну а, профессиональные веб-мастера, которые разрабатывали сайты для клиентов, ставили на них ссылки со своих уже давно расскрученных ресурсов, чем весьма существенно продвигали клиентские сайты в поисковиках.
На сегодняшний день конфликты между поисковыми система и оптимизаторами - обыденное дело. Оптимизаторы заинтересованы в том, что бы раскручиваемые сайты появлялись в топ-выдаче по тем или иным ключевым словам, а поисковики затачиваются так, что бы не дать возможности сайтам, которые, скажем, имеют контент в виде рефератов и курсовых работ продвигать другие сайты к этой теме не имеющих никакого отношения - например, подшипники, холодильники и т.п.
Дело в том, что в современном Интернете раскрутка уже давно поставлена на хорошие рельсы с коммерческой ориентацией. Появление бирж ссылок - яркое тому подтверждение. Сейчас, допустим, мало-мальски ценному сайту (которому без году неделя) получить 1000 входящих ссылок с 1000 сайтов - раз плюнуть. Зарегистрировавшись на том же Sape.ru и введя на баланс энную сумму, мы в автоматическом режиме сможем прикупить входящих линков столько сколько душе угодно - благо веб-мастеров, которые продают рекламные площадки с весьма хорошими показателями PR и ТиЦ пруд пруди.
Конкуренция в сфере бирж ссылок - огромная и выбор рекламных площадок - поражает. Теперь смотрите, каким боком все это касается вас - уважаемые начинающие сеошники. Раскрутка сайтов непотскими ссылками - палка о двух концах. С одной стороны все выглядит очень даже неплохо - либо мы продаем рекламную площадку и зарабатываем на ней, либо мы раскручиваем свой сайт при помощи покупки непотистских линков на биржах.
Но есть и другая сторона медали - можно получить очень серьезные неприятности (в виде бана, пеналти и пессимизации) от поисковых машин. Уже ни для кого не секрет, что сайты участвующие в автоматических системах обмена ссылками высоко не поднимаются в результатах поиска - поисковики очень быстро идентифицируют такие схемы и накладывают т.н. "непот-фильтр". Та же ситуация и с биржами – сайт, который активно участвует в продаже ссылок может получить не только оплеуху от поисковиков в виде пеналти (понижение тИЦ и PR), но и более серьезные неприятности.
Помним, что фильтры против спам-ссылок постоянно совершенствуются и нет никаких оснований предполагать, что тот баланс в оптимизации, который имеет место быть на сегодняшний день будет длиться постоянно.
Непотистские фильтры от поисковиков - очень большая опасность и для того, что бы на них не нарваться рекомендуем следовать нехитрому правилу. Вот оно: Не стремитесь получить сразу и все. Если есть возможность заработать денег с продажи ссылок, то сделайте это спокойно и без фанатизма. Помните, что перегрузка сайта непотскими ссылками может привести к катастрофе. В качестве "мерного стакана" используйте метод обычного мониторинга тех сайтов, которые уже продают ссылки и находятся на высоких позициях в поисковой выдаче. Проанализируйте их дизайн, общее количество ссылок, а так же Page Rank главной и внутренних страниц. В совокупности такая информация по нескольким успешным сайтам, может дать очень хорошую пищу для размышления.
Факты говорят о том, что на непотском спаме можно зарабатывать (равно, как и продвигаться в поисковиках), но не следует жадничать - лучше меньше да лучше. Рекомендуем вам самую лучшую на сегодняшний день систему купли-продажи ссылок в рунете - Sape.ru.
Что такое АГС от Яндекса
В данной статье мы разберем один из фильтров поисковой системы Яндекс называемый АГС. По имеющейся информации этот фильтр имеет две модификации, причем это официально подтверждено администрацией Яндекса - фильтры именуются АГС-17 и АГС-30. Хронологически 17-й АГС появился раньше 30-го и на сегодняшний момент фильтрацией некачественных, по мнению Яндекса, сайтов занят именно 30-й номер (более совершенный с точки зрения алгоритма).
Название АГС имеет два значения:
Во-первых, АГС это один из видов гранатометов находящийся на вооружении армии Российской Федерации (Автоматический Гранатомёт Станковый). Как и понятно, Яндекс не случайно взял эту аббревиатуру для своего фильтра ибо такой фильтр и должен быть сродни гранатомету (17я модель АГС сейчас усовершенствованна и солдатам выдают уже новую модификацию - 30-ю).
Ну а во-вторых, в сеошных кругах фильтр АГС расшифровывается весьма поэтично - "Анти Говно Сайт". Таким образом, данный фильтр (в идеале) должен резво бороться с говносайтами заполонившими рунет.
С названием мы вроде бы разобрались, а это значит, что давайте теперь непосредственно поговорим про сам фильтр - в чем его суть, почему его так бояться и постоянно обсуждают.
Цель, которую преследовал Яндекс разрабатывая вышеназванный фильтр, очень проста - борьба с сайтами, которые не делаются для людей, а создаются исключительно для зарабатывания денег в сети (в основном - это продажа ссылок) - в народе такие ресурсы называют ГовноСайты, что, конечно же, не всегда соответствует истине.
Результат, который мы имеем после применения фильтра к сайту тоже, весьма и весьма, прост - из индекса поисковой системы вылетают почти все страницы, за исключением морды. Правда иногда, после наложения фильтра, наблюдается присутствие в индексе еще нескольких страниц, но сути дела это не меняет. Еще момент - если веб-мастер добавляет на сайт новые страницы, то в индексе они, увы, не появляются вообще - они попросту не индексируются ботом. В принципе, действие АГС-30 можно расценить как бан, но, как видите, есть небольшой нюанс - морда сайта не пропадает из базы поисковика.
Фильтр АГС начал применяться еще в 2008 году и где-то к концу 2009 посредством его наложения Яндексу удалось завалить немало реальных говносайтов, которыми в то время буквально кишил рунет. Однако у фильтра выявился немалый косяк - дело в том, что под него попадали и качественные сайты, и сайты, которые были сделаны не то что бы совсем "для людей", но говносайтами их тоже назвать было нельзя. В частности, АГС очень немало хлопот доставил - и, надо сказать, доставляет до сих пор - владельцам сателлитов, на которых поднимается неплохое бабло посредством продажи ссылок.
На сегодняшний день сеошные форумы переполнены обсуждениями касающимися принципа работы алгоритма АГС и, конечно же, полезными советами из серии "как не попасть под АГС". Внесем же и мы свою лепту в эту копилку.
Итак.
Алгоритм фильтра, как это и понятно, засекречен - ведь если Яндекс поведает рунету правила по которым банятся говносайты, то последних появится еще больше, т.к. веб-мастера просто обойдут фильтр. Однако же, кое-какая официальная информация касательно АГС имеется. К примеру, Яндекс рассказал, что наложение АГС - это результат совпадения нескольких факторов, которые по отдельности никоим образом на попадание сайта под фильтр не влияют. Именно совокупность, сумма таких факторов, приводит к наложению пеналти в виде АГС.
Давайте же рассмотрим эти факторы по отдельности!
Прежде всего следует оговориться, что списка причин по которым сайт попадает под АГС в официальных Яндексовских публикациях вы не найдете - это, опять таки, большой секрет большой компании. Однако же веб-масетрами уже давно выявлено ряд закономерностей, которые со 100 процентной вероятностью приводят к наложению АГС. Так же существуют факторы, которые с 50-ю процентной вероятностью влияют на попадание под фильтр. Существуют и чисто теоретические предположения, за достоверность которых поручиться нельзя никак. Все, что касается АГС, основано исключительно на опыте и собственных измышлениях веб-мастеров.
Сто процентное влияние, приводящее к созданию условий для наложения на сайт АГС-фильтра это:
1. Торговля спам-ссылками на сайте.
Не будем вдаваться в подробности и объяснять, что представляет из себя "продажа ссылок" (ведь если вы читаете эту статью то, конечно же, сто раз слышали про сапу и прочие биржи ссылок), а скажем только одно - продажа ссылок является самым существенным фактором и в 90% случаев под АГС попадают именно те сайты, которые очень ретиво монетезируются посредством продажи прямых ссылок. Уже точно известно, что даже самые деревянные говносайты мирно существуют в индексе до тех пор, пока их не начнут использовать по прямому назначению. Возникает вопрос - а как же быть, например, владельцам сателлитов, которые специально создаются, раскручиваются, наполняются читабельным контентом только для того, что бы быть монетезированными с помощью бирж ссылок? Тут есть несколько советов, самый главный из которых - это продавать ссылки умеренно, т.е. не злоупотреблять продажей. К примеру, если вы владелец жирного сателлита (скажем 100 страниц), то оставьте, хотя бы половину страниц без ссылок (просто не активизируйте их при добавлении в биржу). Разумеется, это напрямую скажется на заработке, но, в то же время, вы не получите пеналти в виде АГСа или, во всяком случае, существенно снизите такой риск. Еще момент, если модерация продаваемых ссылок осуществляется вами вручную, то выставляйте высокие цены на продаваемые линки - это не пустит на ваш сателлит мусор, который Яндекс очень не любит. И последнее - при продаже ссылок учитывайте еще и другие факторы, про которые речь идет ниже.
2. Возрастной критерий сайта.
Про то, что возраст ресурса (регистрация домена) имеет важное значение для СЕО известно всем. Как показывают наблюдения, именно возрастные показатели влияют так же и на попадание сайта под АГС. Установлено, что риск попадания под фильтр у старых сайтов (т.е. находящихся в индексе более года) намного ниже, нежели у только что созданных ресурсов. Как следствие следует помнить, что регить сателлит на бирже и активно продавать с него ссылки можно только после того, как ему исполнить хотя бы 8-9 месяцев. Лучше всего подождать год, а уже потом приступать к манимейкерству. Про фактор возраста сайта и его связь с АГС написано в сети немало - вы без труда можете нагуглить эту информацию в более существенном объеме.
3. Число входящих ссылок на ресурс относительно к исходящим ссылкам является еще одним фактором, который учитывается АГС фильтром.
Возможно, это и не самый существенный фактор, но было замечено, что под АГС часто попадали ресурсы, которые были уличены в резком увеличении исходящих ссылок. Иными словами, ситуация выглядела так - на сайт никто не ссылается, однако же он ссылается на кучу других сайтов. Таким образов видно, что веб-мастеру следует пытаться сохранять более или менее сбалансированное соотношение между исходящими ссылками и входящими. Еще одно наблюдение касательно вышеизложенного звучит приблизительно следующим образом - если сайт только создан и не имеет хоть каких-то показателей тИЦ (т.е. входящих ссылок) + начинает активно использоваться для продажи линков, то вероятность попадания под АГС почти сто процентная. Вывод прост - трудимся на ниве наращивания тИЦа и уже только после этого добавляем его в сапу.
4. Количество уникальных посетителей на сайте в немалой степени влияет на АГС.
Этот факт тоже установлен посредством многочисленных опытов и, по всей видимости, его вполне можно отнести в разряд "существенных факторов". Сайты, которые имеют сносный трафик, попадают под АГС намного реже по сравнению с ресурсами, которые трафика не имеют. Поскольку Яндекс считает трафик по количеству переходов со своей выдачи, то настоятельно рекомендуется раскрутить сателлит хотя бы по минимальным низкочастотным запросам и поиметь хоть какой-то трафик с Яндекса. Так будет лучше, поверьте. Разумеется, для этого потребуется читабельный (или хорогий графический) контент, который будет интересен посетителям. Еще одна рекомендация - для тех, кто имеет трафик на сателлитах - поставить счетчик от Яндекса, который, хоть и косвенно, но будет свидетельствовать в пользу того, что сайт полезен и АГСу не подлежит.
5. Уникальный контент.
Тут дело обстоит следующим образом и наличие добротных оригинальных текстов на сайте - это только видимая часть айсберга. Понятное дело, что контент следует иметь уникальный - это очевидно и всем давно известно. К примеру, большинство сателлитов, которые создавались в 2008-09 годах, вылетели моментом из индекса, попав под АГС, только потому, что имели копипаст-контент. Сейчас ситуация почти не изменилась, но выявилась одна интересная и очень неприятная особенность - дело в том, что фильтр АГС ведется и на дублированный контент на одном и том же сайте! Что это значит? Все просто - выяснилось, что АГС накладывается на сайты, которые в силу своей конструкции дублировали свои страницы, т.е. страницы не были уникальны относительно друг друга! Чаще всего это происходит не по вине веб-мастера, а исключительно из-за конструкции движка сайта (например, CMS Wordpress очень неудачно сделана именно в плане дублежа имеющегося конетента). Ситуация выглядит следующим образом - допустим, вы сделали пост и он автоматически появляется не только на странице самого поста, но и на: странице коментов, на главной странице, в разделе календаря, на странице тегов (а если тегов к одному посту много, то и дублей будет столько же!), ну и т.п. Именно вот такое дублирование контента напрямую влияет на вероятность попадания под АГС - это проверенный факт. Панацея от такой напасти имеется - следует закрывать для индексации ненужные страницы (к примеру, посредством robots.txt можно закрыть теги, календарь и т.д, а оставить только основные урл с постами).
Ну а теперь немного информации из непроверенных источников. Иногда среди факторов, которые влияют на наложение АГС, называются еще и вот какие моменты:
- Использование традиционных движков, на которых чаще всего делаются говносайты. Иными словами, предполагается, что Яндекс подозрительно относится, скажем, к Wordpres или CMSimple - сайты на этих CMS находятся в зоне риска;
- Отсутствие текстового контента на страницах или его незначительное количество;
- Автоматическое и неестественное размещение контента на сайте (т.е. текст разбит на блоки и они похожи друг на друга);
- Клонированность сателлитов - предполагается, что Яндекс накладывает АГС, если его алгоритм выявляет сеть из говносайтов;
- Короткое время пребывания на сайте посетителей.
Существует еще ряд неподтвержденных факторов, но думается, тут мы и остановимся.
Ну и напоследок немного про то, что же делать, если ваш сайт попал под АГС. Допустим, произошла ошибка в алгоритме фильтра, и ваш белый сайт попал в бан. Такое, к сожалению, бывает.
Первое - это не впадать в отчаяние. Проанализируйте для начала свой ресурс относительно всего того, что было сказано выше. Если вы уверены, что сайт попал под АГС совершенно, что называется, ни за что, то следует за него начать бороться. Что это значит, думается понятно - писать в сапорт Яндекса. Более чем реально, что Платон вам ответит положительно, извинится и фильтр будет снят. Интересный факт - оказывается, популярная социалка news2.ru одно время находилась под АГС - фильтр был снят, как только администраторы ресурса обратились в Яндекс.
Что такое HTML5
В этой статье из раздела "для новичков" мы в простых словах поговорим о пятой версии языка HTML, которая в настоящее время находится в процессе разработки. Однако, несмотря на то, что HTML5 еще далек от совершенства, его работоспособность уже признана повсеместно.
Как известно, HTML (HyperText Markup Language) - это язык разметки веб-страниц. Его главная задача - интерпретация передаваемой по сети информации в виде читабельного контента. Посредством HTML мы видим интернет именно таким, какой он есть на сегодняшний день, т.е. красивым, цветастым и многогранным. Ну а появление новой версии HTML - это бесспорно великое событие, которое еще долгое время будет будоражить умы интернет сообщества.
Давайте же, для начала, остановимся на отличиях пятой версии от четвертой - разумеется, сделаем мы это кратко, дабы уложиться в формат ликбезного материала.
Итак. Первым делом следует отметить тот факт, что HTML4 был полностью закончен в конце 90-х годов, а работа над HTML5 началась относительно недавно - где-то в 2005-м. Разработчики новой версии HTML основное внимание сконцентрировали на вопросе совместимости новинки со всеми популярными на сегодняшний день типами браузеров - как следствие, никаких сверх революционных перемен в плане демонстрации веб-страниц не произошло, но, зато, потенциальные способности отображения контента были расширенны.
К примеру, в HTML5 можно наблюдать определенное количество новых элементов - появились section, nav, header, article и footer. Напомним, что ранее существовал только один элемент - div. Стандартный img, теперь дополнен тэгами audio и video. Один из самых важных атрибутов id дополнен tabindex и repeat. Помимо этого полностью упраздняются давно вышедшие из моды элементы типа font, center и т.п.
Поскольку главный упор сделан именно на бесконфликтность новой версии языка с движками старых браузеров, то предусмотрена возможность полного игнорирования такими просмотрщиками правил отображения заданных в HTML5, что ни в коем случае не сказывается на качестве визуализации загруженного контента.
Теперь давайте немного остановимся на структуре и разметке языка HTML5.
Как известно, старая версия полностью опиралась на элемент div. Иными словами, все, что было связанно с сайдбарами, навигационными панелями, менюшками, разделами и т.п. подчинялось именно этому элементу. В HTML5 появились альтернативные варианты, что, вне всякого сомнения, сделало структуру веб-страницы более наглядной и функциональной.
header (не путаем с head) - можно задавать не только заголовок страницы, но и подзаголовки;
nav - элемент предназначен исключительно для ссылок навигации, что в высшей степени удобно при создании внутристраничной навигации по сайту, а так же и для межстраничных переходов.
section - данный элемент интерпретируется как секция общего пользования. Допустим, его можно использовать тогда, когда требуется в заранее определенном блоке текста задать специальный заголовок или параграф.
article - посредством этого элемента можно задать независимые зоны текстового наполнения страницы. К примеру, выделение важных публикаций из архива, трансляция текущих новостей, последние сообщения на форуме и т.д. и т.п. Помимо этого, элемент article можно использовать и в обычном режиме - т.е. определять им весь контент страницы.
footer - самый нижний элемент страницы или же "завершающий блок секции". Представляется в виде колонтитула. Там могут размещаться информационные сообщения касательно вышеопубликованного контета (например, копирайты) и т.п. вещи.
Теперь несколько слов про новшества, которые касаются элементов блокового уровня. Таких новшеств замечено несколько:
aside - этот контейнер можно использовать для материалов, которые считаются вспомогательными. К примеру, цитаты, сноски отделенные от основного повествования, колонки с пояснительным текстом и т.п.
dialog - контейнер, позволяющий красиво оформить диалог.
figure - контейнер, позволяющий описать любое графическое изображение с текстовой подписью.
А как насчет нескольких слов касательно мультимедийных элементов?
В принципе, уже давно ожидалось, что такие элементы рано или поздно появятся - и вот, на сегодняшний день, мы уже имеем video и audio. Основная задача этого новшества - более тесная интеграция мультимедийного контента с основной частью веб-страницы. Другой момент - посредством этих элементов отпадает потребность в использовании сторонних продуктов (плагинов) для просмотра и прослушивания мультимедийного контента.
Касательно интерактива, HTML5 тоже не остался в долгу - тут тоже появились новые элементы. Вот некоторые из них:
details - посредством этого элемента можно паковать необязательную информацию.
datagrid - используется для демонстрации данных таблицы. От стандартных таблиц отличается тем, что посетитель страницы может самостоятельно управлять отображением информации, т.е. убирать таблицу, перемещать колонки и т.п.
menu, command - элементы, которые непосредственно относятся к визуальному представлению всех менюшек имеющихся на сайте.
Еще одно новшество - это элементы отвечающие за уровень текста. К примеру, в новой версии можно задавать такие параметры, как, скажем, прогресс какого-либо процесса (progress), динамическое отображение времени (time), дат и т.п.
Ну и в заключение парочка слов про новшества связанные с API!
Первым делом бросается в глаза расширение существующих DOM интерфейсов и добавление новых API - данные можно хранить в браузере, реализована технология Drag-and-drop, стало доступным рисование в онлайне и т.д.
Думается, что на этом мы поставим точку, т.к. наша цель была просто познакомить начинающего веб-мастера с новой технологией и не в коем случае не загружать его технической, сложно перевариваемой информацией. Если вас действительно интересует структура нового языка HTML5 и вы готовы приступить к его изучению, то без труда нагуглите огромное количество полезных материалов!
Что такое аптайм сервера
В этой статье мы немного поговорим про чрезвычайно важный момент, который следует всегда учитывать при выборе хостинг-провайдера. Вообще, тема аптайма сервера, на котором размещен тот или иной сайт, уже очень давно мусолится в Интернете и с каждым годом информация по этому поводу все более и более актуализируется. Но, впрочем, обо всем мы поговорим по порядку.
Итак. Что же такое аптайм сайта? Как и понятно, термин происходит от англ. uptime, а на русский язык его можно перевести, как время доступности сайта. Как вариант под аптаймом понимают время беспрерывной работы хостинга на котором размещается сайт. И то, и другое значение равнозначно. На сегодняшний день можно смело утверждать, что аптайм является основным критерием по которому можно судить о том, сколь качественно функционирует хостинг. Именно на этот параметр следует всегда обращать свое внимание!
Существует еще один замечательный термин - downtime. Значение тут прямо противоположное, т.е. это промежуток времени, когда ваш сайт (в большинстве случаев по вине хостинг-компании) недоступен для пользователя.
Для удобства в среде сайтостроителей и хостеров выработана процентная шкала, по которой всегда можно определить время аптайма того или иного сайта. В идеальном раскладе, аптайм сервера должен составлять 100%, но, оказывается, что даже такие монстры, как Yahoo, Microsoft и Google не в состоянии обеспечить 100 процентную доступность своих порталов. Однако же показатель 99.9% (и даже выше) является весьма реальным для уважающего себя хостера. И, кстати сказать, пусть вас не смущают такие мелочные перепады в процентном соотношении - поверьте, это очень важно. И об этом мы сейчас поговорим.
Первым делом следует помнить, что если аптайм хостинга ниже чем 98%, то размещать свой сайт в таком месте, категорически недопустимо по одной простой причине - вы не сможете ничего достичь в плане поисковой оптимизации.
Проиллюстрируем это на примере. Допустим, вы хотите зайти на какой-либо сайт, но, вместо этого вам выдается сообщение гласящее, что, дескать "Request timed out. Please, try again later". В принципе, в этом нет ничего страшного - сайт временно недоступен и мы можем зайти на него попозже. Однако же, даже при таком узком интересе к сайту (1 посетитель) уже могут начаться проблемы - к примеру, на этом сайте у вас размещена какая-то важная информация и ее необходимо получить прямо сию же минуту. Однако же, все это цветочки, по сравнению с тем, что в реале угрожает "упавшему" по вине хостера сайту со стороны поисковых машин. Если вы еще не в курсе, то знайте - поисковые алгоритмы уделяют одно из самых ключевых значений при ранжировании ресурсов именно аптайму индексируемого сайта. Многие очень любят повторять, что, скажем, контент превыше всего или же талдычат о том, что очень важно иметь тематические ссылки и т.п., однако же, большинство людей, которые действительно не понаслышке интересуются СЕО, знают - именно надежность хостинга является важнейшим показателем в плане перспектив развития проекта. Ну а ситуация, когда сайт совершенно недоступен на протяжении 20-25 минут может обернуться совершенно брутальным понижением в ранжировании по весомым ключевым словам! Существует и другая тенденция - достаточно только переехать с плохого хостинга на хороший и сайт сразу же лезет в гору и совершенно уверенно обходит конкурентов. И это - реальные факты!
Таким образом, если вы действительно хотите достичь успеха в продвижении своего ресурса, то обязательно следует наиподробнейшим образом разузнать про то, насколько хорошо себя зарекомендовал выбранный вами хостинг в плане аптайма. В принципе, вы нигде не встретите объявление, по типу, "хостинг с низким аптаймом - дешево и сердито". В ста процентах случаев хостеры всегда говорят, что аптайм у них совершенно в норме, т.е. чуть ли не 100%. Как показывает практика - многие из них, мягко выражаясь, лукавят.
При выборе хостинга всегда надо ориентироваться на самые высокие показатели аптайма, т.е. если взять шкалу от 99.9% до 98%, то идеальным вариантом будет именно 99.9%. Чем выше - тем лучше! Про хостинги, аптайм которорых ниже 98% речь не идет вообще - если оказалось, что ваш сайт находится на таком ресурсе, то следует немедленно сматывать удочки и искать альтернативу.
Ну а теперь у нас запланирован ответ на вопрос - каким же образом можно узнать аптайм хостинг-провайдера? Конечно же, узнать его можно и делается это посредством мониторинга доступности сайта.
Сразу следует сказать, что каждый хостинг предоставляет информацию относительно своего аптайма. Однако же, если вы думаете, что этим данным можно доверять, то глубоко ошибаетесь - ни одна хостинговая компания не заинтересована в том, что бы клиенты знали про ее глюки. Иными словами, объективной картины касательно аптайма от хостера вы не получите - абсолютно все хостеры в своей рекламе говорят про высокий аптайм своих серверов.
Но не все так плохо! В любой сфере бизнеса существует независимый аудит и в деле контроля аптайма хостеров сей аудит осуществляют специальные сервисы. Особо отметим, что таких сервисов немало и, в принципе, если вам интересно найти альтернативы нижепредставленным ресурсам, то можете воспользоваться Гуглом.
Итак, Pingdom
Среди веб-мастеров этот сервис считается, наверное, одним из самых-самых. Более того, контора существует весьма продолжительное время, что тоже - очень и очень хорошо. Кстати, помимо аптайма, Pingdom осуществляет еще и ряд других, не менее полезных мониторинговых проверок - скорость загрузки веб-ресурсов, проверка доступности сайта с различных дата-центров и т.д. и т.п.
Веб-мастерам предлагается три варианта мониторинга - Business, Basic и Free account. Для рядового рунетовского сайта, как кажется, подходит именно бесплатный вариант и на нем-то мы и остановимся. Что нам может дать фри-аккаунт на Pingdom? Во-первых, мы получаем возможность мониторить доступность хостера с частотой до 1 минуты, т.е. каждую минуту будет посылаться запрос касательно того, жив ли наш ресурс. Ну и, во-вторых, администрация сервиса обязуется автоматически высылать на е-мэйл сообщение о падении сервера. Как вам такой вариант? Ну а если у вас завалялась лишняя копейка и имеется много сайтов, то можете и поэксперементировать с платными возможностями - за 10 и 40 баксов вы сможете мониторить от 5 до 30 сайтов соответственно.
Теперь еще один хороший аптайм чекер - Uptime Robot
Как сказано на заглавной странице ресурса - "Monitors your websites every 5 minutes, totally free." Надо сказать, что да, действительно, так оно и есть - сервис совершенно бесплатен и позволяет мониторить аптайм хостера с 5-ти минутным интервалом. Как уже понятно, главное отличие Uptime Robot от вышеописанного Pingdom - интервал запросов. В принципе - это очень существенный минус! Если Pingdom посылает запросы через каждую минуту, то вероятность выявить глюки у хостера намного выше, нежели тогда, когда соблюдается 5-ти минутный интервал! Ведь именно в эти 2-3-4 минуты сайт может быть недоступен, а мы про это так и не узнаем!
Тем не менее, и, несмотря на такой минус многие веб-мастера выбирают именно Uptime Robot! Почему? А все очень просто - контора позволяет совершенно бесплатно мониторить до 50 сайтов и, так же само, как могучий Pingdom, присылает сообщения о сбоях со стороны хостера на ваш е-мэйл.
Таким образом, подведем итог.
Показатели аптайм чрезвычайно важны - они во многом определяют то, как ваш сайт позиционируется в Интернете. Огромное значение аптайм приобретает именно в наше время, когда трафик в сети уже никто не считает и можно запросто создавать тяжелые онлайн-проекты (к примеру, мудреные игровые порталы и т.п.). Аптайм напрямую сказывается на ранжировании сайтов и посему следует несколько раз присмотреться к хостинг-провайдеру, с которым вы собираетесь дружить, прежде чем разместить там оригинальный контент и прочие полезные вещи.
Что такое линкбейтинг
Термин Линкбейтинг (от англ. link - ccылка; bait - приманка) появился в лексиконе русскоязычных сеошных форумов где-то в начале 2008 года и на сегодняшний день весьма активно используется во многих публикациях, которые так или иначе касаются продвижения сайтов. В принципе, сейчас нереально установить, кто первым ввел в обиход это словцо, однако можно с уверенностью утверждать, что одним из первых его стал использовать знаменитый Matt Cutts - к примеру, пост озаглавленный SEO Advice: linkbait and linkbaiting датирован еще январем 2006 года
В данной статье мы вкратце поговорим про Линкбейтинг - дадим описание самого термина и перечислим основные характеристики его свойств.
Итак. Как обычно выглядит наращивание ссылочной массы в классическом понимании? Тут все просто - как правило, нам необходимо с кем-то (допустим, владельцем определенного ресурса) договориться о том, что бы он поставил на нас ссылку или же, второй вариант, создать взаимовыгодные условия - например, обменяться ссылками с тем или иным сайтом. Конечно, существуют и другие способы получения ссылок классическим путем, но суть у них одна - необходимо дать что-то взамен, не так ли?
В случае же с Линкбейтингом ситуация обстоит иначе - посредством реализации приемов, которые составляют инструментарий вышеназванной технологии, веб-мастер получает входящие ссылки без каких либо условий. Контент, который раскручивается, как бы приманивает ссылки и, тем самым, показатели его ранжирования неуклонно повышаются.
Мэт Каттс определяет термин link bate, как "все то, что интересно на столько, что бы привлечь внимание людей". Из этого можно сделать вывод, что Линкбэйтинг это совершенно неопределенная по своему масштабу технология, состоящая из множества приемов направленных на привлечение внимания целевой аудитории того или иного ресурса. В принципе, в ход может идти все что угодно и ограничений в таком виде как, допустим, "можно использовать только текстовый (или графический) контент" не существует - использовать можно все что угодно - и программные продукты и виджеты, и мультимедийные заманухи, и т.д. и т.п.
Суть Линкбейтинга - это получение естественных ссылок, т.е. таких ссылок, которые ставятся добровольно и исключительно по той причине, что контент нравится людям и они хотят им поделиться.
Тут следует сразу оговориться, что линкбейтинг весьма сильно напоминает еще один метод естественной раскрутки, т.н. Вирусный маркетинг. Но, тем не менее, если разобраться глубже, то понятие Линкбейтинга намного шире, чем Вирусный маркетинг и, поэтому, оно как бы обвалакивает Вирусные методы продвижения, как бы дополняет их.
В сеошных кругах мнение касательно линкбейтинговых методов весьма противоречиво. Например, существует категория сеошников, которые весьма негативно к нему относятся, но есть и такие, которые считают его побочным методом раскрутки и частенько сравнивают линкбейтинг со спамом. Основная же масса народа, который, так или иначе, связан с сео, считают, что именно линкбейтинг является отличной панацеей - несомненно, это отразилось и на том, что свои услуги по раскрутке сайтов именно в линкбейтинговом ключе ныне предлагает огромное количество контор.
Для объективности следует заметить, что линкбейтинг можно использоваться по разному - т.е. те люди, которые негативно воспринимают данный метод, по сути, тоже правы, ибо все имеет свою теневую сторону и от этого никуда не деться.
Ну а теперь мы вкратце перечислим те методы, которые наиболее часто встречаются в Линкбейтинге - несмотря на то, что Мэтт Катс систематизировал их еще в середине 2000-х годов, они до сих пор актуальны и, будем надеяться, еще долго будут находить себе применение:
Создание подкастов. Вне всякого сомнения, именно подкасты являются весьма хорошей приманкой при продвижении определенного контента. Поскольку на сегодняшний день благодаря бурному развитию широкополосного интернета стало возможным делать не только аудио-подкасты, но еще и выдавать в эфир видео-нарезки, то, вне всякого сомнения, тема подкастов еще очень долго не сойдет с конвейера и будет стабильно привлекать немалое количество естественных ссылок.
Размещение уникальных инструментов, запуск интересных игр. В данном случае речь не идет про то, что надо вкладывать денежки в разработку и создание программных продуктов. Суть метода - использование уже готовых приложений, которых, к примеру, очень много существует в природе в виде плагинов (для Firefox, Wordpress и т.д. и т.п.).
Использование вирусного видео. Эта тема весьма широка и поэтому мы вас отошлем к специальным материалам посвященным созданию вирусных роликов. В принципе, достаточно просто прогуглить и вы найдете немало ценных статеек посвященных данному вопросу. Специалисты считают, что именно Вирусное видео является одним из главных источников естественного трафика в сети. Минусом метода является постоянная зависимость администратора ресурса от этого самого вируса - нужно постоянно искать новые ролики, дабы трафик держался на приемлемом уровне.
Организация конкурсов с раздачей призов. Эта технология тоже чрезвычайно эффективна, однако зачастую может оказаться весьма затратной. Тем не менее, призы бывают разные и в силу каких либо обстоятельств в ваших руках могут оказаться, допустим, инвайты или премиум акки каких либо сервисов. Рекомендуется устраивать конкурсы не менее 2-х раз на месяц.
Публикация интервью с известными личностями. В силу того, что люди очень сильно интересуются тем, как живут и что поделывают выдающиеся личности, данный метод весьма хорошо привлекает трафик. Как показывает практика, известные персоны весьма охотно идут на контакт и всегда рады, что бы про них что-либо написали в паутине. Не упускайте же и вы свою возможность пропиариться!
Использование юмора Как и понятно, в данном случае речь идет про любые проявления юмора - не только черного или светлого, но, что суть самое главное, проявления его в любых форматах - видео, графика, текст и т.д. и т.п.
Реализация броских заголовков. Использую этот метод главное не переусердствовать. К примеру, спамовые заголовки (по типу "россия прощается с Леонтьевым" и т.п.) будут иметь обратный эффект и, конечно же, станут восприниматься как спам уже сразу же после того, как обнаружится подмена смысла. Всегда следует помнить, что контент превыше всего, а заголовок только помогает сориентировать траф в нужном направлении.
Создание специальных ресурсов касательно актуальных событий. К примеру, народ любит мусолить такие глобальные темы, как скажем, 2012 год, запрет распития пива на улице, запуск андронного коллайдера ну и т.п. Все это есть отличный повод привлечь траф. Допустим, данный метод отлично подходит для получения уников из тех же сателлитов.
На этом вроде бы и все, будем прощаться - объем статьи не позволяет залазить в дебри. Однако, мы искренне надеемся, что данный материал вам поможет в дальнейшем манимейкерстве и заставит изучить тему линкбейтинга в полном объеме на сторонних ресурсах. Главное, помните, что денег напечатано столько, что их хватит на всех. Не переставайте экспериментировать со своим контентом!
Индекс цитирования ресурса и Частота ключевых слов
Идея поиска информации, как в сети Интернет, так и в любой другой базе данных, представляет собой постоянно развивающуюся сферу деятельности и, чем дальше мы отодвигаемся от истоков, тем сложнее она представляется стороннему наблюдателю. Но разобраться никогда не поздно - сложного на самом деле ничего нет. Итак. Главное для человека, который что-либо ищет - это найти именно то, что ему необходимо. И, это главное, на языке поисковой службы, именуется релевантностью (англ. relevant). Под этим термином понимается соответствие запроса, который пользователь вводит в поисковую форму, и точность ответа, который выдает поисковая машина на этот же запрос. Для того, что бы Ваш сайт был найден поисковой машиной, необходимо понять, по каким параметрам она ищет и дать ей возможность слизать эту информацию. Есть два ключевых момента, которые влияют на конкретный результат поиска: первый - частота ключевых слов и, второй - индекс цитируемости.
Остановимся на первом моменте. Итак, что такое ключевое слово и его частота? Допустим, Вы внесли в поисковую форму слово <жмых>, нажали кнопку <искать> и ожидаете ответ. Что делает машина, когда просматривает свою базу данных в поисках Вашего запроса? Правильно - она ищет документы, где встречается слово <жмых>, формирует на них гиперссылки и выкидывает их на Ваш IP-адрес в удобочитаемом виде. Таким образом - <жмых> это и есть ключевое слово. Но тут начинается самое интересное - по какой же причине, определенная часть ссылок на документы содержащие слово <жмых> находится вверху страницы и сразу бросается в глаза, а другая - в нижней части или даже на другой странице результата поиска, на которую переходят кликая по закладке? Если вы думаете, что те ссылки, которые помещаются вверху нашлись первыми, а нижние - последними, то Вы глубоко ошибаетесь.
Это не так. Машина, осуществляя поиск, руководствуется принципом частоты встречаемости ключевого слова (в нашем случае <жмых>) - чем больше это слово встречается в документе, тем, соответственно, выше вероятность отображения страницы в первых рядах списка, который строит поисковик на основании Вашего запроса. Поэтому, при построении контента веб-сайта и его страниц, необходимо уделять внимание ключевым словам, которые, как вам кажется, будет вводить человек в поисковую форму, пытаясь найти ту информацию, которую Вы ему можете предложить. И разумеется, если Ваш сайт посвящен жмыху и это слово встречается всего один или два раза, то вероятность того, что по ключевому слову <жмых> Ваш сайт будет найден сторонним пользователем фактически равна нулю. : )
Второй момент - это индекс цитируемости сайта. Если бы все было основано только на частоте встречаемости того или иного ключевого слова, то все было бы просто до безобразия, а это - не интересно .: ) Если же серьезно - технология частоты ключевых слов представляет собой только один из элементов поиска, которым руководствуется поисковой робот осуществляя свою рутинную работу. Индекс цитируемости - еще один немаловажный элемент, который необходимо учитывать (а точнее - развивать) при раскрутке веб-сайта. Разберемся и с этим. У вас есть друзья в Интернете, которые интересуются тем же чем и вы? Они владельцы сайта, который по контенту похож на Ваш? Если так, то почему бы вам не обменяться ссылками и, скажем, не разместить адрес сайта друга в своем разделе посвященному полезным линкам? Ну и, разумеется, почему бы вашему другу не сделать то же самое на своем сайте?
Таким образом - когда кто-то зайдет на сайт, где имеется линк на вас, то у этого посетителя появляется возможность ознакомиться и с тем, что приготовили для него Вы и все, что для этого требуется от человека - кликнуть по линку. Это называется обмен ссылками и это полезно. Но вернемся к поисковикам. Поисковая система постоянно отслеживает все изменения, происходящие в кибер-пространстве (по крайней мере - она всеми силами пытается это сделать, для чего в нее вкладываются не малые интеллектуальные затраты). Возникает ситуация - на Ваш сайт есть ссылка в другом месте и поисковая система об этом знает. Она это отследила. Значит ли такая ситуация, что Ваш сайт поднялся на уровень выше? Конечно!
Теперь специальный алгоритм, выполняемый на поисковом сервере, при поиске информации относящейся к Вашей теме, будет учитывать и то, что Ваш сайт знает кто-то еще - ведь у него имеется ссылка на вас. Это и есть цитирование. Чем чаще на Ваш сайт будут ссылаться (или точнее цитировать его адрес в Интернете), тем выше он поднимется в своем рейтинге, тем более высокое место он займет на странице выдаваемой поисковиком на конкретный запрос по ключевому слову. Термин же индекс, можно определить как показатель. Все просто. Поднимать индекс цитирования своего сайта можно не только посредством обмена ссылками с дружественными сайтами, но и подписавшись в специальных каталогах и еще кое-какими способами.
Вкратце, все обстоит именно так и вроде бы нет ничего сложного. Теория.
На практике же, все выглядит сложнее и, если копнуть тему ключевых слов и индекса цитирования, то начинаются дебри. Но об этом - в специальной статье.
Что такое Google Page Rank
Алгоритм Page Rank - это детище инженеров и маркетологов проекта Google. До сих пор до конца не понятно, по каким в точности параметрам работает эта система, поскольку техническое решение задачи представляет собой коммерческую тайну.
В сети есть масса информации, где разбираются элементы алгоритма этой штуки. В качестве отправной точки, для тех, кто желает понять принцип ее работы (статья Криса Райдингса - известного оптимизатора сайтов и владельца http://www.searchenginesystems.net). Для нас важно то, как можно использовать себе во благо систему ссылок, которые являются основой для расчета релевантности страницы в Page Rank и, что еще важнее, не навредить себе. Итак. Page Rank (PR) - этоалгоритм расчета авторитета страницы. Чем выше у страницы Page Rank, тем важнее она выглядит для Google, следовательно, ее топ показатель выше. Как уже было сказано - весомость страницы определяется количеством ссылок на нее. И не только количеством ссылок, но, что самое интересное, важностью этих ссылок.
Именно метод определения важности ссылок, является самым главным секретом компании Google (это не просто индекс цитирования, а хитрее). Ранжирование страниц при использовании алгоритма Page Rank представляется в виде шкалы, которую можно наглядно увидеть в Google Tool Bar (это такая примочка). Page Rank измеряется по 10-ти бальной шкале. Сайты, которые имеют PR в районе 5-6 - это раскрученные сайты; более низкое значение обозначает среднюю раскрученность; ну а отметка 7 - это недосягаемая величина для большинства сайтов. Все что выше (8,9 и10) - прерогатива таких монстров, как, например Microsoft или, например, тот же Google.com.
По последним данным, англоязычная Википедия имеет PR равный 9. При осуществлении оптимизации своего сайта надо учитывать такую вещь (собственно ради этого мы и говорим про PR) - если вы знаете, что сайт на который вы ссылаетесь, имеет PR = 0, то ссылку по возможности надо убрать, т.к. этот сайт забанен гуглом за то, что занимался Black SEO. Очень часто, такая судьба постигает сайты, представляющие собой дикое скопление ссылок, что может быть расценено, как один из приемов Black SEO - за это гугл штрафует банном.
Поэтому следите за ссылками, которые уходят с вашего сайта на другие страницы. Печалиться же, что ссылка на ваш сайт присутствует у забаненного ресурса не надо, т.к. ссылки на сайт не повредят, но ссылки с вашего сайта - могут. Тут целая наука ))
Что такое Google Dance
Термин Google Dance (Танец Гугла) вошел в повседневный обиход с легкой руки оптимизаторов. Официальное же обозначение этого явления звучит, как разница в выдаче поискового запроса (в т.н. серпе) в зависимости от дата-центра к которому обращается пользователь. Почему же это происходит? Что бы получить обстоятельный ответ на этот вопрос, было бы хорошо обратиться к тем, кто разрабатывал алгоритм поисковой системы компании google, но они вряд ли его дадут по соображениям конспиративности, т.к. все ноу-хау компании (например, тот же, page rank) являются тайной за семью печатями. К этим тайнам относится и Google Dance. Но разведка докладывает, что не все так плохо и кое-что удается выяснить, а, выяснив - взять на вооружение. Но обо всем по порядку.
Итак. Что из себя представляет поисковая машина Google? Условно ее можно определить, как совокупность дата-центров (т.е. это конгломерат серьезнейших серверов расположенных в разных частях мира, занятых сбором и фильтрацией информации). Цель же этой работы одна - релевантные ответы на поисковые запросы. Ведь только этого ожидает пользователь от системы, не так ли? Поэтому, индексирование страниц, которые в Интернете появляются чуть ли не каждую минуту - одна из основных забот гугловских дата-центров. Для того, что бы информация содержащаяся в поисковой базе гугла не устаревала и отвечала требованиям, которые предъявляет время, в течении каждого месяца проводится плановая переиндексация страниц, т.е. добавление новых ресурсов (посредством проверки доступного сетевого пространства google-ботами) и перерасчет Page Rank'а страниц уже проиндексированных до этого. Собственно говоря, в этот самый период, в период обновления индекса на всех дата-центрах и наблюдается Google Dance.
Танец гугля выражается в том, что, посылая один и тот же запрос на разные дата-центры, информация, которая выдается в серп, будет отличаться друг от друга - и количественно и качественно. Это происходит по той причине, что обновление индекса базы происходит не сразу, а постепенно - количество страниц определяется миллиардными показателями, а работа с ними, даже при современном уровне развития железа и программных средств, занимает определенное время. В течении этого периода, часть устаревшей информации еще имеется в наличии, а новая - только появляется. Именно эта несостыковка и объясняет довольно ощутимую разницу выдачи результатов поиска в разных частях света.
Google Dance, так же может проявляться и из-за технических операций, которые осуществляют инженеры google'а (например, перемены в алгоритме поисковика или т.п.), но это происходит не так часто - поэтому главная причина, по которой происходит Google Dance, это обновление индексной базы на всех дата-центрах. Обновление происходит раз в месяц (в конце месяца) и длится в течении нескольких дней.
Какая же утилитарная польза может быть для человека, который занимается раскруткой сайта, от знания - когда будет очередной танец гугла и вообще от информированности про такое явление, как Google Dance? Дело в том, что ежемесячные обновления базы поисковика, дают реальную возможность попасть в его индекс и соответственно, добиться успеха в деле оптимизации. Поэтому, опытные оптимизаторы тщательно следят за поведением гугловских ботов и периодами их появления - это дает возможность спланировать стратегические моменты касающиеся раскрутки. Вот выявленные закономерности:
если google-бот заходит на сайт в первой половине месяца (или в самом начале), то, как правило, в этом месяце сайт не попадает в индексную базу.
если же сайт посещен ботом второй раз, сразу же после Google Dance, то вероятность того, что сайт появится в базе гугла почти стопроцентная - в начале следующего цикла обновлений бот придет на него уже с целью индексации.
Разницу в поисковой выдаче во время Танца Гугл можно наглядно наблюдать, если сравнить выдачу на google.com и дополнительных серверах - www2.google.com и www3.google.com. Для этого рекомендуется воспользоваться отличным бесплатным сервисом (англоязычный) по адресу http://google-dance-tool.com/ Кстати, там есть отличные опции, которые позволяют в совокупности проследить разницу в серпе не только на дополнительных серверах, но и по странам (google.it, google.fr и т.д.).
Подведем небольшой итог. Вся информация, которая касается пополнения базы данных google и способов исследования сетигугл-ботами (особенно расписание их запуска) будет чрезвычайна полезна для пошаговой раскрутки любого веб-проекта. Гугл является очень популярной поисковой системой и для огромного количества владельцев сайтов именно этот поисковик стал незаменимым источником целевого трафика - следовательно, все, что касается апдейтов или выкладывания нового материала должно быть синхронизировано с динамикой изменения индексной базы этой поисковой системы.
Что такое трастовость сайта
В этой статье речь пойдет о весьма немаловажном аспекте, который обязательно следует учитывать в деле СЕО - мы поговорим отрастовости сайта
Как понятно, термин происходит от английского слова trust, что в переводе на русский язык означает "доверие". Сам же термин определяется в классическом понимании следующим образом: трастовость сайта - это показатель доверия той или иной поисковой машины к отдельно взятому веб-сайту.
Теперь будет один интересный момент - дело в том, что "трастовость" ресурса существует в своеобразном и секретном виде, т.к. поисковые машины никогда не разглашают до конца принципы работы своих трастовых алгоритмов и делают все возможное для того, что бы как можно больше усовершенствовать уже имеющиеся технологии ранжирования. Делается это для того, что бы в выдачу не попадали, т.н. "черные" сайты (спам-сайты, ресурсы, сделанные не для людей, а для роботов и т.п.). Таким образом, следует признать, что понятие "трастовости" - это, прежде всего, совокупность определенных факторов, которые, будучи установлены исключительно опытным путем, явно или косвенно свидетельствуют о том, что хорошо для отдельно взятого сайта, а что нет. В принципе, хороший сео-оптимизатор - это человек, который разбирается в том, как сделать так, что бы сайт стал наиболее трастовым для той или иной поисковой машины.
Еще одна особенность рассматриваемого явления заключается вот в чем - метрического эквивалента трастовости не существует и вы нигде не увидите, например, счетчика, который бы показывал уровень трастовости того или иного ресурса. Как было сказано выше - трастовость сайта - это совокупность уникальных качеств, присущих уникальному ресурсу и каждая поисковая машина определяет местоположение сайта в своей выдаче, руководствуясь исключительно собственным оригинальным алгоритмом.
Ну а теперь мы поговорим непосредственно о том, что же влияет на трастовость сайта. Думается, для удобства следует разбить факторы трастовости на пункты и дать им соответствующий комментарий.
Итак. На трастовость влияет:
1. Возраст сайта.
Такие поисковые машины как Гугл и Яндекс вне всякого сомнения огромное влияние уделяют именно временному аспекту существования того или иного домена. К примеру, большая трастовость (высшее место в выдаче) при равных шансах (одинаково весомый контент) будет у сайта, который был зарегистрирован в 2000-м году, нежели у ресурса, который появился в 2009-м. Более того, сайт который по определенным параметрам подпадает под т.н. пеналти (пессимизация, понижение в выдаче) может быть "прощен" исключительно благодаря тому, что имеет весьма долгую историю и уровень доверия к нему высок. По этой причине целесообразно для быстрого старта покупать трастовый домен, т.е. регистрировать не новоиспеченный домен, а уже бывший на хорошем счету у поисковых машин.
2. Время, на которое регистрируется сайт.
В силу того, что в настоящее время процветает создание спам-сайтов (например, сайтов, которые создаются исключительно для монетизации размещаемых на них ссылок и т.п.) поисковики очень пристально отслеживают начало и конец регистрации домена на определенное лицо или организацию. К примеру, трастовость сайта повышается, если его владелец проплатил домен на длительный срок (два или три года) и, соответственно, трастовость понижается, если сайт зарегистрирован на короткий промежуток времени (полгода или год).
3. Уникальность контента размещенного на сайте.
По-видимому, тут и так все понятно - сайт с уникальным контентом будет очень обстоятельно съеден поисковым роботом и, в силу специфики информации, ранжирован выше, нежели сайт, контент которого не является уникальным. Весьма неплохо демонстрируют значение уникальности контента новостные ресурсы, на которых размещается эксклюзивная информация.
4. Доменная зона.
Чем авторитетней доменная зона - тем более траста получает сайт от поисковика. К примеру, доменные зоны .gov и edu являются наиболее трастовыми и, как следствие, сайты, сидящие на этих доменах, пользуются хорошими показателями в выдаче. Напротив, сайты находящиеся на бесплатных хостах или на дешевых доменах второго уровня (.biz, .info и т.п.) имеют более низкий траст. Несмотря на это следует учесть, что сама доменая зона влияет на трастовость ресурса исключительно на начальном этапе его раскрутки и впоследствии значение т.н. "доменого траста" сводится к нулю.
5. Ссылки на сайт.
Как известно, весь интернет состоит из гипер-ссылок и, чем больше их имеет тот или иной ресурс, тем выше его рейтинг в глазах поисковой системы. Однако тут тоже имеются свои нюансы, т.к. с помощь современных спам-ботов можно за пару дней проставить более миллиона ссылок на заранее определенный сайт и, в конечном итоге, получить обратный эффект - сайт будет пессимизирован поисковым алгоритмом. Поэтому, с ссылками ситуация выглядит следующим образом - чем более авторитетны сайты ссылающиеся на вас, тем более авторитетны вы. Ну и наоборот - если на вас ссылается масса совершенно неавторитетных ресурсов, тем меньший эффект это принесет в плане положительного ранжирования в выдаче. Поскольку существуют метрические параметры определения авторитетности сайтов (у Гугла - это Page Rank, у Яндекса - тИЦ), то следует руководствоваться следующим принципом - чем выше PR и тИЦ у сайта, ссылающегося на вас тем лучше. Очень хорошо влияет на трастовость ресурса нахождение его в серьезных каталогах (к примеру, каталог DMOZ, ЯндексКаталог и т.п.)
6. Внешние ссылки.
Оказывается, то на что вы ссылаетесь со своего сайта очень сильно влияет на его трастовость. И это неспроста. Дело в том, что поисковые машины очень любят, когда качественные тематические сайты ссылаются друг на друга и очень не любят, когда перелинковка происходит между совершенно не связанными ресурсами (например, сайт который посвящен поэзии ссылается на сайт продающий покрышки для автомобилей). В настоящее время грамотные веб-мастера очень большое внимание уделяют исходящим ссылкам и настоятельно советуют иметь как можно больше именно тематических ссылок. Это всегда надо помнить.
7. Входящий трафик.
Чем больше качественного трафика на вашем сайте, тем выше его трастовость. Понятие "качественности" определяется исключительно временными параметрами, т.е. чем больше отдельно взятый посетитель проводит времени на страницах вашего ресурса, тем он, так сказать, более "качественный" в глазах поисковой машины. Ну и наоборот, если ваш сайт будет уличен в совершенно неестественных наплывах посещаемости посредством спам-технологий, тем ниже шансы такого сайта получить достойный траст от поисковика.
8. Частота обновления ресурса.
Регулярные апдейты на сайте - это еще один фактор, который очень сильно влияет на его трастовость. Очень важно помнить, что сайт должен обновляться методично. Более того, следует понимать, что всему есть своя мера - например, новостные ресурсы более трастовы тогда, когда обновляются очень часто и напротив, если сайт посвящен узкой теме и обновляется с такой же методичностью, как новостной ресурс, то поисковик начнет злиться, и запросто может пессимизировать сайт, вполне резонно решив, что администрация занялась спамом.
В принципе эти основные 8-мь пунктов и составляют ту основу, которая именуется на языке поисковой оптимизации "трастовостью веб-сайта". Думается, этой информации для начала хватит.
Фальшивый Пэйдж Ранк
В этом небольшом материале мы поговорим про одну из нехитрых технологий обмана, которая весьма широко распространена в рунете - поговорим про Фальшивый Page Rank.
Если вы новичок в сайтостроении, то конечно же, мы вам рекомендуем первым делом разобраться с базовыми понятиями
Итак.
В классическом понимании, Page Rank (PR) - это алгоритм расчета авторитета страницы, который использует Гугл. Однако же профессиональные сеошники уже давно знают, что значение ПР уже давно не отображает реальное положение сайта в сети. Тем не менее, существует огромное количество веб-мастеров, которые весьма настойчиво ищут сайты с высоким ПР и покупают там ссылки. На них то и ориентирована замануха с Фальшивым PR.
Фальсификация страниц осуществляется главным образом двумя путями - используется 301-й редирект и клоакинг
Технически это выглядит так: поисковой бот, посещающий страницу, перенаправляется посредством редиректа на страницу уже имеющую высокий PR и, будучи, так сказать, обманут, приписывает редиректной странице тот статус, который принадлежит непосредственно "жирному" сайту.
Такая технология называется на языке СЕО <склейкой сайтов> и подобных склееных ресурсов следует опасаться, т.к. они совершенно не отобьют тех денег, которые вы вложите в покупку ссылок.
Посетив "склеенный" сайт обычный человек не заметит ничего подозрительного, т.к. внешне он выглядит совершенно прилично (редирект происходит только тогда, когда на сервер заходит поисковой бот) и зелененькая отметочка на Гугл Тулбар уверенно сигнализирует о том, что PR находится в требующемся диапазоне. Иными словами происходит брутальная фальсфикация страниц ресурса и им приписывается авторитетность, которой они не обладают.
В принципе, если вы покупаете ссылки на САПЕ то вам нечего опасаться - алгоритм этой биржи весьма эффективно идентифицирует склеенные сайты и вовремя сигнализирует об этом. Однако, на других биржах (не на всех, но такие имеются) подобный фильтр еще не реализован, да и что тут говорить - даже саповский мониторинг может иногда пропустить склейку и выставить ее на продажу! Поэтому ухо надо держать востро и всегда перепроверять - действителен ли PR на сайте у которого вы хотите купить "жирную" ссылку или нет.
Для того, что бы ни попасться на крючок следует совершить банальное действие - открыть Гуггл и забить в строку поиска info: site.com (вместо site.com пишется домен, который следует проверить). После нажатия на "Поиск" происходит два варианта развития событий:
А. появляются результаты, которые свидетельствуют о наличии сайта в индексе гугла, что напрямую свидетельствует о том, что заявленный PR находится в норме.
В. результаты отсутствуют или же происходит отображение информации, но уже с другого сайта, т.е. того, на который редиректит искомый ресурс. При таком раскладе, со сто процентной уверенностью мы можем быть уверенны в том, что нам пытаются впарить склеенный сайт с фальшивым PR.
Как видите, все очень и очень просто. Достаточно быть всего лишь внимательным и постоянно подстраховываться простыми и надежными методами.
Статья про Google плюс
21 сентября 2011 года администрация компании Google анонсировала свободную регистрацию на своей новой социальной сети под названием Google+. Народ этого весьма активно ожидал и по оценкам различных наблюдателей количество потенциальных посетителей в системе в течение нескольких дней достигло 25 миллионов человек. О, да. Цифра действительно умопомрачительная, но, если учесть, что речь идет о детище Гугла, которое было пропиарино заранее там, где это только было возможно, то ничего удивительного в этом, по сути, и нет.
В данном материале мы немного рассмотрим функционал социальной сети Google+ и, конечно же, немного порассуждаем над перспективами, которые она имеет. Однако для начала, что бы, так сказать, картина была более или менее наглядной, давайте немного заглянем в историю и посмотрим на то, что предшествовало появлению Google+.
Итак. Интересоваться нишей социальных сетей Гугл стал давно - еще в 2003 году поисковой гигант проводил переговоры о покупке очень популярного в ту пору социального сервиса под названием Friendster. Однако по ряду причин эта сделка не состоялась и администрация Гугла решила взять быка за рога самостоятельно, т.е. было принято решение создать собственный сервис социальной направленности. Как известно, в самом начале 2004 года компания достигла намеченной цели и создала социальную сеть Orkut, которая, между прочим, стала весьма популярна. Тем не менее, администрация Гугла совершенно недооценила тот факт, что для того, что бы проект держался на плаву, его следует постоянно апдейтить и, что называется, вести. Разумеется, сейчас можно выдвигать различные предположения, касательно того, почему Orkut быстро уступил пальму первенства конкурентам и не смог укрепиться на американском рынке социальных сетей, но факт остается фактом. Проект, увы, не стартанул так, как этого хотели в компании и последнее что известно о его судьбе, так это то, что администрирование было полностью передано бразильскому отделению корпорации Гугл (по причине того, что именно португалоязычный сегмент был наиболее активен в Orkut).
И что же? После этого наступил небольшой перерыв. По словам одного из СЕО директоров компании Гугл Эрика Шмидта именно этот перерыв в разработке социального проекта и создал все те условия, которые вывели на первое место компанию Марка Цукерберга Facebook.
Далее дела развивались приблизительно следующим образом. После безаппеляционного триумфа Facebook, Гугл наконец-то осознал, что совершил огромную ошибку - администрация поняла, что именно социальное направление является одной из тех золотых жил, которая обеспечивает высокий рейтинг, популярность и, конечно же, профит. Компания меняет стратегию и, как результат, сразу же было объявлено о том, что Гугл покупает несколько весьма перспективных стартапов - Dodgeball (переименованный в Google Latitude), Zingku (социальная сеть для мобильных телефонов), Aardvark (портал социального поиска), Slide Inc. (система обмена фотографиями) и еще кое-какие более мелкие проекты.
Начало 2007 года было ознаменовано запуском отдельного проекта под названием Google Profiles, который позволил пользователям таких сервисов, как Blogspot, Gmail, Picassа и т.д. наглядно сконцентрировать свои личные данные в одном профайле. Именно после запуска Google Profiles была запущенна интегрированная в почту Gmail система социального общения Google Buzz, которая, к великому сожалению, с треском провалилась. Это был действительно большой удар по репутации Гугла - Google Buzz совершенно не удовлетворил потребности пользователей, которые уже давно привыкли к более гибкому интерфейсу и функционалу Facebook. Интересен факт, что спустя год Гугл предпринял попытку приобрести очень популярный микроблоговый сервис Twitter, но из этой затеи ничего не получилось (до сих пор, кстати, ведутся дискуссии на тему того, почему так произошло). До второй половины 2010 года на рынке социальных сетей было относительно спокойно - Facebook доминировал, Гугл довольствовался своей долей на соцсетевом рынке в виде сервиса видео-роликов Youtube и, казалось, ничего не предвещало перемен. Тем не менее, они наступили. Уже в середине весны 2011 года Гугл начал апдейтить функционал Google Profiles, что более всего сказалось на социализации такого сервиса, как Picasa. Дальше больше - буквально через месяц, компания официально подтвердила инсайдерскую информацию касательно того, что в скором времени будет запущенна новая и, что самое главное, полноценная социальная сеть, носящая название Google+. Официальная дата старта проекта - 28 июня 2011 года. Изначально сервис работал в тестовом режиме и зарегистрироваться на нем мог не каждый (действовала система инвайтов), но вот уже в конце сентября был дан зеленый свет и зарегистрироваться могли все желающие.
Ну а теперь давайте немного рассмотрим функционал Google+.
Думается, что сделать это эффективно можно исключительно с точки зрения простого пользователя, который впервые там зарегистрировался. Конечно же - первое, что будет интересовать рядового посетителя, так это то, чем же Google+ отличается от других социальных сетей? Чем же система лучше, допустим, Фэйсбука и почему более чем 700 миллионов пользователей этой социальной сети должны заинтересоваться именно Google+?
Смотрим. Первое что бросается в глаза, так это специальный движок под название "Круги Друзей" (Circles). Что это такое? Благодаря этой разработке, пользователь имеет возможность разделить своих френдов на определенные группы (круги) и сделать это он может в зависимости от того, в какой сфере он с ними общается (в реальной жизни, только в интернете, через знакомых и т.п. и т.д.). Как и понятно - это огромный шаг вперед. Ведь если взять механизм общения, реализованный в Фейсбуке и в других социальных сетях, то в конечном итоге, даже при самом жестком ограничении на просмотр публикуемых сообщений, их видят все, кого пользователь добавляет в друзья. Допустим, любая фотография в Фейсбуке, которую вы размещаете на своей стене, моментально становится доступна френдам. В случае с Google+ ситуация выглядит совершенно иначе - пользователю предоставляется возможность создавать круги общения и уже в них распределять доступ к той или иной информации. К примеру, пользователь может создать круг друзей, с которыми он делится заметками личного характера и, одновременно, уже в другом круге общения публиковать информацию рабочего, учебного и т.п. плана. Думается, что мало кто может что-то возразить против такого замечательного инструмента как Circles от Google+!
Второй момент, который как бы дополняет первый - это сервис видеоконференций под названием Hangouts. Движок полностью интегрирован в Circles и работает по принципу видео-бонуса к Google Talks, который вот уже несколько лет мы можем наблюдать в почте Gmail. Иными словами - это альтернатива Skype, только в более продвинутом, социальном ключе. Видеообщение можно наладить в виде конференций с неограниченным количеством участников и, что самое главное, в совершенно неограниченных кругах общения. Более того, во время сеанса связи можно добавлять потоковое видео - и, допустим, одновременно несколько человек смогут в прямом эфире увидеть ролик с Ютуба, которым хочет поделиться пользователь.
Смотрим дальше. Для тех, кто привык к использованию стандартного набора средств общения предоставляющихся всеми иными социальными сетями - скажем, расшаривание линков, комментирование мессаджей, проставление лайков и т.п. - вроде бы ничего не изменилось. Для подобного вида общения существует специальный раздел под названием Sparks в котором, как раз таки, и отображается страница сообщений друзей.
К сожалению, на сегодняшний день до конца не понятен функционал кнопки Google +1, которая тоже является неотъемлемой частью раздела Sparks. По всей видимости, ее дальнейшая судьба будет напрямую связанна с ранжированием сайтов в поисковой выдаче Гугла. Но это пока только предположение.
Еще один момент - мобильная версия социальной сети, которая обладает очень интересной функцией - моментальная публикация фотографии с мобильного телефона. Движок действительно очень хорошо работает, и единственное что следует помнить, так это про приватность (т.е. надо следить за тем, что бы не ошибиться кругом друзей которым предназначена фотография).
Помимо всего перечисленного в Google+ имеется постоянно модифицируемый раздел Игр, где пользователям предоставляется возможность убить свое время окунувшись в мир Angry Birds, Dragon Age и т.д.
Таким образом, на основании всего вышеизложенного можно констатировать факт, что главное отличие социальной сети Google+ от конкурентов заключается в том, что пользователю не нужно долго ковыряться в сложных настройках приватности и дотошно определять, кому может быть доступна та или иная информация. Общение в Google+ происходит по всем законам реальной жизни, и, согласитесь, это действительно большой прорыв в сетевом общении.
Ну а теперь немного про перспективы социальной сети Google+.
Сразу следует оговориться, что официальная информация касательно количества зарегистрированных пользователей в системе не является публичной - Гугл, по понятным причинам, попросту не распространяет эту важную информацию. Однако же веб-аналитики из авторитетных изданий безапелляционно утверждают, что число посетителей сервиса равно приблизительно 25 миллионам в месяц. Как понятно - это очень высокая посещаемость для социальной сети, которая возникла пару месяцев назад!
Однако же, по данным самого популярного компьютерного портала Techcrunch, который проанализировал трафик перепощенных мессаджей в Google+ и в Twitter, посещаемость новой социальной сети постоянно падает. Картина выглядит приблизительно следующим образом - юзеры регистрируются в системе, немного в ней ковыряются, оставляют несколько сообщений, дабы узнать как все работает, и благополучно уходят восвояси. Помимо этого существуют еще кое-какие невыгодные для Google+ данные - например, весьма заслуживающая доверия контора Bime Analytics, утверждает, что приблизительно 80% зарегистрированных в Google+ пользователей совершенно не проявляют активности в новой для них социальной сети. Основываясь на доступной статистике, аналитики указывают на то, что на сегодняшний момент доля Google+ на мировом рынке социальных сервисов составляет 0,19%, что соответствует доле, того же, Вконтакте.
Что ж! Время покажет, как будут обстоять дела у Google+ в дальнейшем, но на сегодняшний день совершенно очевидно, что компания не собирается сдаваться и возлагает большие надежды на свой стартап. Мы же со своей стороны призываем всех читателей зарегистрироваться в Google+ и самостоятельно проинспектировать эту социальную сеть! Зарегистрироваться можно тут https://plus.google.com/
Про пузомерки
В данной статье мы вкратце поговорим про пузомерки и немного проанализируем момент целесообразности ориентации на их показатели.
Под пузомерками принято понимать сеошные параметры веб-сайтов. Ну а огромное количество начинающих веб-мастеров уверенны в том, что единственное к чему следует стремиться при раскрутке ресурса - так это к увеличению значений этих самых пресловутых пузомерок. Развенчиванием этого заблуждения мы с вами сейчас и займемся.
С какими пузомерками нам чаще всего приходится иметь дело? Тут все просто - фактически их существует всего три:
1. Page Rank (Google PR, Гугл ПэйджРанк, ПР) - эта пузомерка чаще всего определяется, как показатель ссылочной массы отдельно взятой страницы того или иного сайта. Говоря про ПР всегда следует помнить две вещи:
а) расчет Page Rank осуществляется именно для каждой отдельной страницы, а не для всего сайта целиком;
б) Веб-мастеру показывается исключительно те данные, которые собираются посредством утилиты Google Toolbar, т.н. тулбарный ПР, что, соответственно, представляет собой только приблизительный, а по факту - весьма далекий от реальности, показатель. Помимо этого надо помнить, что на выдачу этот самый тулбарный ПР не влияет вообще - это давно доказано огромным количеством экспериментов и при желании каждый может убедиться в этом сам.
В целом, заполучить "жирный" ПР можно бесплатно - показателей 3-4 можно достичь за год посредством примитивного линкования. Более высокие значения достигаются тоже элементарно, однако потребуется определенная капитализация продвижения.
2. Тематический Индекс Цитирования (ЯндексТИЦ, тИЦ).
тИЦ является Яндексовским алгоритмом актуальным только для русскоязычного сегмента интернета. Поскольку большинство народа в России до сих пор пользуется Яндексом, то зацикленность многих веб-мастеров на значениях параметра пузомерки тИЦ очевидна.
Суть алгоритма проста - анализируется ссылочная масса на весь сайт (т.е. на все его страницы) и, затем, происходит выявление тематичности входящих линков относительно направленности самого сайта. Как известно, алгоритм тИЦ от Яндекса является очень кривым и постоянно подвергается модификации, что напрямую сказывается на пузомерках, которые запросто могут обнулиться ни с того ни с сего. Насколько известно из практического опыта (а обратного еще никто не доказал), Яндекс не умеет на автомате определять тематику веб-сайта и, как следствие, весьма спорен тот факт, что пузомерка тИЦ влияет на выдачу. Опытные веб-мастера могут поднять показатель пузомерки с тИЦем на весьма приемлемый уровень и сделать это могут всего лишь за один апдейт - дело упирается лишь в финансовый аспект.
3. Alexa Rank.
Пузомерка от Alexa the Web Information Company не очень популярна в рунете, однако на нее порой почему-то тоже обращают внимание. Суть метрики от Алекса.ком - замеры трафика и составление на этой основе прогнозов, рейтингов и т.п. вещей. Тут следует сказать, что для русскоязычного сегмента Алекса не подходит по своей сути - плагин для браузеров Alexa Toolbar ставят единицы пользователей и поэтому точность траф-данных про среднестатистический рунетный сайт оставляет желать лучшего.
Теперь еще один пузомерочный финт и связан он с Яндексом. Когда у администрации этого поисковика появились глобальные планы по покорению Интернета (а было это, кстати сказать, уже очень и очень давно), то существовал т.н. вИЦ - Взвешенный Индекс Цитирования. Этот вИЦ являлся, по сути, украденным у Гугла Пэйдж Ранком и данные сей пузомерки были доступны. Через определенное время вИЦ пропал - на смену пришел тИЦ - но, по имеющимся данным, алгоритм Взвешенного Цитирования был просто скрыт от веб-мастеров и используется поисковиком по-прежнему. Во всяком случае, большинство экспертов приходят к выводу о том, что весовой индекс у Яндекса все-таки имеется.
На этом первая часть нашей статейки подходит к концу, и мы переходим к следующему этапу - попытаемся ответить на вопрос: на что же все-таки влияют эти самые пузомерки?
По сути, цель всех махинаций с пузомерками одна - максимализация веса ссылки для ее последующего продвижения. Думается объяснять то, зачем ссылка продвигается не стоит - достаточно зайти на САПУ http://www.sape.ru/r.5f6d830416.php и посмотреть, сколько стоят "жирные" с точки зрения пузомерок страницы или сайты. И это одна сторона медали. Вторая же сторона четко показывает, что на самом деле значения ссылочной массы весьма слабо представлены в публичных данных ПР и тИЦ.
Приведем пример. Начинающие сеошники стремятся к тому, что бы заполучить ссылку со страницы имеющей высокий тИЦ и, в большинстве случаев, такой линк не приносит им никакой пользы (или же, как вариант, отдача от такой ссылки крайне незначительна). Все дело в том, что сеошник забывает обращать внимание на другие параметры - о них то мы и поговорим ниже посредством виртуальной отмены данных с пузомерок.
Широко распространено мнение о том, что ежели отменить яндесовский тИЦ, то продажа ссылок моментально сойдет на нет. Это абсолютно не так! Более того, если посмотреть на проблему шире, то никакого смысла в том, что бы покупать ссылки ориентируясь исключительно на показатели пэйдж ранка и тИЦа, не существует вообще!
Поговорим сначала про Гугл.
В интернете уже давно обсуждается вопрос, вскользь проскочивший в официальном блоге Гугла, касающийся отмены Пэйдж Ранка. По факту Гугл уже давно снизил активность глобальных апдейтов этого показателя и сконцентрировался лишь на незначительном, заранее определенном круге ресурсов - там апдейты происходят более или менее регулярно.
Что же станется если Гугл отменит ПР? По сути изменений будет не много, т.к. большинство веб-мастеров уже давно не обращают внимание на эту пузомерку и ориентируются исключительно на количество внешних ссылок. Возможно, отмена Пэйдж Ранка коснется тех, кто по старинке опирался на Пэйдж Ранк при барыжничестве ссылками с внутренних страниц ресурсов.
Значение морды сайта оценить легко даже не оперируя данными Пэйдж Ранк, а как быть с потенциальными возможностями, которые дают внутренние страницы (второй, третий уровень)? Тут, конечно же, начнутся сложности. Как выход из ситуации можно предложить планомерный мониторинг бэк-ссылок на исследуемую страницу (с учетом внутренней перелинковки, разумеется). Однако к великому сожалению, специализированных сервисов, которые занимались бы такой работой сейчас очень немного и их эффективность находится под большим вопросом. Как следствие, при названных условиях, подобные фичи начнут расти как грибы после дождя и через какое-то время, кто-то пробьется в абсолютные лидеры - в результате, появится новая и глобальная пузомерка. Только-то и всего.
Какие показатели можно выделить в качестве альтернативы Пэйдж Ранку? Критерии должы быть приблизительно такими:
входящие ссылки ведущие на заранее определенную страницу того или иного сайта.
внутренние линки распространяющие свой вес на вышеназванную страницу.
механизмы, которые призваны умышленно предотвратить индексацию ссылок (noindex, nofollow, robots.txt, редиректные механизмы и т.д. и т.п.)
По всей видимости, пузомерка, которая обрабатывала бы вышеперечисленные данные, должна обладать немалыми скоростями, т.к. работа с такими данными в реальном времени дело сложное. Более того, дабы бороться с черным сео такой алгоритм придется чрезвычайно часто модифицировать.
Что такое Дорвей и зачем это нужно
Дорвей (doorway) - если открыть словарь английского языка, то это слово переводится следующим образом: "вход в помещение" или же "дверной проем". Дорвей, представляет из себя, сайт или же веб-станицу.
Цель создания этой штуки - попасть на первые места поисковиков по генерируемому запросу и получить посетителя. Далее, посетитель направляется или же внутрь сайта или же перенаправляется (т.н. редирект) на другой сайт - все зависит от того, кто создал дорвея и насколько коварна у него была цель. Если вдуматься, то любая страница, которая оптимизируется для поисковика - это уже дорвей.
Но, тем не менее, дорвеи прямиком подпадают под Black SEO (черная оптимизация) и отношение к ним со стороны поисковиков очень негативное. Это происходит потому, что в большинстве случаев, дорвей используют для привлечения посетителя на сайты, которые на самом деле не соответствуют тематике запроса - пользователь попадает на страницу, где висит обычная реклама или ссылки на ресурсы, которые являются прибыльными в сети, т.е. это делается с коммерческой целью.
Например, искали реферат по социологии, а вылезли на банальную парнуху и это все по "вине" поисковика, который выдал дорвей, оптимизированный под поиск реферата, но с редиректом на порево. Вот такие вот пироги. Немудрено, что поисковики, столкнувшись с таким разводиловом, оснащаются умными примочками, которые, рано или поздно, отсеивают дорвей, как потенциальную опасность и, один раз обнаружив, тут же банят. На этом жизнь дорвея оканчивается - надо делать новый и снова приниматься за его раскрутку.
Но, с другой стороны, если дорвей удобочитаем и содержит дельные ссылки, то ничего плохого в нем нет и, пользователь будет доволен. Оптимизация дорвея для поисковика - это такой процесс раскрутки сайта, где можно использовать почти все. От повышенной плотности содеражания ключевых слов до филлигранного ранжирования html тегов и ссылок....
Генирация редиректа в дорвее осуществляется не только посредством Java-скрипта, но и с помощью SSI, Флэшевых примочек и хэтэмээльного тэга Meta refresh.
Что такое Клоакинг и зачем это нужно
Английский глагол to cloak (маскироваться) породил этот термин. Клоакинг (cloaking) - это способ, посредством которого можно подсунуть поисковику одно, а пользователю другое.
Например, поисковая машина ищет по заданному слову какую-то халяву (ну хочет человек скачать, например, книгу) - бот находит все на ура, но тут юзер обнаруживает, что щелкнув по вылезшему линку, попадает не на халявную базу данных книг, а в онлайновый магазин, где эти книги хотят продать за деньги. Тот же пример с mp3 - хочешь скачать песню и пишешь, что б искало эмпэтришки, а попадаешь в магазин компактов. Отличие от технологии дорвея (doorway) принципиальное - дорвей переадресует пользователя на другие сайты, а клоакинг, дурит поисковую систему, подсовывая ей одни параметры страницы, а пользователю - другие.
Любят ли поисковики такие штуки? Да не очень, а точнее, ненавидят. Если оптимизация попахивает (даже слегка) клоакингом в виде черного SEO, то забанят как пить дать. Разумеется, все относительно и клоакинг может восприниматься, как ботом, так и юзером, совершенно нормально. Например, сайт - флэшевый (т.е. полностью флэш). Что б его нашел поисковик, надо создать аналогичную html-версию для машины - она ее находит, а вы загружаете то, чего она не находила, т.е тот же сайт, только мультяшный. Это - один из примеров этичного (или дозволенного) клоакинга.
Еще, с помощью клоакинга можно защищаться от гадов - тех, кто хочет похитить Ваш удачно оптимизированный код и начать использовать его в своих целях без Вашего согласия. На сервер вешаются две страницы - одна для поисковика (оптимизированная), а другая для браузера пользователя (на ней, только необходимый посетителю интерфейс и информация).
Клоакинг реализуют посредством PHP, ASP или скрипта-Perl. Когда поступает запрос, то сервер генерирует скрипт. Цель скрипта - сравнить IP-адрес запрашивающего, с базой данных IP-адресов поиcковых пауков (которые забиты в этом скрипте). Если IP-адрес не соответствует поисковой машине, то выдается страница для пользователя (публичная), ну а если айпишник указывает на то, что это бот, то, соответственно, ему выдается оптимизированная (клоачная) версия. Вот и все. Поисковые пауки часто меняют свои IP - необходимо следить за этим и, по возможности, обновлять клоачный скрипт.
Что такое Своппинг и зачем это нужно
Своппинг (англ. swap - подмена) - еще одна технология Black Seo. По-английски этот термин называется - code swapping.
Идея очень похожа на клоакинг, но работает несколько иначе. Делается веб-страница, раскручивается, т.е. поисковик её ставит, например, в топ 100. Надежно проиндексированная в поисковике, страница находится без малейшей проблемы и, казалось бы, что еще надо? Но не тут то было! Иногда ситуация меняется и контент больше не удовлетворяет автора веб-сайта.
Это может быть по разным основаниям, но чаще всего, бабулесы с сайта играют ключевую роль - хочется еще больше! И вот происходит подмена контента, да так, что страница становится уже не особо кому нужна, но она начинает приносить немалые деньги (например, с кликов по той лабуде что на ней вывешивается).
Вот и все - сначала индексируемся, занимаем хорошее место, а потом пичкаем непомерной и никому не нужной рекламой. Разумеется, поисковые машины следят за такими делами и могут забанить сайт, ежели обнаружится, что это не обычное обновление контента, а полная его подмена с корыстной целью. Криминально, одним словом : ).
Отличие от клоакинга: клоакинг - это подмена для (кого)>, а своппинг - подмена (когда).
Комментариев нет:
Отправить комментарий