Вводная
♦ Эволюция факторов ранжирования поисковых систем
♦ Слагаемые бюджета на SEO
Эволюция факторов ранжирования поисковых систем
Несмотря на сделанные еще в 1960-1970-х предсказания фантастов, лет двадцать – двадцать пять назад мало кто догадывался, что вскоре для поиска любой информации миллионы людей будут обращаться к Глобальной cети. Трудно вообразить, что когда-то Интернет был «исхоженным» вдоль и поперек – не миллионы, а жалкие десятки разрозненных сайтов, которым не приходилось бороться за высокие позиции в поисковой выдаче (она же по-английски Search Engine Results Page, SERP). Да и первые алгоритмы поиска были простыми как колесо: релевантными признавались те ресурсы, на страницах которых содержался поисковый запрос. Сама выдача была ожидаемо куцей.
Однако грибница Интернета расползлась по миру, и по мере того, как ширился Веб, множились и сайты в нем. Чтобы не сдуться при этом масштабировании, поисковым системам потребовалось изменить подход к ранжированию ресурсов и взяться за разработку гораздо более сложных алгоритмов.
Внутренние факторы
В 1994 году увидела свет первая полнотекстовая поисковая система под названием WebCrawler. Произошла революция: ранее информация в Сети структурировалась исключительно в виде каталогов ссылок, сгруппированных по тематическому признаку. Следом на орбиту большого поиска вышли Lycos и AltaVista. Это были первые попытки организовать доступ к ресурсам Веба не на основе каталогизации. До наших дней дошли только упоминания о тех поисковых системах, хотя многие из нас застали их на закате славы.
В 1997 году практически одновременно на двух разных континентах зародились гиганты современного поиска – Google и «Яндекс». Их алгоритмы ранжирования, со скидкой на локальные особенности, развивались в одном русле. Стремительные изменения в качестве поисковой выдачи требовали принятия решительных мер ради выполнения единой миссии – предлагать пользователям релевантные их запросу, предельно качественные и полезные ресурсы.
Львиная доля сайтов на рубеже тысячелетий была по сегодняшним меркам примитивна, их страницы отличались незамысловатым дизайном и длинными «портянками» текстов с высокой плотностью ключевых слов. Благодаря нескольким наивным, на наш взгляд, приемам они могли продвигаться вверх в выдаче и добиваться лояльности со стороны поисковиков. В частности, большое значение для выхода в топ имело использование ключевых слов в метатегах. Один из них, , ранее предназначался исключительно для того, чтобы передать информацию поисковому роботу. Он больше не играет ведущей роли в ранжировании, и даже оставить его незаполненным не будет страшным грехом.
Со временем подтвердилось, что мало учитывать лишь эти внутренние факторы, отводя сайту подобающее ему место в SERP. К внутренней оптимизации страниц предъявлялись все более высокие требования. Поисковики усложняли свои алгоритмы и объявляли войну некачественному и неуникальному контенту, скрытому тексту и многим другим нарушениям со стороны сайтостроителей, пытающихся обмануть, с одной стороны, поисковую машину, с другой – пользователей.
На текущий момент в связи с увеличением «удельного веса» внутренних факторов сложился целый свод писаных и неписаных требований к оптимизации, без соблюдения которых дорога в «высшее общество» – в топ – закрыта. И наоборот, отдельные факторы, которые ранее вершили судьбы сайтов (как то: метатеги, «тошнота», большие тексты, схемы перелинковки), утрачивают актуальность. Таким образом, если первые алгоритмы поисковых машин анализировали лишь релевантность ресурса запросу, то в настоящее время важнее его качество и полезность для посетителей.
Внешние факторы
Внутренняя оптимизация сайта – вотчина его владельца или администратора. Неудивительно, что веб-мастера из числа – выразимся иносказательно – «моральных релятивистов» научились оперировать не совсем честными методами и выдавать порой некачественные страницы за релевантные поисковому запросу. Так было до 1998 года, пока в Google не сошлись на том, что необходимо ввести новые факторы, которые бы не зависели напрямую от действий оптимизатора и позволяли объективнее судить о качестве сайта.
Вскоре вступили в силу внешние ссылочные факторы, призванные определять популярность ресурса в Сети, которая выражалась в количестве других сайтов, ссылающихся на него. Иначе говоря, к текстовой добавилась ссылочная релевантность. Оценка внешних факторов являлась дополнительным критерием отсева, благодаря которому в выдаче оседали действительно хорошо сделанные и интересные людям сайты. Но к тому моменту маховик интернет-бизнеса раскрутился и SEO[1] из боязни упущенной выгоды ответило на действие противодействием. Ввод ссылочного ранжирования повлек за собой всплеск ссылочного спама. Оказалось, что манипуляции подвержены не только внутренние, но и внешние факторы. Сетки сателлитов (вспомогательных, сопутствующих сайтов, предназначенных лишь для улучшения позиций главного) прекрасно «пускали пыль в глаза» поисковикам, убеждая их в авторитетности сайта, а выдача все больше засорялась шлак-ресурсами. Так аферисты внедряются в бомонд, и если в него проникает слишком много пройдох и пустышек, то бомонд превращается в лучшем случае в полусвет. Поисковики парировали «мусорную атаку».
Впоследствии алгоритмы ссылочного ранжирования становились все более сложными, на службу борьбы с искусственной накруткой ссылочных метрик были поставлены многочисленные фильтры. Именно в ту пору за SEO закрепилась сомнительная слава грязного трюкачества, с помощью которого удается обхитрить поисковые алгоритмы. Как внешние, так и внутренние факторы ранжирования требовали все более глубокого анализа сайта и внешней ссылочной массы. Оценке подвергались технические характеристики ресурса, его возраст, контент и качество ссылающихся на него сайтов-доноров. Было введено такое понятие, как TrustRank (называемый также трастом) – показатель доверия поисковиков к площадке. Не заслуживший траста сайт имел минимальные шансы подняться вверх в выдаче и занять желаемые места в топе.
Благодаря многочисленным ссылочным биржам веб-мастер сегодня все же способен самостоятельно влиять на внешние факторы. Но закупка ссылок требует внимательного и взвешенного подхода. Неверная стратегия ссылочного продвижения лишь навредит ресурсу. На помощь оптимизаторам и сайтовладельцам в наши дни приходят «умные» сервисы, которые максимально эффективно и безопасно, работая с внутренними и внешними факторами, обеспечивают подъем ресурса в топ поисковой выдачи. Одним из таких сервисов, самым крупным на российском рынке автоматизированной поисковой оптимизации, является SeoPult (http://seopult.ru/).
Поведенческие факторы
Анализ поведения пользователей явился следующей ступенью в развитии поисковых алгоритмов. Он был призван кардинально повысить качество выдачи и помочь в борьбе с поисковым спамом. Поведенческие факторы – если не совершенное оружие в арсенале поисковых систем, то, во всяком случае, мощное: на них трудно воздействовать искусственными методами. Если пользователи сходным образом реагируют на тот или иной сайт, с высокой степенью вероятности это говорит о том, отвечает ли он их ожиданиям. И дело не только в кликабельности, которая якобы поддается накрутке.
Поведенческие факторы – это широкий комплекс пользовательских действий, учитываемых и интерпретируемых поисковыми алгоритмами. «Яндекс» возлагает выполнение столь деликатной миссии на плечи «оценщиков»-асессоров и на технологию машинного обучения MatrixNet. Изначально, когда поведенческие факторы обрабатывались по иному принципу, наблюдения за активностью посетителей зачастую трактовались ошибочно. Само собой, глубина просмотра туристического портала с увлекательными статьями о путешествиях будет не такой, как у сайта службы такси. Поведенческие факторы разнятся в зависимости от тематики и типа сайта. Введением технологии MatrixNet проблема была решена. Ресурсы были разбиты на группы и проходили проверку по формализованному набору параметров и общему впечатлению асессоров.
Таким образом, прежние методы «черной» оптимизации утратили силу, так как низкосортные ресурсы были не в состоянии конкурировать в топе с «человеколюбивыми» и качественными. Влиять напрямую на поведенческие факторы невозможно, но косвенно – вполне. Самое главное, сайт должен быть качественным и полезным для пользователей. Уникальный тематический контент, грамотное юзабилити, продуманный дизайн, привлекательный сниппет (подробнее о сниппетах читайте в разделе «Оптимизация сниппетов» главы «SEO-практикум»), бесперебойная работа сайта – все это в руках веб-мастера. Подчиняясь этим требованиям, владелец площадки создает благоприятные условия для ее посетителей, а уж их удовлетворенность сайтом поисковая система не преминет зафиксировать и перевести на язык цифр, которые определяют позиции в топе.
Новые факторы
Стремительное развитие электронной коммерции и высокий спрос на товары и услуги в Интернете отразились на факторах ранжирования. Специально для интернет-магазинов «Яндекс» внедрил коммерческий алгоритм ранжирования, поскольку применительно к сайтам такого типа важно учитывать совсем не такие характеристики, как, например, в случае с новостными или информационными порталами.
С точки зрения «Яндекса», для качественного коммерческого сайта имеют большое значение такие факторы, как четкое указание цены товара или услуги, широта ассортимента, недвусмысленное описание условий доставки, корректность контактной информации с использованием карт. Учитывается также наличие отзывов и комментариев пользователей, оставляемых в сервисе «Яндекс.Маркет» или на других сайтах с рейтингами компаний, а также в социальных сетях. По количеству и характеру отзывов поисковик судит о качестве оказываемых услуг и уровне обслуживания покупателей. Если на компанию подозрительно часто жалуются, это, скорее всего, ударит по позициям ее интернет-магазина в SERP.
Известность компании – это еще один коммерческий фактор, влияющий на ранжирование. Частые запросы к поисковику, связанные с сайтом конкретной компании, свидетельствуют о ее популярности, а значит, такому ресурсу «больше веры».
В особую категорию выделяются социальные факторы ранжирования. Базовое правило работы с ними элементарно: ни в коем случае не следует пренебрегать инструментами социального маркетинга для нужд SEO. Самая популярная в Рунете социальная сеть «ВКонтакте» имеет ежедневную аудиторию более 40 млн человек. Поисковые системы придают информации в социальных сетях большое значение и учитывают в ранжировании ряд социальных факторов.
Во-первых, поисковый робот учитывает в социальных сетях внешние ссылки. Во-вторых, наряду со ссылками рассматривается активность пользователей в официальных группах, имеющих отношение к сайту. В группе кипит жизнь, в ней много участников (не ботов)? Поисковый робот констатирует: «Учтем». В-третьих, приветствуется наличие на сайте социальных кнопок, в том числе Like («Мне нравится») на странице рядом со статьей, обзором, описанием товара и другим контентом, который может оценить пользователь. Каждый «лайк» сигнализирует поисковику о том, что страница нравится посетителям и заслуживает более высокого места в топе.
В полном соответствии с исторической наукой алгоритмы поисковых систем становятся все более многогранными, факторы ранжирования сегодня разносторонне учитывают множество аспектов продвигаемого ресурса. По мере развития Глобальной сети рождаются тренды, которые не остаются без внимания поисковых систем, и, что логично, в игру вступают новые факторы, влияющие на ранжирование. Зато у владельца сайта, в отличие от ситуации десяти-пятнадцатилетней давности, есть незыблемые ориентиры: думать об удобстве и качестве проекта, думать о посетителе, да и просто – думать. Возможно, то, что не учитывается сегодня, будет важным фактором завтра. Например, почему бы, помимо формальных признаков картинки, не учитывать, кривые ли руки у фотографа, снимавшего товар для интернет-магазина. Глядишь, «Яндекс» назовет это «фактором божьей искры». Но догадки догадками, шутки шутками, а здравый смысл подчас помогает предвосхитить будущее поисковой оптимизации лучше, чем бурная фантазия.
Слагаемые бюджета на SEO
Современное SEO – не шаманство, а комплекс рациональных мер, вписанный в сферу цивилизованного интернет-маркетинга: кампания дробится на этапы, каждый – с конкретными задачами и KPI[2]. Однако в большинстве случаев, кто бы ни брался за раскрутку сайта – агентство или оптимизатор-одиночка, – заказчик редко получает подробный отчет о той или иной статье расходов. Гораздо прозрачнее SEO выглядит при использовании автоматизированных сервисов поискового продвижения. В системе SeoPult финансовая составляющая рекламной кампании и вовсе разложена по полочкам – с первого взгляда видно, какие суммы уходят на покупку ссылок. Но ссылки – это далеко не единственная часть поисковой оптимизации. Финансовых вложений требуют и иные меры, без принятия которых до попадания в топ будет как до Антарктиды на самокате. Так что владельцу сайта лучше заранее разведать, сколько денег может быть потрачено из бюджета на продвижение и на какие именно задачи.
Внутренняя оптимизация
Работа с внутренними факторами – хронологически приоритетная и чрезвычайно важная часть поискового продвижения. Перед тем как начать покупать ссылки, необходимо провести скрупулезный аудит сайта на предмет его корректности с точки зрения SEO. Полноформатная ревизия предполагает проверку HTML-кода, файла , настроек CMS (системы управления контентом), наличия дублей страниц и других технических деталей. Обязательный пункт подготовки – оптимизация контента, проверка текстов на уникальность и защита авторства материалов. Мало того, что тексты должны иметь оптимальный процент вхождения ключевых слов, необходимо проанализировать их структуру и форматирование: использование заголовков и подзаголовков, абзацев, списков и т. д. Не забывайте и о правильной внутренней перелинковке. Она служит как для удобства пользователей, так и для передачи веса между страницами сайта. Все недочеты, выявленные аудитом, должны быть устранены, иначе зачем он нужен?
Внутренняя оптимизация сайта – это еще и «рихтовка» каждой посадочной страницы в отдельности. Это титаническая работа, с которой сам владелец ресурса полностью едва ли справится, если только он не супергерой – разработчик, интернет-маркетолог и оптимизатор в одном лице, не разменивающийся на такие мелочи, как сон. Но, скорее всего, придется прибегнуть к помощи специалистов, которые подготовят сайт к продвижению, и оплатить их услуги. Лучше не жадничать, потому что вложения окупятся сторицей: будучи грамотно оптимизированным, ресурс позволяет сократить траты на SEO в дальнейшем. Начинать оптимизацию с покупки ссылок – все равно что абы с кем выходить в открытое море на яхте, состояния которой вы себе не представляете. Любая серьезная внештатная ситуация в сотнях километров от береговой линии – огромный риск, равно как и «плавание» по выдаче «Яндекса» в опасной близости от поисковых фильтров. А ведь еще поди пойми, с чем беда – со штаг-юферсом или спинакер-фалом, если ты не готовил судно к плаванию. «Хорошую ж яхту купил! Белую такую…» – разведет руками незадачливый «мореход». Сайт тоже, бывает, выглядит в глазах его хозяина «белым» и непотопляемым. До первого серьезного волнения в топе.
Покупка ссылок
Стоимость ссылочного продвижения напрямую зависит от конкурентности и частотности запросов, под которые оптимизируется каждая конкретная страница сайта. На стадии формирования семантического ядра нужно понимать, что высокочастотные запросы обойдутся куда дороже, чем низкочастотные. Далее, цена ссылок зависит от того, сколько и на что тратят ваши конкуренты. Прежде чем назначить цену на ту или иную ссылку, нужно провести анализ конкурентной среды. Это трудозатратно и увеличивает расходы на кампанию, если заказывать ее в агентстве.
В SeoPult, однако, нет необходимости в монотонной ручной работе по подбору ключевых слов, анализу конкурентов и высчитыванию оптимального бюджета. Автоматизация перечисленных процессов снижает затраты владельца сайта на продвижение и дает ему четкую картину расходов на закупку ссылок. Следует заметить, что SeoPult лишь вспомогательное звено в продвижении: система дает рекомендации относительно затрат на ссылки, анализируя конкурирующие сайты. Однако клиент всегда вправе перейти на «ручное управление», если чувствует такую необходимость.
Заказ контента
Content is king[3]. А на престоле немыслим самозванец, не скрывающий своего сомнительного статуса. И взбунтуется народ, и исполнятся гневом посетители, и прахом пойдут поведенческие факторы. Да и «Яндекс» вмешается в эти «игры престолов» и загонит площадку под плинтус. То бишь на периферию выдачи, куда не ступала нога ищущего.
Как осетрина бывает только первой свежести, так и контент должен быть уникальным и тематическим – и никаким другим. Хотите высоких позиций и высокой конверсии? Напишите в бюджете большими буквами: «Заказ текстов». Связывать слова в предложения, а предложения в абзацы можно самому, были бы талант да навык, но это обычно нерационально: владельцу сайта придется потратить сотни часов на одни лишь тексты. Распространенная практика – заказывать контент на текстовых биржах или у копирайтеров-фрилансеров. Зачастую на биржах выходит дешевле и безопаснее, причем они несут прямую ответственность за действия своих сотрудников и следят за сроками выполнения задач.
К контенту относятся и графические материалы. Коммерческой площадке важно не только описать, но и показать товар. Заимствовать изображения у конкурентов категорически противопоказано, равно как и использовать чужие статьи. Поисковые алгоритмы идентифицируют картинку-дубль в два счета. Оптимальный вариант – сделать качественные, детальные снимки товара, демонстрирующие все его характерные особенности. На съемку придется потратиться, зато ваши собственные, ниоткуда не скопированные фотографии послужат заделом на будущее и предотвратят досадные эксцессы с поисковыми системами.
Еще одна, часто игнорируемая, ипостась контента – комментарии. Их наличие на страницах сайта определенно приветствуется. «Живой» сайт милее поисковым системам, да и люди охотнее пользуются им, если видят активность со стороны других его посетителей. Комментарии и отзывы достаются владельцам площадок, как правило, бесплатно, но, если проявить смекалку и дать клиентам небольшой бонус за отклик о проекте или о продукте, можно получить в разы больше пользовательского контента.
Работа специалистов
Созданием и продвижением сайта обычно занимается несколько человек, и каждый рассчитывает получить вознаграждение за свой труд. Команда может включать верстальщика, программиста, дизайнера, маркетолога, оптимизатора, линк-менеджера, копирайтера, контент-менеджера и т. д. Нередко ввиду скромного бюджета к работе над проектом привлекаются всего два-три специалиста, которые обладают разносторонними навыками. Расценки у каждого свои и зависят от множества критериев, включая квалификацию, опыт, сложность задач и, с позволения сказать, «повышающий коэффициент за простодушие заказчика». В случае SEO выделяются два базовых варианта – расчет с оптимизатором-фрилансером по договору и оплата счета, выставленного агентством. Ни «ремесленник-одиночка», ни солидная контора полной гарантии выхода в топ не даст, но, само собой, каждый хочет получить денежную компенсацию за выполненную работу. А уж поручать ли внутреннюю и внешнюю оптимизацию сайта SEO-компании или же пытаться действовать самостоятельно с помощью системы автоматизированного продвижения и веб-мастера – решать владельцу ресурса.
Бюджет на продвижение не константа. Иногда что-то из него допустимо исключить, а что-то уместно добавить. Необходимо подходить к его оценке взвешенно, четко понимая, какие цели поставлены и каких результатов нужно достичь. Стратегию каждый выбирает для себя: гнаться ли за конкурентами и тратить не меньше, чем они, или же достаточно поначалу выбирать менее конкурентные фразы и постепенно наращивать позиции в топе. Далеко не всегда большой бюджет означает мгновенный успех. И лить воду на SEO-мельницу надо осторожно, чтобы не снести плотину