Home / SEO / Фильтры и алгоритмы ранжирования Google

Фильтры и алгоритмы ранжирования Google

Всем привет! В прошлой статье я писал про историю изменений алгоритмов и фильтров Яндекс. Сегодня будет аналогичная статья о фильтрах и алгоритмах Google. Не буду рассказывать что такое фильтры и алгоритмы ранжирования, скорее всего вы это и без меня знаете. Итак, немного истории:

Фильтры Google

1998 год. Заработала самая популярная на данный момент поисковая система Google. Тогда же появился Page Rank (PR). Основой поискового ранжирования был именно PR страницы, который строился на количестве ссылающихся сайтов.

Март 2000 года. Появился Google Toolbar. Гугл предоставил шкалу измерения PR вебмастерам. И именно с этого момента считается начались первые манипуляции с искусственным изменением PR посредством покупки ссылок с целью улучшить позиции сайта в выдаче. Проще говоря, именно с этого момента появилось классическое SEO.

2001 год. Фильтр Хиллтоп (Hilltop). Происходит распределение на коммерческие и некоммерческие запросы. Кроме этого рассчет PR начинается по новому, начиная учитывать динамический ранг документа.

Сентябрь 2002 года. Первый апдейт выдачи.

Февраль 2003 года. Фильтр Бостон (Boston). С этого момента официально начинается ежемесячный ап.

Апрель 2003 года. Фильтр Кассандра (Cassandra). Под фильтр попадают сайты, маскирующие ссылки и текст от пользователей, но доступные поисковым роботам. Например, ссылки с белым шрифтом на белом фоне. Такие ссылки не видны на странице, но они присутствуют в исходном коде.

Май 2003 года. Доминик (Dominic). В это время были запущены боты Deepcrawler и Freshbot. Алгоритм начал по новому учитывать вес обратных ссылок.

Июнь 2003 года. Эсмеральда (Esmerelda). Это последний ежемесячный апдейт выдачи Google с переходом на более частое изменение выдачи.

Июль 2003 года. Фриц (Fritz). С внедрением этого алгоритма выдача Google начала меняться ежедневно.

Сентябрь 2003 года. (Supplemental Index). Это фильтр, споры и вопросы о котором до сих пор можно найти на форумах. Supplemental Index это сопли, то есть страницы, которые попадают в неосновной (дополнительный индекс). С внедрением данного алгоритма, гугл начал индексировать гораздо больше страниц, но дубли добавлял в дополнительный индекс. И сайт с большим количеством Supplemental Index страниц понижался в выдаче.

[reclam]

Ноябрь 2003 года. Фильтр Флорида (Florida). Фильтр в основном был направлен на сайты с чрезмерным употреблением ключевых слов – keywords.

Январь 2004 года. Фильтр Остин (Austin). Фильтр Остин это по сути дополнение к Флориде. Цель и задачи Остина такие же – фильтрация сайтов за переспам ключами в мета-тегах и использование скрытого текста на странице.

Февраль 2004. Бренди (Brandy). Алгоритм научил поисковую систему определять синонимы слов.

Январь 2005 года. Введение nofollow. В целях борьбы со ссылочным спамом и улучшения подсчета веса ссылок, а вследствие и качества поиска, был введен атрибут nofollow, который запрещал передавать вес по ссылке.

Возможно вас заинтересует:  21 способ привлечь трафик на сайт!

Февраль 2005 года. Фильтр Аллегра (Allegra). Происходит большое изменение выдачи. По версии поискового гиганта, он наказал многие сайты из-за сомнительных ссылок. На Аллегру скорее всего оказал влияние введенный месяцем ранее атрибут nofollow.

Апрель 2005 года. Фильтр Бурбон (Bourbon). Под фильтр попадают сайты с не уникальным контентом.

Июнь 2005 года. Первая попытка поисковика с использованием персонализированного поиска.

Сентябрь 2005 года. Гиллиган (Gilligan). С этого момента тулбарный Page Rank. Стал обновляться раз в квартал.

Октябрь 2005 года. Фильтр Джаггер (Jagger). Фильтр направлен на сайты, которые занимаются взаимным обменом ссылок, и которые активно покупают ссылки.

Ноябрь 2005 года. Большой папочка (Big Daddy). Происходит обновление технических основ – редиректы, канонизация и прочее. К тому же введены более жесткие меры к сайтам с большим количеством сопей (Supplemental Index).

2007 год. При ранжировании начинает учитываться траст ресурса.

Июнь 2007 года. Фильтр Баффи (Buffy). Неизвестно с какой целью он был создан. Произошло незначительное изменение выдачи при апе.

Апрель 2008 года. Фильтр Дьюи (Dewey). Большие колебания в выдаче, непонятно по каким причинам.

Сентябрь 2008 года. В поисковой строке появляются подсказки.

Февраль 2009 года. Винс (Vince). Неизвестно что было проделано с алгоритмом, по наблюдениям было замечено, что авторитетные ресурсы получили большое преимущество в выдаче. По словам Мэта Касса, изменения совсем небольшие и преимущество у сайтов с хорошим контентом, которые часто обновляются, удобны для пользователей и не имеют проблем с доступностью.

В это же время начинает учитываться канонический тег rel=canonical.

Декабрь 2009 года. С этого момента Google начинает индексировать сайты практически мгновенно. Что позволяет искать информацию в реальном времени.

Июнь 2010 года. Кофеин (Caffeine). Алгоритм Кофеин введен после нескольких месяцев тестирования. Он позволяет значительно увеличить объем новых проиндексированных страниц.

Август 2010 года. Апдейт Брендов (Brand Update). Нововведение позволило одному домену появляться несколько раз в поисковой выдаче.

Сентябрь 2010 года. Мгновенный Гугл (Google Instant). Появляется возможность смотреть поисковую выдачу прям во время набора поискового запроса.

Ноябрь 2010 года. Мгновенный просмотр (Instant Previews). На странице поиска появляется иконка в виде увеличительного стекла, нажав на которой можно увидеть страницу сайта, не покидая выдачу поиска.

Декабрь 2010 года. Гугл подтверждает, что начинает использует социальные сигналы при определении авторитетности сайта. В это же время начинают учитывать отзывы о компании и применять их при ранжировании.

Февраль 2011 года. Фильтр Панда (Panda). Один из самых больших фильтров нацеленный на борьбу с некачественными сайтами и со спамом. В основном страдают сайты использующие неуникальный контент.

Возможно вас заинтересует:  Представляю вам свою книгу "Азбука SEO"

Апрель 2011 года. Фильтр Панда 2.0 (Panda 2.0). Доработка предыдущей версии. Под фильтр массово попадают сателлиты, дорвеи, копипаст, переспам ключевыми словами и т. д.

Май 2011 года. Фильтр Панда 2.1 (Panda 2.1). Усовершенствование предыдущей версии.

Июль 2011 года. Обновление Панды до версии 2.2. Практически сразу же за ним последовали версии 2.3, 2.4 и 2.5.

Примерно в это же время Гугл начинает учитывать микроразметку Schema.org, разрабатывает и начинает учитывать свой собственный соц. сигнал Google +, предлагает вебмастерам использовать теги rel=prev и rel=next для борьбы с дублирующим контентом.

Ноябрь 2011 года. Фильтр Свежесть (Freshness). Данный алгоритм стал ранжировать сайты со свежим, постоянно обновляющимся контентом выше, особенно это касалось коммерческих сайтов и интернет-магазинов.

В это же время выходит Панда 3.1

Январь 2012 года. Фильтр Page Layout Algorythm. Данный фильтр был нацелен на борьбу с вебмастерами, которые злоупотребляют рекламой. Если в видимой (первой) части экрана сайта размещалось более 30% рекламы от общего контента, то сайт понижался в выдаче.

Примерно в это же время Google предоставляет список из 30 новых алгоритмов.

2012 год. Венеция (Venice). Данный алгоритм стал учитывать региональность выдачи сайта.

2012 год. Фильтр Пингвин (Penguin). Фильтр был направлен на борьбу с сайтами, которые продают и покупают ссылки. Основной критерий, по которому находились и понижались такие сайты, это количество, качество и скорость появления ссылок.

Май 2012 года. Граф знаний (Knowledge Graph). Продолжая совершенствовать персональную выдачу, гугл начинает применять семантический поиск данных из разных источников.

После этого обновляется Пингвин до версии 1.1, за которой в течении нескольких месяцев было так же немало версий.

2013 год. Появляется Пингвин 2.0, а так же алгоритм Колибри, который улучшил поиск информации благодаря тому, что Гугл использует синонимы в выдаче.

2014 год. Релиз фильтра Панда 4.0

Июнь 2014 года. Из сниппетов пропадают фотографии авторов.

Август 2014 года. Google сообщает, что сайты использующие зашифрованный протокол HTTPS будут ранжироваться выше.

Октябрь 2014 года. Пингвин 3.0 (Penguin 3.0). Вскоре Google сообщит, что теперь Пингвин будет обновляться непрерывно.

Ноябрь 2014 года. После предупреждений о том что Гугл будет ранжировать выше сайты, использующие мобильную или адаптивную версию, поисковик начинает помечать такие сайты в выдаче значком «Для мобильных» или «Mobile Friendly».

Ноябрь 2015 года. Гугл обновляет микроразметку. Яндекс пока не поддерживает нововведения.

15 апреля 2016 года. Гугл обнулил тулбарный PR всех сайтов.

P.S. Эта страница будет дополняться если будут выходить какие-то значимые изменения в алгоритмах ранжирования Google или будут появляться новые фильтры.

RotaPost - Эффективная реклама в блогах

Об авторе: Андрей Назыров

Приветствую Вас на своем блоге! Здесь Вы найдете всю необходимую информацию по созданию своего блога (сайта), его SEO оптимизации и последующего заработка.

11 комментариев

  1. Да, каждый SEO-специалист обязан знать о фильтрах поисковой системы и принципах ранжирования, чтобы безопасно продвигать сайт. Спасибо за полный перечень всех введенных Гуглом фильтров!

    Ответить
    • Согласен, думаю даже каждый блогер должен иметь хотя бы примерное представление о фильтрах.
      Пожалуйста!

      Ответить
      • Александр Каратаев:

        А мне кажется, что достаточно знать только основы. Можно не знать названий конкретных фильтров и даже принцип их действия, но если ты пишешь качественный контент, то этого вполне достаточно. Ну и основы, конечно…

  2. Андрей, вот про этот пункт «Google сообщает, что сайты использующие зашифрованный протокол HTTPS будут ранжироваться выше», кстати, на зарубежных блогах очень много не только рассуждают, но и все стараются перейти на протокол HTTPS.
    У нас ещё мало кто перешёл на него. Может ты напишешь как это сделать?
    Я сама попыталась с этим вопросом разобраться, но ….воз и ныне там.
    Переключилась на другую тему).

    Ответить
    • Оль, у Деваки есть об этом статья. Я бы конечно написал об этом, но https сертификат стоит денег, от 2 500 рублей в год. А я покупать его не собираюсь. А чтобы написать об этом подробную статью, в любом случае нужно будет его покупать. Поэтому статья об этом вряд ли будет 🙂

      Ответить
  3. В если сайт адаптивный под мобильные устройства, а google не нравиться и говорит что нет. Как быть в таком случаии?

    Ответить
    • Павел, Гугл определяет адаптивность сайта по CSS стилям. Просто откройте в robots.txt Гуглботу доступ к CSS и Javascript.

      Ответить
  4. Привет. Так или иначе написала статью и она в топ выпадет через определенное время. Получается что бы хоть немного получить прироста посещаемости на блог, нужно писать и писать статьи. Не понять мне эти фильтры и алгоритмы!

    Ответить
    • Привет. Писать тоже можно по разному и на определенные темы 🙂

      Если тематика статьи востребована и имеет низкую конкуренцию, то конечно это просто замечательно. Такая статья быстро выйдет в ТОП и будет приносить хороший трафик. Но методом тыка такие статьи писать практически невозможно, нужно подбирать запросы, проверять конкуренцию и т. д.

      Если же тематика востребована и имеет высокую конкуренцию, то вывести ее в ТОП очень сложно, молодому блогу практически невозможно.

      Лучше начинать писать под НЧ (низкочастотные), НК (низкоконкурентные запросы) — составить семантическое ядро. Это не так сложно как кажется. Может вас заинтересует, я писал как составить семантическое ядро при помощи бесплатной программы Словоеб

      Ну а если вы честно ведете свой блог, не копируете тексты с других сайтов, не покупаете ссылки с заспамленных сайтов и не размещаете агрессивную рекламу (тизеры, попандер, кликандер), то бояться фильтров вам нечего 🙂

      Ответить
  5. Привет Андрей. У меня к вам вопросик по поводу фильтров. Что вы думаете по фильтру ПЕСОЧНИЦА? Есть ли он вообще? Как объяснять 100 % индексации статей и всего 17 из 100 в индексе? Может действительно что то вроде песочницы есть? Какой то временный фильтр или какой нибудь триал период вне органического поиска…

    Ответить
    • Привет, Сергей. Может на ты?
      Песочница есть определенно. У меня встречный вопрос. А с чего ты взял, что у тебя в индексе всего 17 страниц? В индексе Яндекса я вижу 125 страниц, правда среди них есть парочка дублей attachment.

      В индексе Google страниц больше и в выдаче много мусора — страницы пагинации, дубли attachment,
      Вбей в поисковой строке Гугл комбинацию site:blograbotainternet.ru и увидишь страницы, которые проиндексированы. Эта же комбинация работает и в Яндекс.

      Ответить

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *