Алгоритми Google – огляд останніх апдейтів

Алгоритми Google - огляд останніх апдейтів

Важливі Алгоритми Google для SEO.

Практично щомісяця Google публікує апдейти алгоритмів (це тільки ті Алгоритми Google, які підтверджені офіційно!). Далеко не всі з них мають істотний вплив на результати пошукової видачі і сьогодні я допоможу вам розібратися, які ж алгоритми внесли суттєві зміни в результати ранжирування SERP за останні роки.

Можливо, який-небудь з них вплинув або вплине на позиції і трафік вашого сайту. Прочитавши цю статтю, ви зрозумієте на які особливості контенту, внутрішньої і зовнішньої оптимізації варто звернути пильну увагу і як адаптувати свій сайт до нових вимог для успішного ранжирування в Google.

Ключові принципи Google

  • Створюйте сторінки в першу чергу для користувачів, а не для пошукових систем.
  • Не вводьте користувачів в оману.
  • Намагайтеся не вдаватися до хитрощів для поліпшення рейтингу в пошукових системах. Керуйтеся золотим правилом: якщо ви можете легко пояснити власнику конкуруючого веб-сайту, або співробітнику Google доцільність ваших дій з сайтом, значить ви на вірному шляху. Крім того, корисно запитати себе: чи потрібно це користувачам? Стали б ви так чинити, якби пошукових систем не існувало?
  • Задайте собі такі питання: чим унікальний ваш сайт, що робить його корисним для користувачів, чому вони повертаються на нього знову і знову? Ваш сайт повинен виділятися серед конкурентів.

1. Панда

Довідка для теми Алгоритми Google:
  • Запущено: 24 февраля 2011
  • Апдейти: ~ щомісяця
  • Мета: Знижує позиції сайтів з низькоякісним контентом

Алогоритм Google Panda використовується для виявлення сторінок з неунікальним контентом, з контентом, наповненим ключовими запитами, спамом або з автоматично згенерованим контентом. Алгоритм також може зачіпати сайти з дублями контенту на багатьох сторінках цього ж сайту і сайти з недостатньою кількістю контенту. Такі сторінки або сайти в цілому знижуються в рейтингу ранжирування Google.

Спочатку, Google Panda не була частиною основного алгоритму, а працював як фільтр Google, тобто торкався певної частки сайтів при кожному своєму апдейті. Але в січні 2016 року «Панда» був офіційно включений в основний алгоритм ранжирування. Це не означає, що алгоритм тепер працює буквально в реальному часі – все ще також існують апдейти, які зачіпають певну частку видачі. Просто тепер вони стали настільки частими, що не анонсуються компанією Google.

З одного боку це збільшує шанси сайтів із зони ризику бути швидше пессимізованими «пандою». З іншого – дозволяє власникам сайтів, раніше постраждалим від алгоритму, набагато швидше відновити свої позиції і трафік.

За що карає алгоритм «Панда»?

  • Неунікальний контент (плагіат)
  • Дубльований контент на різних сторінках одного сайту
  • Автоматично згенерований контент
  • Контент, переспамленний ключовими запитами
  • Спамний контент, згенерований користувачами (наприклад, коментарі)
  • Недостатня кількість контенту на сторінці (по відношенню до рекламних блоків, наприклад)
  • Поганий користувацький досвід

Як убезпечити свій сайт?

– Перевірте сайт на унікальність контенту

Навіть якщо ви власноруч пишете весь контент для сайту – не нехтуйте періодичною перевіркою контенту на унікальність. Для перевірки унікальності контенту скористайтесь одним з сервісів на кшталт Content Watch, чи Advego.

Інтернет-магазинам варто подбати про хоча б часткову унікалізацію інформації в картках товарів. Нехай ви не в силах змінити специфічний технічний опис товару, але зробити унікальні фотографії і відео товару, стимулювати користувачів залишати справжні відгуки – цілком реально.

– Перевірте сайт на дубльований контент

Це одна з найбільш частих причин зниження позицій. В силу особливостей різних CMS систем один і той же контент може бути доступний пошуковим системам за різними URL адресами, що призводить до появи сторінок-дублів в індексі. На жаль, власник сайту може навіть не підозрювати про такі підводні камені в структурі свого ресурсу. Виявити подібні сторінки вам допоможе спеціалізоване ПО, наприклад Screaming Frog SEO Spider. Проскануйте ваш сайт і зверніть увагу на сторінки з дублюючим мета-тегом title і тегом H1, саме вони – потенційні кандидати на наявність дубльованого контенту. Прийміть заходи по їх усуненню або закриття від роботів пошукових систем – можливе використання тега canonical, 301 редиректу або мета тега noindex.

– Перевірте співвідношення контенту на сторінці до вихідних посилань

Оцініть свої сторінки в розрізі вихідних посилань. Можливо, на вашому проекті є сторінки з великою кількістю вихідних. В цьому випадку дуже важливо додати на них побільше унікального контенту, що допоможе уникнути пильної уваги «Панди».

2. Пінгвін (Google Penguin)

Довідка для теми Алгоритми Google:
  • Запущено: 24 квітня 2012
  • Оновлення: 25 травня 2012; 5 жовтня 2012; 22 травня 2013, 4 жовтня 2013; 17 жовтня 2014; 27 вересня 2016 року; 6 жовтня 2016 року; Зараз в режимі реального часу
  • Мета: знижувати в ранжируванні сайти зі спамними посилальними профілями і сайти, котрі маніпулюють масою посилань

Посилання довго були вирішальним фактором в ранжируванні в Google і алгоритм Пінгвін був створений для виявлення і застосування санкцій до сайтів з неприродною масою посилань. Цей алгоритм змінив саме розуміння просування сайтів під Google і став страшним сном для багатьох сео-оптимізаторів. Пінгвін став початком кінця ери орендованих посилань як головної складової успішного просування. З осені 2016 року перебуває у вільному плаванні – ставши частиною основного алгоритму, збільшив в рівній мірі як шанси потрапити під санкції, так і можливість для їх зняття для раніше постраждалих сайтів.

За що сайти потрапляють під санкції «Пінгвіна»?

  • закуплені посилання
  • прямі посилання з низькоякісних спамних сайтів
  • прямі посилання з сіток сайтів, створених спеціально як донори для нарощування маси посилань
  • неприродні анкори посилань
  • прямі посилання з абсолютно недоречних за змістом сторінок

Як убезпечити свій сайт?

  • Моніторити зміни в посилальному профілі

За допомогою сервісів для аналізу беклінков (наприклад, Google Search Console, чи Serpstat) необхідно періодично відстежувати власний профіль посилань. Важливо розуміти, що за пару спамних посилань шанс потрапити під санкції Пінгвіна вкрай малий, а ось різке отримання сотень посилань з нерелевантних сайтів буде виглядати вкрай неприродньо і може привернути увагу алгоритму. Частіше дивіться на контрольний графік вашого сайту – будь-які різкі скачки повинні бути уважно розібрані.

  • Позбавлятися від шкідливих посилань

Ви проаналізували контрольний профіль і виявили спамні посилання? Тепер варто задуматися про те, як від них позбутися. Ідеальний варіант, якщо вам вдалося зв’язатися з власником / веб-майстром сайту і він видалить таку посилання. Якщо ж цей сценарій неможливий, то слід скористатися інструментом відхилення посилань Google’s Disavow tool. Таким чином ви просите Гугл ігнорувати спамні посилання при оцінюванні вашого довідкового профілю.

3. Антипіратський апдейт (Google’s Pirate Update)

Довідка для теми Алгоритми Google:
  • Запущено: серпень 2012
  • Апдейти: жовтень 2014
  • Мета: знижувати в ранжируванні сайти, які регулярно отримують скарги за зміст піратського (захищеного авторським правом) контенту.

Цей алгоритм був розроблений, щоб сайти з численними скаргами на піратський зміст не мали можливості високо ранжируватися в результатах пошуку Google. Більшість з відмічених алгоритмом сайтів містили фільми, музику або книги, доступні для скачування або перегляду. До таких сайтів Google також відніс торрент-треккери і сайти-агрегатори посилань на файлообмінники, хоча формально вони не зберігають заборонені файли, але надають інформацію про те, як їх скачати з мережі. Точної кількості необхідних скарг для потрапляння під фільтр Google не озвучує, але однозначно ясно, що робота даного алгоритму далека від ідеалу – багато сайтів з сотнями DMCA скарг успішно ранжуються в Топ-3.

За що накладається?

Логічно, що накладається за зміст на сайті піратського контенту або інформації про те, як отримати такий контент в обхід правовласника.

Як убезпечити свій сайт?

Просто не додавати подібний контент на свій сайт, іншого шляху немає. Якщо динаміка надходження скарг від правовласників буде постійною, то рано чи пізно алгоритм торкнеться і вашого сайту.

4. Колібрі (Hummingbird)

Довідка для теми Алгоритми Google:
  • Запущено: 30 серпня 2013
  • Апдейти:
  • Мета: надавати більш релевантні результати, ґрунтуючись на смислову складову пошукового запиту

Алгоритм Колібрі вніс масштабні зміни в область інтерпретації пошуковиком запитів користувача. З виходом цього алгоритму основний акцент став робитися на надання результатів, заснованих на розумінні намірів користувача, а не на простому вмісті ключових слів, як це було раніше. Саме завдяки «Колібрі» Google покращив розуміння синонімів і поділ контенту за тематиками. Тільки після виходу цього алгоритму стало можливим побачити в результатах пошуку сторінку, на якій в принципі відсутній пошуковий запит користувача, але присутні його синоніми.

Як “колібрі” може торкнутися вашого сайту?

Переспам конкретного пошукового запиту (ключового слова) в тексті без використання заданих тематикою слів, синонімів і макисмально розкриття теми збільшують ризик бути зниженим у ранжируванні по цьому запиту. Вам дуже хотілося добре ранжуватися за конкретним запитом і тому згадали його в тексті 100500 раз? Після виходу «Колібрі» ви ризикуєте отримати абсолютно зворотний ефект.

Як залишатися в безпеці?

Урізноманітьте свій текстовий контент. Використовуйте підказки Гугл для розуміння довших пошукових запитів для своєї посадкової сторінки. Структуруйте контент за допомогою заголовків h1-h6, використовуйте максимально можливу кількість синонімів і слів, що відносяться до потрібної тематики.
Не використовуйте пряме входження вашого запиту в текст, якщо він робить його нечитабельним. Не потрібно недооцінювати сьогоднішній рівень розпізнавання і розуміння розмовної мови пошуковими системами. Прочитайте свій текст який просуваєте на сторінці. Наскільки вичерпним була відповідь на ваш запит? Текст написаний нормальною мовою або в стилі “я-робот” спеціально для пошукової системи? Якщо відповіді на ці питання викликають у вас сумніви – краще переписуйте контент.

5. Голуб (Pigeon)

Довідка для теми Алгоритми Google:

Запущено: 24 липня 2014
Апдейти: 22 грудня 2014
Мета: надавати більш релевантні результати локального пошуку

Даний алгоритм вплинув на результати видачі, в яких має значення місцезнаходження користувача. Незважаючи на очікування багатьох фахівців, в основному торкнувся тільки англомовного сегмента. Після виходу цього алгоритму місцезнаходження користувача і його відстань до об’єкта, пропонованого як результат видачі, стали враховуватися як фактори ранжирування.
Алгоритм “Голуб” дозволив локальним нішевим бізнесам (ресторанам, кафе, освітнім установам) обійти в результатах видачі великі розкручені сайти і отримувати більше трафіку.
Так що, якщо ви хочете краще ранжуватися в конкретному регіоні, варто подбати про реєстрацію в Google My Business і згадці свого сайту в каталогах і сайтах саме цього регіону.

6. Mobile Friendly Update

Довідка для теми Алгоритми Google:

Запущено: 21 квітня 2015
Апдейти:
Мета: підвищувати оптимізовані для мобільних пристроїв сторінки в результатах пошуку на мобільному пристрої

Цей алгоритм дозволив дружнім до мобільних пристроїв сторінкам ранжуватися вище в результатах мобільного пошуку. На десктопну видачу даний апдейт не вплинув. Покликаний надавати користувачеві більш зручні для мобільного пристрою сторінки – без необхідності масштабування для читання тексту, без горизонтальної прокрутки, з зручними для кліка елементами.

Важливо відзначити, що дію алгоритму направлено саме на конкретну сторінку, а не на сайт в цілому. Так одна сторінка може бути визнана оптимізованою для мобільних пристроїв і отримати зростання позицій, а інша сторінка навпаки бути зниженою у видачі.

Як догодити алгоритму?

Зробити свій сайт зручним для використання на мобільному пристрої.
Звучить дуже просто, але це найвірніший шлях.
Проходимо mobile friendly test і розуміємо, що поняття про зручність використання у вас і у гугла може бути дуже навіть різною. Ваше завдання знайти компроміс – щоб сторінка була дійсно зручна користувачам і в той же час задовольняла вимогам Google.

7. RankBrain

Довідка для теми Алгоритми Google:
  • Запущено: 26 жовтня 2015 (можливо, раніше)
  • Апдейти: —
  • Мета: надати користувачеві кращі результати, засновані на релевантності та машинному навчанні

RankBrain – це система машинного навчання, що дозволяє Google краще розшифровувати і розуміти сенс запитів користувачів і надавати більш релевантні результати в залежності від контексту запиту.
У широкому сенсі, алгоритм визначає тематику сторінки і то, наскільки релевантний контент запитам користувача. Система машинного навчання дозволяє з поведінки відвідувачів сайту визначити, наскільки наданий контент був корисний, самонавчатись і з часом надавати максимально корисні результати.

Загрози для вашого сайту:

  • недолік факторів, що впливають на релевантність сторінки пошуковому запиту

Хочете ранжуватися по певному запиту, значить потрібно підвищувати релевантність вашої посадкової сторінки даному запиту.

  • поганий користувальницький досвід

Проаналізуйте свої сторінки на предмет показника відмов, часу відвідування, визначте точки виходу з сайту і постарайтеся поліпшити взаємодію користувача з вашим сайтом. Також варто визначити сторінки, що відрізняються цими метриками від середніх по сайту і з’ясувати причину поганого користувацького досвіду.
Наприклад, це може бути не найкраще сортування товарів за замовчуванням (від високої ціни до низької) на сторінці категорії інтернет-магазину, що формує у користувача невірне враження про магазин.
Точно таким же чином ви можете знайти і найбільш цікаві користувачам сторінки. Проаналізуйте їх контент і використовуйте ці знання при створенні нових сторінок, а також для оптимізації існуючих.
Також не варто забувати, що чим більше на сторінці різноманітного контенту і інтерактивних елементів, тим вищі поведінкові показники, як правило, вона отримує.

8. Опосум (Possum)

Довідка для теми Алгоритми Google:
  • Запущено: 1 вересня 2016
  • Апдейти:
  • Мета: надавати кращі, більш релевантні результати локальної видачі, грунтуючись на місцезнаходження користувача

Ще один представник фауни з «зоопарку» Google, покликаний поліпшити результати локального пошуку. Завдяки цьому алгоритму місцезнаходження користувача стало ще більш важливим фактором для показу того чи іншого результату з Local Business – чим ближче користувач до адреси компанії, тим з більшою ймовірністю даний результат буде присутній у видачі.

Алгоритм серйозно відфильтрував афілійовані організації, наприклад, з однаковими номерами телефонів або адресами. Це дозволило надавати більш різноманітні результати, щоб уникнути спроб узурпації локальної видачі.
Ще однією особливістю алгоритму стала можливість кращого ранжирування для компаній з фізичною адресою за межами певного міста. Так, якщо до виходу «опосума» такі компанії практично не показувалися в локальних результатах за запитами з назвою міста, то після – отримали непогане зростання за кількістю показів і, відповідно, трафіку.

9. Фред (Fred)

Довідка для теми Алгоритми Google:
  • Запущено: 8 марта 2017
  • Апдейти:
  • Мета: фільтрування низькоякісних сторінок з результатів пошуку, чиєю метою є прибуток від розміщення реклами та посилань на інші сайти

Останній із зазначених Гугл апдейтів основного алгоритму, Fred отримав своє ім’я завдяки жарту співробітника Google Гері Ілш (Gary Illyes), який запропонував усі наступні апдейти називати “Fred”. Представники пошуковика підтвердили, що апдейт мав місце бути, але в досить обтічній формі пояснили принцип його роботи. Так, за словами представників Google, Fred карає сайти, що порушують рекомендації для веб-майстрів. Таке твердження не дало корисної інформації спільноті seo-оптимізаторів, а ось практичні дослідження показали, що від Фреда страждають сайти з малоцінних контентом, що розміщують переоптимізовані ключовими словами тексти, містять велику кількість реклами або вихідних посилань.

«Жертви» Фреда:

  • Сайти, які зловживають банерної, pop-up і іншими видами реклами
  • Веб-сайти з статтями написаними спеціально для роботів пошукових систем з метою генерації трафіку
  • Сайти з великою кількістю вихідних посилань

Як залишатися в безпеці?

  • Зменшити свій запал в плані монетизації проекту рекламними блоками
  • Замість роботооптимізованих SEO-текстів писати релевантний корисний контент

резюме:

Тепер Ви озброєні чітко структурованими знаннями про принципи дії найважливіших алгоритмів Google. Дуже сподіваюсь, що ця інформація стала корисною вам як для просування в україномовному, так і в англомовному сегменті. Якщо ж ваш сайт втратив трафік і позиції, і ви не можете чітко визначити через який алгоритм це сталося, – звертайтеся за аудитом заповнивши запит нижче!


—————————– ПУБЛІКАЦІЯ ДОПОВНЮЄТЬСЯ З ПОЯВОЮ НОВИХ АЛГОРИТМІВ——————–

пишу на перекурах між адмініструванням і написанням декількох сайтів 😉