Просуваємо бізнес-сайти

248
  • Чи Легко зараз бути Сео-шником
  • Під який пошуковик просуватися?
  • Біле, сіре і чорне SEO
  • Що потрібно знати про роботу пошуковців
  • Індексація сайтів
  • Пошук потрібної інформації в індексі
  • Релевантність і ранжирування результатів
  • Облік передачі ваги посилань
  • Здрастуйте, шановні читачі блогу . У минулій статті ми розглянули в загальних рисах покроковий план просування комерційних сайтів.

    Будемо вважати, що ви вже прочитали і для вашого сайту були чітко визначені цілі та завдання, які вирішуються, виявлена цільова аудиторія, призначені ключові показники ефективності вашого інтернет-проекту і обрані канали для його просування.

    Просуваємо бізнес-сайти

    Якщо одним з таких каналів було обрано SEO, то вам має сенс ознайомитися з цією публікацією, в якій ми спробуємо залізти в шкуру Сео-фахівця, якому ви хочете просунути ваш сайт. Ну і постараємося зрозуміти, які методи Сео просування варто використовувати, а так само розкриємо деякі завіси в роботі пошукових систем.

    Чи Легко зараз бути Сео-шником

    Зараз працювати в області SEO може далеко не кожна людина. Тут потрібен особливий склад характеру, бо існує цілий ряд проблем, з якими постійно стикається подібний фахівець:

  • Працювати доводиться в умовах постійно (перманентно) змінюються алгоритмів роботи пошукових систем. Базові принципи, описані у наведеній за посиланням статті, залишаються постійними, проте змінюються нюанси, які роблять істотний вплив на успіх кампанії по просуванню сайту. По суті, будь-які раніше виявлені Сеошниками закономірності можуть перестати працювати відразу, і ніхто не може гарантувати працездатність використовуваних зараз методів. Люди, що люблять стабільність і визначеність, на такій роботі не приживуться.
  • Будучи SEO фахівцем ви можете не спати ночами, думати, робити, і протягом півроку буквально «жити» проектом замовника, але в результаті справи у просувного сайту можуть навіть погіршитися. Одночасно хтось може палець об палець не вдарити, а просувний їм проект буде рости у видачі. Звідси випливає досить низька мотивація Сеошників до звершення трудового подвигу. Багато просто не в їхній владі, і успіх часто може визначити те, що волі сеошника не підвладне.
  • Мало того, що результат в SEO за великим рахунком не гарантований, так ще і дійсно грамотних (досвідчених фахівців у цій області досить-таки мало, і вже точно менше, ніж це затребуване ринком. Тому середня кваліфікація середнього сеошника досить низька. По суті, немає інституцій або академій, які б їх готували. Або, у всякому разі, в достатній кількості і належної якості. Люди вчаться по курсам, вже не актуальним книгах, статтях і блогах.
  • Процесу підвищення освіченості сеошників насамперед перешкоджає те, що предмет їх вивчення не хоче, щоб вони його вивчали і впізнавали. Пошукові системи ні в якій мірі не зацікавлені у відкритому діалозі з SEO фахівцями, бо, по суті, перебувають з ними по різні сторони барикад. Тому знання доводиться отримувати шляхом спостереження за пошуковими машинами і постановкою експериментів, що не є самим простим і ефективним способом. Між собою сеошники теж не так вже й охоче діляться своїми напрацюваннями.
  • Не всі сайти пропоновані замовниками можна просунути засобами SEO в сучасних умовах. Вони могли бути розроблені або дуже давно, або без врахування їх можливого просування в пошукових системах.
  • Часто власники сайтів самі не знають чого хочуть, і сформульовані ними в задачах цілі просування абсолютно не відповідають тому, що вони насправді хочуть отримати в результаті роботи Сео спеціаліста. Виникають непорозуміння, але клієнт, як завжди, прав і…
  • Під який пошуковик просуватися?

    Крім всіх описаних вище труднощів, Сео-шники змушені при просуванні сайтів намагатися «прислужитися» принаймні двом господарям — Яндексу і Гуглу. А якщо брати в розрахунок і пошук Mail.ru, то трьом.

    Якщо вірити показанням лічильника Ливинтернет, то в рунеті (доменній зоні RU) зараз спостерігається приблизний паритет між Яндексом і Гуглом, а частка інших пошукових систем зникаюче мала на їх фоні (хіба що тільки за виключення Майла, але там особлива аудиторія, яка в основному складається з користувачів інших сервісів цієї корпорації).

    Доля Яндекса и Гугла в 2017 годуПросуваємо бізнес-сайти

    Гул здорово підросла за останні роки, бо раніше перевага у Яндекса був чи не удвічі. Секрет криється в тому, що зараз йде тенденція до збільшення частки мобільного трафіку (відвідувачів, які заходять на сайти зі смартфонів і планшетів), а у Google тут величезну перевагу у вигляді власної мобільної платформи Android і встановленим там за замовчуванням пошуком. Хід конем, що називається.

    Процент мобильного трафика в рунетеПросуваємо бізнес-сайти

    Як видно з даних того ж Лайвинтернета, трафік з Андроїда складає більше третини від усього трафіку рунета. Ви тільки вдумайтеся? А якщо брати в розрахунок і інші мобільні платформи, то число людей, що заходять в мережу з мобільника вже перевищило число тих, хто заходить з ПК або ноутбука. Далі буде ще більший відхід у мобільність і це знову ж додає нових проблем сеошників і маркетолагам, бо істотно змінюється поведінка користувачів на сайті.

    По-любому, від просування в Google (а вже тим більше в Яндексі, бо саме там сидить велика частина цільової аудиторії по багатьом комерційним тематик) ніхто просто так відмовитися не може, і практично всі комерційні сайти зараз просуваються під обидва цих пошуковика.

    Ну, а якщо сайт буде орієнтований на буржунет, то там вже у Гугла взагалі практично немає гідних конкурентів. На світовому рівні вони навіть не порівняти. Людські, фінансові та апаратні ресурси відрізняються на порядок. А це впливає на те, як працюють алгоритми Google, і на те, як швидко він працює в цілому.

    Крім цього, якщо знову повернутися до рунету, у Яндекса і Гугла істотно відрізняються аудиторії. Може цілком виявитися так, що вся ваша цільова аудиторія користується тільки Гуглом (або тільки Яндексом).

    Скажімо так, в Яндексі більше чайників. І це зовсім не погано, бо з них виходять відмінні покупці, але якщо ваш товар або послуга орієнтована на трохи більш просунутих користувачів, то Google може стати для вас основним джерелом трафіку. Якісь глобальні дослідження на цей рахунок ви навряд чи знайдете в паблике, але я думаю, що почавши розвивати і просувати сайт, ви швидко зрозумієте, яка пошукова машина для вас є пріоритетною.

    Якщо говорити про пошук Майл.ру, то його частка в рунеті складає десь близько п’яти відсотків і вона обумовлена насамперед тим, що всі сервіси Майла збирають величезну аудиторію в рунеті (навіть більшу, ніж всі сервіси Яндекса). При цьому у них періодично змінюється пошуковий движок. Вони постійно торгуються з Яндексом і Google про надання їм кращих умов, а коли домовитися не вдається, то тимчасово використовують свій власний движок gogo.ru.

    Біле, сіре і чорне SEO

    Отже, SEO спеціаліст повинен буде всіма правдами і неправдами змусити згадані вище пошукові системи звернути увагу на просувний їм сайт (хоча б у плані його повної індексації) і якимось хитрим і незрозумілим способом змусити їх полюбити. І це все при тому, що пошукачі в своїх ліцензіях чітко говорять, що при ранжуванні і визначенні релевантності документів ними будуть враховуватися виключно інтереси користувачів пошуку, а аж ніяк не власників ресурсів.

    Значить доведеться «хитрувати» і часто йти на свідоме порушення всіх цих ліцензій. Залежно від ступеня хитрощів і глибини порушень правил пошукових систем SEO просування можна розділити на три групи:

  • Біла SEO оптимізація — всі вжиті дії будуть іти в повній згоді з ліцензіями пошуковиків. Цей шлях складний, трудомісткий, з низькою і сильно відтягнутою за часом віддачею. Але в той же час він самий надійний, стабільний і за його використання не буде песимізація, фільтри або бан.
  • Прогнозування запитів, за якими користувачі Яндекса або Гугла можуть потрапити на ваш сайт. Фактично це складання семантичного ядра з допомогою, наприклад, підбору ключових слів у Вордстаті і створення сторінок під них оптимізованих. Пошукові системи це вітають, бо їм потім простіше буде шукати релевантну запитом інформацію. Але тут, звісно, не йдеться про переоптимизации, бо це вже є порушенням ліцензії.
  • Оптимізація структури контенту і його внутрішньої перелінковки. Пошуковики знову ж таки не будуть заперечувати, якщо ви таким чином допоможете їх роботам швидше знайти і правильно обробити наявний контент. А також показати ступінь важливості тих чи інших матеріалів на вашому сайті. Але знову ж без фанатизму.
  • Природне нарощування посилальної маси. Ключове слово тут «природне», але про це ми поговоримо трохи пізніше.
  • Сіре SEO — не зовсім узгоджується з ліцензіями пошукових систем, але саме цей спосіб оптимізації є найбільш популярним і масовим серед Сеошників. Однак, це може бути сприйнято, як спроби маніпуляції видачею, і на ваш сайт можуть бути накладені санкції (фільтри).
  • Купівля та обмін посиланнями у великих масштабах
  • Переоптімізація текстів (спам ключовими словами) для підвищення їх релевантності в очах пошукових систем
  • Чорна оптимізація — відверте порушення ліцензії пошуковиків, за що гарантовано можна отримати накладення санкцій (питання тільки в термінах, протягом яких вас виявлять і прижучат).

    Черное SEOПросуваємо бізнес-сайти

    Проте, ці методи використовуються, та у видачі Яндекса і Гугла можна за деякими запитам спостерігати, наприклад, засилля дорвеїв, а в індексі пошуку все так само є величезна кількість ГС (дивіться незрозумілі вам терміни у статті про те, як почати розуміти Сеошників).

    Перерахую приклади чорного SEO без вдавания в конкретику, бо ніколи цим не займався і займатися не має наміру:

  • ГС і Дорвеї — створюються вручну або автоматично «погані» сайти, які покликані обманювати пошуковики (потрапляти в індекс, щоб з них можна було продавати посилання, або навіть в Топ видачі, щоб на них йшов трафік, який потім буде перепродаватися), але ніякої корисності для відвідувачів не мають.
  • Клоакінг
  • Прихований (невидимий) текст
  • Щось ще, про що можна прочитати в ліцензіях (див. ліцензію Яндекса для прикладу).
  • Що потрібно знати про роботу пошукових систем

    Однак для того, щоб застосовувати озвучені способи оптимізації, сеошник повинен насамперед розуміти хоча б загальні принципи роботи пошукових машин. І чим більш ризикованим SEO він збирається займатися, тим більш глибокими і детальними повинні бути його пізнання.

    Індексація сайтів

    Роботу починає пошуковий робот (бот), який представляє з себе звичайний комп’ютер (сервер) з відповідним. Він обходить сторінки з потенційним наявністю якісного і унікального контенту, знаходить вебсторінку, визначає її вміст (об’єм, якість), і якщо вона йому сподобається, то він передає її на наступний рівень, який можна визначити, як пошуковик.

    У силу апаратних обмежень роботи не снують в інтернеті як заведені, а керуються певними принципами. По-перше, вони ходять на сторінки, на яких проставлено багато посилань зі сторінок, які вже є в індексному базі. По-друге, частота повторного відвідування не завжди висока і розраховується індивідуально.

    Просуваємо бізнес-сайтиПросуваємо бізнес-сайти

    У Яндекса можна виділити два типи роботів:

  • Основний робот — індексація основного вмісту не має новинного характеру, коли потрібно буде швидко додати його видачу. Тут ранжування йде по повному циклу, на відміну від описаного нижче быстробота.
  • Быстробот — пошуковий робот, який покликаний наповнювати видачу наисвежайшими матеріалами. Він відвідує сайти, де часто з’являється нова інформації (наприклад, блоги RSS стрічкою або новинні ресурси). Знайдені сторінки ранжуються, спираючись лише на деякі внутрішні чинники, і вони миттєво з’являються у видачі із зазначенням дати їх створення. Але на наступний день позиції по цим запитам можуть змінитися після приходу основного робота індексування.
  • Пошук потрібної інформації в індексі

    Пошуковик представляє з себе знову ж звичайний сервер (що таке сервер), але вже з іншим програмним забезпеченням. У його завдання входить обхід знайдених ботом сторінок, завантаження їх вмісту і подальша його обробка (створення індексу).

    Всі позначені пошуковим роботом сторінки викачуються (у вигляді вихідних Html кодів), з них витягується контент (текст укладений в Html коді, який повинен бачити відвідувач) і проводиться його первинний розбір і аналіз. Текст веб-сторінки записується в окремий файл (умовно) і туди ж записуються всі посилання, знайдені на сторінці (вони потім відправляються пошуковому роботу, щоб він туди сходив теж).

    З отриманого тексту видаляються всі стоп-слова (сполучники, прийменники) і розділові знаки. Отриманий в результаті набір слів розбивають на так звані пасажі. По суті, це пропозиції, але з деякими допущеннями. Пасажі, як і пропозиції, об’єднуються смисловою закінченістю, але оперувати саме пропозиціями, при машинному аналізі російського тексту, практично не можливо (в силу його «великости і могучести»).

    Тобто аналіз ведеться не за фізичною (спочатку наявними в тексті) пропозицій, а по новоствореним (машинним), які й назвали пасажами. Ну, а ці самі елементи вже складаються в індексну базу і кожного пасажу присвоюється своя вага, що характеризує його значимість усередині цього тексту. Від чого може залежати вагу? Наприклад, від того, наскільки цікавий пасаж даного тексту, скільки разів він у ньому повторюється і де всередині тексту він розташований.

    В результаті формується база даних (пошуковий індекс), в якій кожна проіндексована веб-сторінка представлена набором пасажів з віддаленими шумовими словами (безглуздими, сполучними паразитними, повтореннями). Саме по цій базі (індексу) ведеться пошук.

    Коли вам потрібно буде увігнати в індекс нові сторінки, що з’явилися на сайті, то кращим варіантом будуть сервіси по залученню быстробота (індексування) пошукових систем. Серед них можна виділити два схожих — IndexGator і GetBot. Коштує це справа зовсім не дорого, а ефект досить стабільний.

    Визначення релевантності та ранжування результатів

    На самому верхньому (до користувачів пошукових систем) знаходиться пошуковий сервіс, який приймає запити від користувачів, і на підставі розрахунку релевантності та застосування факторів ранжирування вибирає (з створеного на попередньому етапі пошукачем зворотного індексу) потрібні вебстранички, які потім будуть показані користувачеві в якості видачі (серпа).

    Спрощено це можна представити так, що відвідувач Яндекса задає своє питання і пошукова система починає шукати у своїй індексного базі сторінки містять пасажі, які максимально відповідають цьому запиту. Отриманий список релевантних сторінок тепер потрібно буде ранжувати (розставити пріоритети), тобто визначити послідовність розташування цих вебсторінок у видачі.

    Просуваємо бізнес-сайтиПросуваємо бізнес-сайти

    Перший принцип, який почав використовуватися вже дуже давно, називається індексом цитування. В його базової версії він враховував кількість згадок даної сторінки (число провідних на неї посилань). Про цю систему я досить докладно писав у статті про те, що таке Тіц і Віц сайту в Яндексі. Недолік такого підходу полягає в тому, що враховується лише загальна кількість посилань, але не їхню якість.

    Тому далі був придуманий зважений індекс цитування, який враховує авторитет і якість сайтів, що посилаються. З’являються так звані ваги (статичні), які передаються по посиланнях. У Google це індекс називається Пейдж Ранком, тулбарное значення якого раніше можна було дізнатися для будь-якої сторінки будь-якого сайту (зараз це діло прикрили).

    Зважений індекс цитування можна описати, як коефіцієнт ймовірності попадання відвідувача на дану вебсторінку з будь-якої іншої сторінки мережі інтернет. Іншими словами, чим більше на цю сторінку посилань і чим більше серед посилаються ресурсів буде авторитетних, тим імовірніше буде відвідання даної сторінки і тим вищою буде її вагу. Він розраховується за допомогою формули в кілька ітерацій. Формула ця періодично змінюється і допрацьовується.

    Раніше ми могли спостерігати тулбарное значення ПейджРанка, яке оновлювалося раз у кілька місяців і було побудовано на основі логарифмічної шкали, коли реальна різниця між вагою сторінки з ПР=1 і ПР=7 могла бути тысячекратной або навіть більше. Подробиці читайте у згаданій трохи вище статті.

    Також слід розуміти, що те або інше значення ПейдРанка для вашої сторінки на її позицію у видачі по тому чи іншому пошуковому запиту прямого впливу надавати не буде. Але в той же час алгоритм, закладений у розрахунку ПР, використовується при ранжируванні сторінок, а значить його потрібно знати і розуміти, щоб в подальшому використовувати для своєї користі.

    Облік трансляції посилальних ваг при ранжируванні

    У схемі ПейджРанка (зваженого індексу цитування) є таке поняття, як передається за посиланням вагу.

    Статична вага передається по посиланнях

    Передача ваги є не зовсім правильним терміном, бо вага не передається, а транслюється, тобто донор (читайте статтю про SEO терміни) нічого не втрачає при установці посилання, але при цьому акцептор отримує за нею певний статичний вагу. Під терміном статичний слід розуміти те, що ця вага не залежить від того, що використовується в якості анкора посилання.

    Скільки ваги може передати та чи інша веб-сторінка в інтернеті можуть знати тільки алгоритми пошуковиків. Але достеменно відомо, що цей самий вага буде порівну поділено між усіма сторінками-акцепторами, на який будуть вести посилання з цього донора. Виходячи з цього принципу можна зробити багато висновків з зовнішньої і внутрішньої перелінковки сайту.

    Загальний висновок за принципом трансляції ваг — для того, щоб прокачати яку-небудь свою сторінку, потрібно отримувати на неї посилання, бажано з авторитетних сторінок. А як дізнатися, чи високий авторитет тієї або іншої сторінки в інтернеті? Правильно, потрібно подивитися на значення ПейджРанка для неї.

    Просуваємо бізнес-сайтиПросуваємо бізнес-сайти

    У Яндекса теж є аналог пейджранка, який розраховується для всіх сторінок (ВІЦ), але впізнати його значення зараз не представляється можливим. Також у нашого пошукача є в арсеналі ще й тематичний індекс цитування Тіц, при розрахунку якого насамперед враховується тематика посилаються ресурсів.

    Вимірюється він для всього сайту в цілому. Для тематичних посилань (оцінюється тематика за змістом тексту) застосовується підвищувальний коефіцієнт, порівняно з околотематическими і нетематичними, для яких може застосовуватися серйозна сбавка переданого ваги. Тому для нарощування Тіц важливі посилання не просто з авторитетних ресурсів, а бажано, щоб вони були близькою або збігається тематики з вашим сайтом. Безпосередньо на ранжування він не впливає, але ті ж принципи використовуються для побудови сайтів у видачі.

    Динамічний вагу, залежить від тексту посилання (анкора)

    До цього моменту ми говорили лише про статичні ваги. Однак, при розрахунку трансляції ваги для будь-посилання, пошукові машини використовують два типи ваг. Перший — статичний, про який ми вже поговорили і який розраховується без урахування тексту посилання (її анкора). Другий — динамічний (анкорный), який розраховується на підставі декількох параметрів:

  • Тематика донора (звідки проставлено посилання)
  • Вміст (тематика) анкора
  • Тематичність акцептора (сторінки вашого сайту)
  • Чим більш релевантні ці три складові, тим більш високий анкорный вага буде транслювати посилання. Якщо у посилання немає анкора (безанкорная), то динамічний вага, рухаючись по ній, не розраховується зовсім. Статична вага передається завжди, якщо тільки сайт донор не знаходиться під фільтр пошукових систем за продаж беклінків.

    Звідси можна зробити дуже важливий висновок — будь-яке посилання, проставлена на ваш сайт, може бути цінною для вас двома своїми вагами. По-перше, ми нагінкою статична вага своєю веб-сторінки, що є добре. Але якщо ще грамотно використовувати анкор, то значимість цієї ж посилання може бути збільшена в декілька разів.

    Що потрібно зробити, щоб отримати високий анкорный вага? Спробуємо розписати по пунктах:

  • Донор повинен мати максимально можливий авторитет в пошукових системах. Точніше сторінка, звідки проставляється беклінків. Раніше можна було про це судити, дивлячись на значення ПейджРанка цієї сторінки — чим менше воно буде відрізнятися від 10, тим краще, але на жаль зараз це в минулому. Доведеться користуватися платними інструментами різних сервісів перевірки сайту.
  • Сторінка-донор має бути максимально близька за тематикою до сторінки-акцептору (просуває вами).
  • Анкор посилання теж повинен бути максимально тематичним сторінці-акцептору (її вмісту, тобто тексту).
  • Про використання в анкор прямих і розбавлених входжень ключових слів ви можете почитати за наведеною трохи вище посиланням.

    Удачі вам! До зустрічей на сторінках блогу