Як розкрутити сайт самому

386
  • Помірна оптимізація допомагає просунути сайт без витрат
  • Унікальний контент і проблема дублювання
  • Треба просувати сайт комплексно і рівномірно
  • Здрастуйте, шановні читачі блогу . Сьогодні я публікую продовження мануала по тому, як просувати сайт самостійно для початківців вебмайстрів і оптимізаторів. Взагалі, стаття писалася як єдине ціле, але вийшов у підсумку розмір змусив розбити її на три частини. Першу частину Як і навіщо просувати сайт ви можете прочитати за наведеним посиланням.

    Як розкрутити сайт самому

    У ній ми розглянули різні способи, що дозволяють залучати на свій проект додаткових відвідувачів. Причому, ми прийшли до висновку, що найбільш перспективним заняттям є розкрутка в пошукових системах, бо при цьому формується стійкий і один з самих стабільних видів трафіку на ваш ресурс — пошуковий трафік.

    Але для того, щоб почався істотний приплив відвідувачів з пошуку, вам доведеться добряче попрацювати над внутрішньої, зовнішньої і користувальницької оптимізацією свого проекту. Але про все по прядку і на черзі у нас сьогодні внутрішні фактори.

    Помірна оптимізація допомагає просунути сайт без витрат

    Зазвичай внутрішня пошукова оптимізація сайту включає в себе написання тексту статті з таким розрахунком, щоб у ній зустрічалися вибрані вами ключові слова, за якими ви хочете потрапити в Топ 10 у пошуковій видачі. Як часто повинні включатися ключі в тексті статті — окреме питання, але, мабуть, їх щільність у понад 1-2 відсотка від загальної кількості слів у статті буде максимально допустимої, а якщо більше, то це вже спам і штучна накрутка.

    Дозволю собі нагадати вам деякі матеріали, на які я посилався в першій частині мануала по просуванню і які можуть вам стати в нагоді якраз при розгляді сьогоднішніх питань. По-перше, це серія матеріалів з внутрішньої оптимізації, а також деякі поради з внутрішньої оптимізації під Google.

    Ключові слова в тексті намагайтеся вживати в різних словоформах (відмінках, числах і т. п.) і не вживати їх двічі в межах одного речення або навіть абзацу, а ще намагайтеся рівномірно розподілити їх по статті. Для посилення їхнього впливу, деякі з них (ні в якому разі не всі, а то пошуковики дадуть вам по руках) можна виділити тегам STRONG чи EM, а також ключевики можна використовувати заголовків h1-h6.

    Не знаєте Html тегів? Це досить просто і доступно, спробуйте для заповнення прогалин скористатися даною рубрикою HTML для початківців.

    Тепер найважливіше — обов’язково використайте ключові слова в мета тегу Title (заголовку сторінки). Якщо цього не зробити, то просунути цю статтю буде вкрай складно або взагалі неможливо. Взагалі, про самостійне просування я вже писав досить докладно, тому після прочитання цієї публікації не застосуйте ознайомитися з матеріалом по наведеній посиланням.

    Title мало того, що повинен включати в себе ключевики, він повинен правильно формуватися використовуваної вами CMS (системи управління контентом). Бо часто в ньому спочатку йде назва всього ресурсу, а вже тільки потім назва даної конкретної статті. Чим це погано?

    Та всім погано. В Title пошуковими системами враховується тільки обмежене число слів, і якщо назва вашого проекту дуже довге, то все тайтли будуть для пошукових систем однаковими, що не принесе вам ніякої користі, а лише один шкоди.

    У правильно сформованому в автоматичному режимі тайтлі на початку повинно йти назву статті, розташованої на цій сторінці, а вже після нього назву вашого ресурсу. Це обов’язково потрібно враховувати при створенні сайту (формування правильного Title в Joomla і тайтли в WordPress).

    Також правильно складений і сформований мета тег Title, про який читайте тут, може зробити істотний вплив на користувальницькі фактори, що, в свою чергу, може як допомогти, так і зашкодити просувати свій сайт. Але про це читайте в третій частині даного мануала.

    При написанні тексту статей слід ще враховувати той факт, що Яндекс і Гугл віддають перевагу добре структурованим текстів, в яких використовуються заголовки різних рівнів (H1-H6), якщо обсяг тексту буде достатньо великим для цього. Але заголовок рівня H1 на кожній сторінці повинен бути в однині, інакше це може бути зараховано як спам.

    Всі інші рівні заголовків можна використовувати необмежено, але вони повинні дотримуватися вкладеність (всередині заголовка рівня H3 можна використовувати заголовки H4-6, але не H2). Ну і ключові слова у заголовки не забудьте додати, бо їх вплив після укладення в ці теги заголовків дещо збільшується. Знову ж таки, спамити не можна ні в якому разі.

    Також пошуковикам подобається, коли текст розбавляється різними Html списками, таблицями або зображеннями. При вставці зображення в текст за допомогою тега IMG, обов’язково пропишіть йому атрибут ALT, в якому використаєте ключові слова, бо вони теж будуть враховані пошуковими системами. Детальніше про всі ці тонкощі Html розмітки читайте в цих статтях:

  • Як вставляти зображення в Html код за допомогою тега IMG описано тут і тут
  • Як створювати гіперпосилання — тут
  • Форматування тексту в HTML, Html шрифти, Strong, Em, B, I — тут
  • Маркіровані і нумеровані списки — тут
  • Таблиці різної складності і вкладеності — тут
  • Html форми — тут
  • Вставка відео та іншого медиаконтенкта з допомогою Embed і object — тут
  • Та й саме зображення отримує шанс взяти участь в пошуку зображеннями від Яндекса і Google. Правда реальний трафік з пошуку по картинках може існувати тільки в певних тематиках, але кілька десятків переходів на добу вам теж, мабуть, не завадять. Назви файлів з зображеннями теж можна буде скласти з ключових слів перетворених транслітом.

    Ще один важливий момент, який може в тій чи іншій мірі вплинути на те, наскільки просто буде вам просувати сайт — це активація ЧПУ (людино-зрозумілих урлов) в використовуваної вами CMS. Це дає можливість замінити адреси (URL) сторінок з виду (edit.php?post_type=page) на зрозумілу користувачам і пошуковим системам вид (https:///gde-vzyat-vneshnie-ssylki).

    ЧПУ посилання дають відразу дві переваги. По-перше, вашим відвідувачам буде легше орієнтуватися навіть просто використовуючи Урли сторінок, особливо, якщо ви включите до них назви розділів і категорій, до яких вони належать.

    А, по-друге, ключові слова, написані транслітом в URL схильних до такого перетворення, будуть враховуватися пошуком, що наочно можна побачити в пошуковій видачі по будь-якому запиту (вони будуть виділені жирним). Це знову ж таки буде привертати більше уваги користувачів і підвищувати ваші поведінкові характеристики.

    ЧПУ краще робити на трансліті, а не на кирилиці. В якості роздільника використовуйте тирі, бо воно сприймається пошуковими системами, як символ розділення слів (на відміну від символу підкреслення). Про його включення читайте детальніше тут — SEF для Joomla, ARTIO JoomSEF, ЧПУ в WordPress.

    Внутрішня оптимізація теж повинна в обов’язковому порядку включати і перелінковку. Що це таке і для чого вона потрібна? Для прикладу зайдіть на сайт Wikipedia і переконайтеся, що зі сторінки з будь-якою статтею буде йти безліч посилань на інші публікації прямо з тексту матеріалу (я не кажу про елементи навігації, меню і т. п., кажу саме про гіперпосилання, що вставляються з тексту, бо це найбільш ефективний спосіб лінкування).

    А тепер скажіть — ви часто бачите Вікіпедію на перших позиціях у видачі? А це в тому числі і за рахунок такої всеосяжної внутрішньої перелінковки, хоча і не тільки з-за цього (тут може бути і в трасті причина), але це вже тема для окремої розмови про нюанси роботи пошукових систем.

    Є різні теоретичні схеми правильної внутрішньої лінкування, наприклад, перелінковка під низькочастотні запити. Але особисто я роблю її за схемою «сфера», коли статті однієї тематики посилаються на безліч інших, але з цієї ж теми (кажуть, що лінковка всередині кластерів одного сайту ефективна, а ось між ними не дуже). Виходить кілька сфер лінкування, які також пов’язані і між собою.

    У загальному випадку, її значимість для просування сайту можна порівняти з кровоносною системою людини. Чим більше буде пронизаний внутрішніми посиланнями ваш проект (не варто робити однин великий наскрізний блок з посиланнями, який буде відображатися на всіх сторінках, а саме линковать з тексту статей), тим рівномірніше буде розподілятися по його сторінках статична вага (це аналог крові) і тим вище будуть стояти сторінки вашого проекту в пошуковій видачі.

    Статична вага передається між будь-якими сторінками в інтернеті гіперпосилання, якщо вони не закриті від індексації пошуковими системами. Причому не важливо, будуть це сторінки вашого ж ресурсу (внутрішні лінки) або ж це будуть сторінки інших ресурсів (зовнішні). Тому, якщо ваш проект містить достатню кількість добре перелинкованных між собою сторінок, то статична вага (який можна побічно оцінити за тулбарному значення PageRank) може бути дуже істотним і дозволить вам стояти вище у видачі при інших рівних умовах.

    Також врахуйте, що довжина тексту ваших статей теж може допомогти або, навпаки, перешкодити успішно просунути проект. Текст не повинен бути занадто коротким (мені здається, що потрібно хоча б 1000 слів), але і занадто довгим робити його немає сенсу, бо це було перевагою кілька років тому, але після того як оптимізатори стали зловживати цим фактором, що впливає на релевантність (писати рушники зразок деяких моїх статтею), пошуковики різко знизили вплив довгих текстів на ранжування.

    Однак, короткі статті ризикують просто випасти з індексу пошукових систем, особливо, якщо у вас має місце бути дуже великий наскрізний блок (сайдбар, купа меню, наворочений футер і т. п. блоки, які відображаються на всіх сторінках ресурсу). Так, звичайно ж, Яндекс і Гугл вміють відокремлювати наскрізні блоки від корисного контенту та враховують їх по різному, але це не заважає їм викидати короткі пости з індексу за неповне дублювання.

    Унікальний контент і проблема дублювання

    Ми тут, до речі, підійшли до архіважливої проблеми, що заважає просувати ресурси багатьом початківцям вебмайстрам. Я кажу про дублювання контенту. Зрозумійте і запам’ятайте раз і назавжди — пошукові системи не люблять повні або часткові дублікати сторінок, причому не важливо, дублікат це вашої сторінки або дубль статті скомунизженной з іншого сайту. Хоча в другому випадку покарання може бути більш жорстким, особливо останнім часом.

    Чому їм не подобаються дублі в будь-якому вигляді? Та все дуже просто і банально. Індексуючи купу дублікатів, вони змушені задіяти додаткові резерви для зберігання даних дублів (комп’ютерні потужності), а будь-які зайві витрати викликають у комерсантів бажання боротися з причинами, що їх викликають.

    Тому не допускайте ситуацій, коли у вас можуть з’явитися повні або часткові дублікати сторінок. Що для цього потрібно робити чи не робити? Ну, по-перше, не потрібно копіпаст чужі статті, нехай навіть і частково. Це не добре з усіх точок зору, в тому числі і з точки зору того, що просувати сайт з унікальним контентом буде на порядок складніше, та й ризик потрапити під страшний фільтр АГС (майже всі сторінки ресурсу будуть видалені з індексу Яндекса) або його аналогів в Google, буде вкрай високий.

    Тобто виходить, що унікальний контент — це той мінімум, який необхідний для того, щоб успішно просунутися. Але цього, на жаль, не достатньо. Чому «на жаль»? Та тому що пошукачі ще не так розумні, щоб врівень з людиною вміти відрізняти хороші статті, просто прочитавши їх.

    Вони оперують тільки такими одиницями інформації як слова і якщо ви в своєму унікальному, з усіх точок зору, тексті не згадайте кілька разів про що саме ваша стаття, то і в Топі пошукової видачі по бажаного запитом вам, швидше за все, не бувати.

    Тому, якщо хочете мати трафік з пошуку, то окрім написання оригінальних матеріалів озаботьтесь хоча б мінімальної його внутрішньою оптимізацією і при можливості перелінковкою, відповідно до описаних мною вище принципами.

    Переборщувати з внутрішньою оптимізацією теж не можна, але і не робити її взагалі буде досить нерозумно і не далекоглядно (сорому вжити кілька разів у тексті ключові слова, боячись праведного гніву читачів тут не доречні, бо ми волею не волею загнані в такі умови сучасними алгоритмами). Не забувайте, що ви пишете для людей, а якщо цих людей не буде достатньо приходити з пошуку, то і писати вам виходить немає сенсу.

    Продовжимо про дублювання контенту, бо ми трохи збилися. Отже, для того, щоб на сайті можна було просувати без проблем, потрібно позбутися по можливості від усіх повних та не повних дублів контенту. Будемо вважати, що тексти у нас унікальні і вони досить довгі, щоб не бути визнаними пошуковими системами неповними дублями з-за великих наскрізних блоків.

    Але практично будь — CMS (система управління контентом) створює дублі (версії сторінок » для друку, rss стрічки тощо) і з цим обов’язково потрібно боротися.

    Спосіб боротьби полягає у створенні заборон для пошуковиків, з огляду на які вони не посміють торкнутися індексацією дублі. Т. о. ми не тільки збережемо обличчя перед пошуком (а немає у нас дублів — ось такі ми білі і пухнасті), але і зменшимо навантаження на сервер, створювану роботами усіх пошукових систем. До індексації слід з цієї причини також заборонити і всі службові файли використовуваної вами CMS.

    Для заборони індексації ми буде використовувати так званий файл robots.txt, важливість якого для подальшого успішного просування дуже важко переоцінити. Якщо ви з якихось причин вважаєте, що цей файл не потрібно, то ви помиляєтеся, в силу того, що просто не знаєте або не враховуєте всіх позитивних моментів від його правильного використання (ви не любите кішок? — просто ви не вмієте їх готувати).

    Підкреслюю, саме правильного файлу robots.txt, тому що досить часто виникають ситуації, коли початківці вебмастера забороняють до індексації просувні сторінки зі статтями, що може призвести до повного зникнення пошукового трафіку. Працювати з цим файлом слід осмислено і обов’язково перевіряти через Вебмастер Яндекса і Гугла правильність його роботи (введіть посилання одній зі своїх статей і подивіться, чи не заборонено її індексація).

    Що таке файл robots.txt які директиви в ньому використовуються, як буде виглядати оптимальний robots.txt для Joomla та WordPress, я вже досить докладно описував. Раджу ознайомитися з цими або якими-небудь іншими матеріалами, бо річ дійсно потрібна і корисна, хоч і не відразу зрозуміла.

    Ті хто використовує WordPress можуть скористатися плагіном All in One SEO Pack, що допомагає вирішити цілий ряд питань щодо правильної індексації сторінок блогу, а також дозволяє заборонити індексувати сторінки з неповними дублями і прописати в шапку сторінок дублів спеціальний новий тег Canonical, який підкаже пошуковцям, що перед ними дубль і покаже адресу сторінки з оригіналом тексту, яку потрібно буде проіндексувати.

    Варто ще згадати про таку річ, як склейка дзеркал сайту з WWW і без нього. Ви, напевно, вже зустрічали в інтернеті доменні імена як з WWW, так і без нього. В принципі, ви швидше за все розумієте, що обидва варіанти будуть одним і тим же ресурсом, але ось пошукові системи дотримуються іншої думки і цілком можуть порахувати їх двома різними сайтами з усіма витікаючими наслідками. А які можуть бути наслідки?

    Так, в принципі, самі сумні. Припустимо, що зовнішні зворотні посилання будуть проставлені в основному на ваш домен з WWW, а недалекоглядні пошуковики зроблять головним дзеркалом без WWW. В результаті вся накопичена посилальна маса (результат зовнішньої оптимізації, про яку ми детально поговоримо в третій частині мануала по просуванню для початківців) буде втрачена.

    Так от, щоб цього уникнути потрібно прописати у файлі .htaccess кілька рядків для склеювання дзеркал, а у файлі robots.txt додати Яндекса спеціальну директиву Host (див. посилання на статтю вище), пропонує йому вибрати в якості головного дзеркала той чи інший варіант. Детальніше про всі ці перипетії читайте у цьому матеріалі — Домени з www і без нього та їх склеювання.

    Отже, ми підібрали низькочастотні і середньочастотні запити, за якими будемо просувати сайт, написали унікальні тексти з потрібними ключовими словами, одночасно провівши їх внутрішню пошукову оптимізацію, створили розгалужену схему перелінковки, а також заборонили до індексації всі повні і не повні дублі контенту.

    Ми молодці. Загалом-то, вже тільки цього буде достатньо для просування і попадання в Топ за деякими НЧ (у всякому разі за тим, де немає конкуренції між оптимізаторами, тобто такими ж розумними челами як і ми з вами).

    Треба просувати сайт комплексно і рівномірно

    Але для того, щоб просувати сайт успішно і потрапити в Топ по більшості намічених запитів, однієї лише внутрішньої оптимізації буде не достатньо. Треба буде обов’язково приділити достатньо часу і сил ще двом чинникам, впливає на успішність процесу — зовнішня оптимізації і поведінку користувачів на вашому ресурсі.

    Причому, недолік або ваша недоробка в одному з цих напрямів може призвести до нівелювання всіх успіхів, досягнутих за двома іншими напрямами просування і оптимізації. В сучасних умовах рухати проект потрібно комплексно, одночасно на всіх трьох фронтах вести неухильне наступ і успіх не змусить себе чекати.

    Але про інших двох найважливіших факторах, що дозволяють успішно просувати сайт самостійно, ми поговоримо вже в заключній частині цього мануала. Там у всіх подробицях розглянемо вплив на просування зовнішньої оптимізації сайту (посилальне ранжування), а ще користувальницьких факторів, яким останнім часом дуже пильну увагу приділяють пошукові системи.

    Удачі вам! До зустрічей на сторінках блогу