Тестуємо онлайн-сервіси

3102

Здрастуйте, шановні читачі блогу . Зовсім недавно я писав про те, що повністю змінилася головна сторінка Мегаиндекса, з’явився новий безкоштовний хмарний хостинг з mysql від цієї компанії, а так само вони випустили SEO розширення MegaIndex Bar для ряду популярних браузерів. Ну, ось. Пертурбації тривають і розробники викотили нову добірку безкоштовних сервісів, об’єднаних під однією назвою — MegaIndex Tools.

Тестуємо онлайн-сервіси

Вообщем, моє знайомство з цією системою почалося з інтересу до інструменту «Видимість», про який я вже досить докладно писав. Потім у них ще з’явилася можливість безкоштовно аудиту свого або чужого сайта, яка мені якось навіть знадобилася. Безкоштовність і щедрість обумовлена, звичайно ж, тим, щоб залучити якомога більше користувачів до їх основного інструменту — автоматичного просування, але тим не менш скористатися ними ніщо не заважає.

Інструменти для оптимізаторів і копірайтерів

Правда поточна новинка набагато скромніше виглядає, ніж попередні, але, по-моєму, варто згадки. Розробники спробували повторити у себе на сайті все те, що ви могли б знайти на ресурсах, які я згадував у статті про безкоштовний і швидкий аналіз сайту (Pr-cy, Cy-pr):

Тестуємо онлайн-сервісиТестуємо онлайн-сервіси

Інструментів досить багато, але MegaIndex Tools явно ще сируватий, бо не все працює як треба. Давайте просто пробіжимося по переліку інструментів, щоб оцінити їх корисність і функціональність:

  • Генерація robots.txt — файл роботс.тхт спочатку задумувався для того, щоб заборонити деяким пошукових роботів (читайте про те, як влаштовані пошукові системи) індексувати деякі частини вашого сайту. Закривають від індексації зазвичай файли движка, повні або часткові дублі сторінок, ну, і ще що-то, за розсудом вебмастера.

    Google на даний момент цілком може проігнорувати прописані в robots.txt заборони, тому для гарантованого не потрапляння дублів в індекс цієї пошукової системи краще всього буде використовувати мета-тег robots, який прописується в невидимій частині Html коду веб-сторінки (між тегами Head). В WordPress я для цієї мети використовую функціонал плагін All in One SEO Pack, який заодно і канонічні сторінки вміє правильно визначати і позначати відповідним мета-тегів.

    Мегаиндекс ж пропонує в своєму інструменті лише можливість заборонити або дозволити індексацію всього сайту роботами певних пошукових систем, ну, і дозволяє задати директиву Crawl-delay, яка в ідеалі вкаже цьому самому роботу максимальну частоту, з якою йому дозволено запитувати сторінки вашого сайту при індексації (для зниження створюваної на сервер хостера навантаження). Інструментарій зовсім не багатий.

  • Генератор мета тегів — штука прикольна, але тільки в тому випадку, якщо ви створюєте статичний сайт на Html-сторінках, які не генеруються движком сайту на льоту, а спокійнісінько лежать в папці на вашому хостингу у вигляді файликів з розширенням .html і чекають, коли до них звернеться за посиланням відвідувач вашого ресурсу (такий варіант цілком підійде для сайту візитки). В цьому випадку використовувати генератор мета-тегів буде цілком зручно для створення шапки веб сторінок.

    Хоча не всі наведені там мета-теги є обов’язковими. Слід в обов’язковому порядку, звичайно ж, заповнювати title і description, вказувати кодування тексту документа (UTF 8 або Windows 1251), ну, і при необхідності закрити дану веб-сторінку від індексації через вже згаданий трохи вище мета-тег Роботс. Все інше за бажанням, але краще не засмічувати код. Отримані мета-теги потрібно буде потім вставити між відкриваючим і закриваючим Html тегами Head.

  • Аналіз тексту — вводите адресу сторінки вашого ресурсу або сайту конкурента, щоб оцінити кількість використовуваних в тексті символів, вміст мета-тегів і повну разблюдовку по частоті використання окремих слів у тексті. Інша справа, що такого поняття, як щільність входження ключового слова в сучасному SEO, вже немає, а точніше воно стало дуже розмите, бо в першу чергу текст повинен бути природним. А ключі потрібно вживати не порушуючи цієї природності, яка пошуком легко аналізується, і всілякі відхилення від норм побудови пропозицій та вживання слів та їх поєднань у ньому дуже легко відстежуються і можу привести до сумних наслідків.
  • Синонімайзером — ну, це теж штука архаїчна, бо подібний автоматичний рерайт навряд чи обдурить Яндекс або Гугл. Колись давно такі речі працювали і багато просували сайти шляхом розміщення отрерайченной статті на сотнях каталогів статей. Зараз це спрацює, швидше за все, в мінус. Використовувати ж автоматичний рерайт на своєму сайті зовсім вже не варто, бо текст стає складно сприймається, а пошук все одно його буде сприймати як копіпаст.

    До речі, я знаю ресурс, який займається відвертим копіпастом (іноді ще й перекладом буржуйських текстів, але в основному копіює по десятку фотопостов в день) і при цьому перебуває у фаворі у пошуку (сто тисяч відвідувачів на добу і пів ляма доходу в місяць за запевненням автора). Знаєте такий? Правильно, Бігпікча.ру. Тому розмови про те, що пошуковикам важливо враховувати авторство при ранжируванні документів далеко від істини.

    Пошуку в першу чергу важливо задовольнити запит користувача. Бігпікча зручна користувачеві, бо збирає і каталізує на своїх сторінках цікаві матеріали з інтернету. Ну, а якщо я почну збирати колекцію найбільш корисних статей з Сео, заробітком, веб сервісів і т. п. Це буде зручно користувачу, бо все знаходиться в одному місці, але це буде крадіжкою (а точніше продажем краденого), т. к. заробляти на цьому буду я, а не той, хто ці статті написав.

    Не можна навіть близько ставити працю копіпаста і копірайтера — останнє є в сотні разів більш трудомістким процесом. Це як порівнювати працю викрадача авто і праця його власника, який заробив потрібну суму потом і кров’ю. Причому викрадачі текстів не тільки нічим не ризикують, але і фактично заохочуються пошуком (у випадках подібних Бигпикче) на продовження протиправних дій дуже хорошим ранжируванням їх ресурсів. По-моєму, це нонсенс.

  • Масова перевірка тИЦ і PR — стандартний інструмент, що дозволяє ввести список УРЛов або доменних імен, щоб дізнатися їх значення Тіц і ПР.
  • Визначення довжини тексту — а ось це зручно. Можна дізнатися кількість знаків у тексті «з» і «без» прогалин, а так само загальне число слів.
    Тестуємо онлайн-сервісиТестуємо онлайн-сервіси
  • Перевірка тексту на унікальність — тема дуже актуальна, бо неунікальні тексти при інших рівних умовах ранжуються гірше, навіть якщо копіювали їх не ви, а, навпаки, у вас. Комерційні сайти з цієї причини змушені періодично переписувати тексти, щоб не падати у видачі. Інша справа, що у Мегаиндекса цей інструмент, по-моєму, поки не дуже коректно працює, особливо в порівняння з іншими сервісами антиплагіату.
  • Інструменти для вебмайстрів та іже з ними

  • Створення Favicon — досить корисний інструмент, що дозволяє зробити з будь-якої наявної у вас картинки Фавикон — зображення 16 на 16 пікселів у форматі Ico, яка при належному підключенні до сайту (читайте в статті за наведеною посиланням) буде відображатися в списку вкладок і закладок багатьох популярних браузерів, а так само в пошуковій видачі Яндекса (має місце таке явище, як апдейт фавиконов в Яндексі і це потрібно враховувати при очікуванні появи цієї іконки у видачі навпроти вашого сайту).

    Тестуємо онлайн-сервісиТестуємо онлайн-сервіси

    Ця іконка дозволить користувачам легко виділяти ваш ресурс серед інших, як при пошуку в Яндексі, так і при роботі з вкладками та закладки у браузері. Вдала іконка підвищить відвідуваність і збільшить розміри заробітку з сайту.

  • Графічний редактор — ну, тут хлопці з Мегаиндекса взагалі молодці. Пам’ятаєте я писав про чудовий (без перебільшення) безкоштовний графічний онлайн редактор Pixlr? Я ще там сумнівався — чи можна використовувати його без дозволу авторів, вставляючи на сторінку через Iframe. У Мегаиндексе, схоже, на цей рахунок не сумнівалися і виклали його в якості інструменту для роботи з графікою на сайті.
  • Punycode конвертер — в принципі, таку штуку можна робити і через адресний рядок Хрому (вставляєте кириличний домен, на кшталт, «ктонановенького.рф», а при його зворотному копіюванні в буфер збережеться уже код виду «xn--80aedhwdrbcedeb8b2k.xn--p1ai», який і потрібно буде використовувати у всіляких інструментів при роботі з таким сайтом). Однак, мегаиндекс пропонує свої послуги з перекладу кириличних доменів до загальновизнаним стандартам.
  • Генератор QR-кодів — теж, загалом-то, корисний інструмент, який дозволить перевести Урл адресу або будь-який текст в графічний формат QR кодів, які потім можна буде розмістити на сайті або візитці (футболці, кепці), звідки їх легко вважати і розпізнати за допомогою мобільного телефону.

    Тестуємо онлайн-сервісиТестуємо онлайн-сервіси

  • Шифрування — навіть не знаю що і сказати. Ніколи не користувався нічим, крім шифрування маленьких картинок з допомогою base64 для зменшення кількості запитів до сервера. Шифрування Html коду для його захисту теж не пробував, та й, напевно, не буду пробувати. Якщо захочуть, то все одно вкрадуть, хоча, можливо, я і не правий.
  • CSS і JavaScript компресори — у серії статей по збільшенню швидкості завантаження сайту я згадував, що важливо об’єднати по можливості всі завантажувані разом зі сторінкою CSS файлів в один (про JavaScript файли можна сказати теж саме). А вже об’єднані CSS і JS файли бажано оптимізувати, видаливши з них усі зайві пробіли, і переноси рядків. От якраз це і може зробити інструментарій Мегаиндекса. Було б потім ще не погано налаштувати Gzip стиснення.
  • Перевірка швидкості інтернету і IP — ну, це взагалі попсова тема у багатьох подібних сервісах (читайте про популярні вимірювачі швидкості інтернету, визначники IP тощо). Ніякої особливої графіки і красивості при вимірюванні швидкості інтернет каналу або визначенні IP не спостерігається.
  • Анонімайзер — можна придумати багато різних причин використання анонімного (без засвічення свого IP адреси) серфінгу по інтернету, ну, наприклад, якщо вас забанили на форумі, а IP адреса ваш інтернет провайдер надає статичний, а не як у мене (динамічний).
  • Швидкість завантаження — якщо ваш сайт вантажиться швидше сайту конкурента, то це зовсім не додасть очок в ранжируванні. Однак, якщо час його завантаження на хвилини (а не на секунди) більше, ніж у конкурентів, то втрата позицій і відвідувачів цілком можлива. Цей інструмент допоможе перевірити швидкість завантаження відразу у багатьох сайтів або ж багатьох сторінок одного ресурсу, список урлов якого вводиться у відповідну форму.
  • Перегляд заголовків сервера — при переході з Урлом браузер (і пошуковий робот теж, бо по суті він є найпростішим браузером) звертається із запитом до сервера, де розміщений ваш сайт (читайте про зв’язок Ip адрес, доменів та хостинг) і отримує від нього не тільки код запитуваний веб-сторінки, але і формалізований відповідь, який містить код відповіді і ще ряд супровідних параметрів (кодування тексту сторінки, дату її останнього оновлення та ін.):

    Тестуємо онлайн-сервісиТестуємо онлайн-сервіси

  • Я як то вже писав про коди відповіді сервера і їх значення. Якщо коротко, то найкращий варіант — код 200, що означає наявність шуканого документа на сервері і його підвантаження в браузер. Однак, важливо щоб всі неіснуючі сторінки віддавали код 404 (ну, і користувачеві показувалася б відповідна сторінка помилки 404 — див. на приклад WordPress), а не 200, бо в цьому випадку у вас буде величезна кількість дублів.

    До речі, саме з особливістю формування параметра Last-Modified (час останнього оновлення документа) пов’язаний міф про те, що статичний Html сайт краще індексується (або навіть ранжується), ніж сайт працює на ЦМС (движку). Справа в тому, що при оновленні Html сторінки на статичному сайті, сервер віддасть пошуковому боту правильне значення Last-Modified і ця сторінка буде своєчасно переіндексувати. Багато ж ЦМС не вміють толком повідомляти Last-Modified сервера і переіндексація сторінки такого сайту може бути не такою оперативною.

  • Перевірка стану сайту — крім вже згаданої трохи вище перевірки відповіді сервера тут буде перевірятися пінг (швидкість відповіді), а так само наведена інформація Woіs по домену і значення DNS записів.
  • Удачі вам! До зустрічей на сторінках блогу