SEO одит (SEO анализ): 34 Стъпки за по-добро класиране в Google

Едва ли има човек, който не се е чудил защо на конкурентите сайтовете се класират по-добре от неговия в Google.

Отговорът на този въпрос е изключително лесен: защото конкурентите са извършили SEO одит на сайта си и са идентифицирали и премахнали грешките, които му пречат да се класира на челните позиции в търсачката.

Тук изниква следният въпрос:

Кои са тези грешки и проблеми, които не позволяват на моя сайт да се класира на челните позиции в Google?

В тази статия ще обхванем всичките 34 основни проблема, които спъват всеки сайт по пътя му към по-добро класиране.

В края на тази статия вече ще имате знания и умения как да направите базов SEO анализ на сайта си.

Също така ще можете да идентифицирате и отстраните грешките и проблемите, които пречат на вашия сайт да се класира на топ местата в Google.

В основата на всяка една професионална SEO оптимизация на сайт стои изпълнението на един професионален SEO одит.

Техническият анализ е една от фундаменталните SEO услуги, върху която стъпват всички останали процеси свързани със SEO (Search Engine Optimization).

Няма как да стартираме процеса по оптимизация на сайта ни, без преди това да сме анализирали и идентифицирали грешките, които му пречат да се позиционира добре в търсачките.

Няма значение какво точно наименование ще използваме за онагледяване на процеса свързан с идентификацията на грешките и проблемите в сайта.

Дали ще е SEO одит, SEO анализ, SEO оценка, SEO проверка, SEO експертиза, SEO инспекция, SEO обследване, SEO изследване, SEO проучване, SEO ревизиране или друго, всички тези наименования описват един и същ процес.

SEO Одит

SEO одитът може да се разгледа в 2 основни направления:

SEO анализ обхващащ грешки вътре в сайта

При него се анализират всички вътрешни грешки и проблеми в пределите на сайта.

SEO одит обхващащ грешки извън сайта

При него се анализират всички външни грешки и проблеми извън пределите на сайта.

1

Обхождане на сайта

Започваме с една от най-важните стъпки при изпълнението на SEO анализ на сайт, а именно обхождане на сайта по идентичен начин, както го извършват паяците на търсачките.

Има много инструменти за автоматизация на този процес, защото ръчното му изпълнение е немислимо, особено когато става въпрос за големи сайтове с десетки или стотици хиляди страници.

Безспорно най-разпространения инструмент за извършване на такъв технически SEO одит е Screaming Frog SEO Spider.

Той има както безплатна версия, която е ограничена и може да обходи само до 500 страници, така и платена, в която тези ограничения вече ги няма.

Има редица други инструменти за извършване на технически SEO одити: както десктоп програми (BeamUsUp), така и SaaS решения (Raven Tool), но няма да навлизаме в подробности за тях.

Ние ще използваме Screaming Frog SEO Spider за тази цел.

Можете да видите какво представлява неговия интерфейс на снимката.

Screaming Frog SEO Spider User Interface

Има различни раздели, в които се анализират различни елементи на сайта.

Можем да анализираме title, meta description, H1, H2, URL, hreflang, снимки, директиви, протоколи, статус кодове, вътрешни и външни връзки, както и много други неща.

По този начин можем да идентифицираме дали има наличие на проблеми свързани с:

  • Title tag – дублирани, липсващи, твърде дълги или прекалено кратки.
  • Meta description – дублирани, липсващи, твърде дълги или прекалено кратки.
  • H1 tag – дублирани, липсващи, повече от един или твърде дълги.
  • H2 tag – дублирани, липсващи или твърде дълги.
  • URI – твърде дълги, горен регистър, долни черти, параметри и др.
  • Images – с липсващ или прекалено дълъг ALT tag.
  • Response codes – вътрешни пренасочвания, несъществуващи страници, сървърни грешни и др.
  • Directives – canonical, no canonical, next/prev, noindex, nofollow и др.

Имаме вариант да си направим персонализирани филтри, както и да се свържем чрез API на Google Analytics и Google Search Console.

Screaming Frog SEO Spider APIs

По този начин Screaming Frog SEO Spider може да тегли информация от Google Analytics и Google Search Console и да ни я визуализира директно в интерфейса си.

Има много настройки, които могат да се коригират, но базовите също биха свършили работа.

Програмата обхожда сайта по идентичен начин както го правят паяците на големите търсачките като: Google, Yahoo, Bing, Yandex и др.

От големината на сайта зависи и какъв времеви ресурс ще отнеме, за да се изпълни цялостното му обхождане.

След като сме приключили с обхождането на сайта и сме идентифицирали техническите грешки, нека проверим какви проблеми са открили паяците на Google.

Откъде можем да видим тази информация?

Разбира се в Google Search Console (Google Webmaster Tools).

Това е много ценен и задължителен инструмент, които трябва да използваме за SEO оптимизацията на сайта си.

В него има толкова ценна информация, че ако не го използваме можем само и единствено да загубим.

И най-важното от Гугъл ни го предоставят безплатно, така че нямаме оправдание да не го използваме.

Отиваме в „Облик на търсенето“ -> „Подобрения в HTML“

Google Search Console подобрения в HTML

При положение, че сайта има някакви грешки те ще се визуализират там.

Google Search Console HTML Improvements

Най-честите грешки са свързани с мета описанието и title (тайтъл) тага.

Можем да проверим и състоянието в индекса.

Отиваме в „Индекс на Google“ -> „Състояние в индекса“

Google Search Console състояние в индекса

Проверяваме колко страници имаме в индекса и дали съответстват на страниците в нашата карта на сайта, защото иначе можем да имаме проблем с дублираното съдържание, който от своя страна ще засегнем по-надолу в текущия SEO одит.

Можем да проверим за грешки при обхождането.

Отиваме в „Обхождане“ -> „Грешки при обхождането“

Google Search Console грешки при обхождането

Също така можем да видим статистическите данни за обхождането.

Отиваме в „Обхождане“ -> „Статистически данни за обхождането“

Google Search Console статистически данни за обхождането

Google Search Console ни предоставя толкова много информация за сайта ни, както и за извършването на неговия SEO одит, че заслужава да му отделим отделна статия, в която да разгледаме детайлно огромното количество функционалности, които предлага.

2

Структура на сайта

Структурата на сайта е изключително важен елемент в цялостната SEO оптимизация на сайта и поради тази причина трябва да се разгледа в SEO одита.

Сайтът трябва да има ясна и лесна структура, както и навигация.

Ясна структура на сайта с до 2-3 нива на вложеност за лесно навигиране

По този начин потребителите ще получават едно много по-добро потребителско изживяване и ще могат с лекота да навигират и да намират необходимата информация в сайта.

Също така структурата на сайта е изключително важна и за правилното обхождане от търсачките, което е правопропорционално с оптимизацията на сайта и неговото класиране.

Препоръчително е да се използват не повече от 2 нива на вложеност, което означава, че всяка страница трябва да бъде достъпна до максимум 2 клика от началната страница.

В определени случаи, когато става въпрос за сайтове и онлайн магазини с много сложна структура, може да се използват до 3 нива на вложеност.

Когато извършваме SEO одит на сайт можем да проверим чрез Screaming Frog SEO Spider какви нива на вложеност има.

3

Скорост на сайта

Бързо зареждане на уеб сайт

Едно от най-дразнещите неща, когато сърфираме в интернет, е бавното зареждане на сайтовете.

Има хиляди проучвания, които показват, че ако сайтът ни зарежда повече от 2-3 секунди бихме загубили половината си посетители.

Това само по себе си показва колко е важно нашият сайт да зарежда бързо, особено на мобилни устройства, където скоростта на интернета е в пъти по-бавна.

От Гугъл официално обявиха, че скоростта е ранкинг фактор, което едва ли е новина за някой.

https://webmasters.googleblog.com/2010/04/using-site-speed-in-web-search-ranking.html

Скоростта е изключително важна за потребителското изживяване (UX), което от своя страна е пряко обвързано с оптимизацията и класирането на сайта в Гугъл.

Има много онлайн инструменти, с помощта на които можем да тестваме скоростта на зареждане на нашия сайт.

Може би най-популярният от тях е инструментът за тестване за скорост на Google.

https://developers.google.com/speed/pagespeed/insights/

Той показва скоростта на сайта под формата на точки в скалата до 100, където 100 е максимумът.

Специфичното при него е, че не измерва времето за зареждане на сайта.

Той дава много добри препоръки какво трябва да направим, за да подобрим скоростта за зареждане на нашия сайт през мобилни устройства.

Скорост за зареждане на сайт през мобилни устройства Google

Също така и през настолни компютри.

Тест за скорост за зареждане на сайт Google

Много популярни инструменти, с помощта на които можете да измерим и времето за зареждане на сайта са:

GTmetrix

GTmetrix скорост за зареждане

Pingdom

Pingdom бързина на сайт

Webpagetest

Webpagetest време за зареждане на сайт

При тях можем да видим реално за колко време зарежда нашият сайт от различни локации по света.

Също можем да видим и какви препоръки дават инструментите за подобряване на скоростта за зареждане на сайта.

Скоростта на зареждане на сайта е изключително важна и поради тази причина трябва да бъде анализирана детайлно във всеки един SEO одит.

4

Мобилна версия

Вече над 60-65% от всички търсения в Гугъл се правят през мобилни устройства, което показва колко е важно нашия сайт да е удобен за ползване именно през такива устройства.

От Гугъл препоръчват използването на адаптивен (responsive) дизайн вместо отделен мобилен сайт.

Google препоръчват използването на адаптивен дизайн на сайт

https://developers.google.com/webmasters/mobile-sites/mobile-seo

Можем да тестваме дали сайтът ни е удобен за използване на мобилни устройства чрез инструмента на Google.

https://search.google.com/test/mobile-friendly

Той ще ни покаже, ако има някакви проблеми при използването на сайта ни през мобилни устройства.

Тест за удобство на мобилни устройства Google

Най-големият проблем при мобилните устройства е скоростта на зареждане на сайтовете, особено когато използваме бавни 3G или 4G мрежи.

53% от посетителите на мобилен сайт биха напуснали преждевременно, ако времето за зареждане на сайта надхвърли 3 секунди.

Можете да видите интересно изследване на Гугъл по тази тема.

https://www.doubleclickbygoogle.com/articles/mobile-speed-matters/

Поради тази причина оптимизация на скоростта за мобилни устройства е критично важна за потребителското изживяване (UX), а от там и за цялостната SEO оптимизация на сайта ни, следователно трябва да бъде засегната в SEO одита.

5

AMP (Accelerated Mobile Pages)

Както споменах по-горе, скоростта на зареждане през мобилните устройства е много по-критична от тази на стационарните компютри поради по-бавните 3G и 4G мрежи.

Именно поради тази причина от Гугъл създадоха и въведоха AMP страниците.

Те използват кеша и CDN на Google и при достъпването през търсачката се зареждат моментално, което от своя страна увеличава многократно потребителското изживяване.

Първоначалното им предназначение беше насочено предимно към новинарски сайтове, но в последствие навлязоха масово както в блоговете, така и в онлайн магазините.

От Amazon са изчислили, че забавянето на зареждането на сайта им само с 1 секунди би довело до намаляване на продажбите им с 1.6 милиарда долара годишно.

Източник – https://www.fastcompany.com/1825005/how-one-second-could-cost-amazon-16-billion-sales

Всеизвестен факт е, че онлайн магазините не се славят с изключителна бързина на зареждане.

Поради тази причина AMP страниците набират все по-голяма популярност и в онлайн магазините, където скоростта на зареждане е критична за конверсиите.

Можете да видите как изглеждат страници, които използват AMP в резултатите на Гугъл.

Как изглеждат AMP (Accelerated Mobile Pages) в резултатите на Google (SERP)

Скоростта на зареждане през мобилни устройства става все по-критична и използваемостта на AMP страници набира все по-голяма популярност.

Това е причината, поради която в SEO одита трябва да се анализират възможностите за имплементиране на AMP страници в сайта.

6

Структурирани данни

Това са примери как се визуализират ревютата и продуктите в SERP (Search Engine Results Page).

Структурирани данни в Google Rich Snippets

Структурираните данни са много подценяван елемент в процеса по оптимизация на сайтовете, но според мен те са изключително важни.

Защо структурираните данни са толкова важни?

Основната причина е, че търсачките могат да интерпретират по различен начин информацията на дадена страница в сравнение с потребителите (хората).

Неща, които са видими и ясни за потребителите може да не бъде разбрани или интерпретирани коректно от търсачките и тук на помощ идват структурираните данни.

Чрез тяхното използване ние даваме допълнителна информация на търсачките, което им помага да разберат по-детайлно какво се съдържа на текущата страница.

Чрез използването на структурирани данни Гугъл разбира по-добре съдържанието на страницата, което от своя страна е пряко свързано с класирането на дадена страница за определена тема.

Колкото по-добре Гугъл разбира темата на страницата и нейното съдържание, толкова е по-вероятно да я класира по-добре.

Непрекъснато се разрастват структурираните данни и се добавят нови схеми, което от своя страна показва, че те увеличават своят обхват.

Именно поради тези причини те трябва да бъдат детайлно изследвани във всеки един SEO одит на сайт.

Някои от най-разпространените структурирани данни са:

  1. Ревюта
  2. Рейтинги
  3. Рецепти
  4. Продукти
  5. Локален бизнес
  6. Организация
  7. Събития

Можете да тествате дали коректно са имплементирани структурираните данни във вашия сайт чрез инструмента на Google.

https://search.google.com/structured-data/testing-tool

Чрез използването на структурирани данни също се подобрява визуализацията на сайта в резултатите на Гугъл (SERP – Search Engine Results Page) и се увеличава CTR (Click-through rate).

7

Криптирана връзка (HTTPS)

Криптирана връзка HTTPS

Използването на криптирана връзка на нашия сайт е изключително важно с цел защита на личните данни на нашите посетители (клиенти).

Има схващане, останало от преди много години, че криптираната връзка трябва да се използва само за онлайн магазини, което не е вярно.

Всеки един сайт, който държи на сигурността на своите посетители, трябва да използва криптирана връзка.

Все още се носят митове останали от преди време, че криптираната връзка ще забави сайта ни, че SSL сертификатите са скъпи и т.н.

Всички тези твърдения бяха релевантни преди години, но вече нещата са съвсем различни от тогава.

С навлизането на новия HTTP/2.0 протокол, който е много подобрен от гледна точка на производителност и скорост, вече проблема със забавянето ако използваме SSL сертификат не е наличен.

Но за да използваме новия HTTP/2.0 протокол трябва да използваме само криптирана връзка, а за да използваме криптирана връзка ни трябва SSL сертификат.

С навлизането на проекта „Let’s Encrypt“, който е спонсориран от компании като: Facebook, Google, Shopify, Akamai, HP и др., вече не трябва да се притесняваме за цената на SSL сертификатите.

Let’s Encrypt предлага безплатни SSL/TLS сертификати за всеки, който желае да ги използва.

Всички сериозни хостинг компании вече предлагат инсталирането на безплатен SSL сертификат от Let’s Encrypt чрез cPanel, което става чрез 1 клик.

Вече няма оправдание да не използваме изцяло криптирана връзка с безплатен SSL сертификат, възползвайки се от новия усъвършенстван протокол HTTP/2.0.

Също така от Гугъл официално обявиха, че използването на криптираната връзка е малък ранкинг сигнал, което от своя страна означава, че подобрява класирането на нашия сайт в търсачката.

https://webmasters.googleblog.com/2014/08/https-as-ranking-signal.html

Това само по себе си показва колко е важно използването на криптирана връзка при оптимизацията на сайтовете, респективно трябва да бъде отразено във всеки един SEO одит.

8

Дублирано съдържание вътре в сайта

Това е един от най-често срещаните проблеми в SEO оптимизацията и поради тази причина трябва да се разгледа много внимателно във всеки един SEO анализ.

Дублирано съдържание вътре в сайта

Започваме с проверка за дублиране на различните версии на домейна:

http://example.com

http://www.example.com

https://example.com

https://www.example.com

Въпреки че това е един сайт, за Гугъл това са 4 различни сайта и поради тази причина трябва да направим постоянен редирект 301 към основната версия на сайта ни.

По този начин ще покажем на Гугъл, че има само една предпочитана версия на нашия сайт.

В Google Search Console също имаме опция да изберем предпочитана версия на домейна.

Дали да бъде с www, или без www.

Продължаваме със следните проверки.

Трябва да проверим дали страницата зарежда с наклонена черта (/) или без нея.

http://example.com

http://example.com/

Дали страницата зарежда с няколко наклонени черти (/).

http://example.com//

http://example.com///

Дали страницата зарежда с index.html или index.php

http://example.com/index.php

http://example.com/index.html

Дали страницата зарежда с горен регистър

http://example.com/Page1/

Всички тези грешки от своя страна водят до създаването на дублирано съдържание, защото едно и също съдържание е достъпно през различни URL.

Това може да доведе до налагането на наказание от Google.

Има няколко опции за решаване на тези проблеми:

  • Постоянно пренасочване с redirect 301 към основния (правилния) URL.
  • Настройване на сървъра и сайта да връщат грешка 404 при достъпване на некоректния адрес.
  • Правилно разписване на релация каноникал [rel=”canonical”], която да сочи към основния (правилния) URL.

Друг основен проблем е когато едно съдържание се повтаря на всички страници (така нареченото sitewide) или на група от страници и категории.

Примери за такова съдържание са текстове в header, footer и sidebar частта, защото това съдържание ще се повтаря на всяка страница в сайта ни.

Ако това съдържание е малко, в повечето случаи не е проблем, но ако е по-дълго и има наличието на страници с малко обем и уникалност на съдържанието, тогава това ще предизвика проблем с дублираното съдържание.

Как можем да идентифицираме наличието на такъв текст?

  1. Можем да проверим ръчно елементите на сайта, които се повтарят на всяка страница, като: header, sidebar, footer, navigation и др.
  2. Можем да използваме инструмент като Siteliner, който да идентифицира наличието на такъв дублиран текст в сайта ни.

Хубавото при този инструмент е, че той не проверява само за sitewide текст, а и за дублирано съдържание в отделните страници на сайта.

Той ще ви покаже ако имате дублирано съдържание на две страници (страница А и страница Б), дори това съдържание да не се повтаря на други места, а само на тези две конкретни страници.

По този начин вие ще можете много по-детайлно и прецизно да идентифицирате дали имате дублирано съдържание в рамките на сайта, както и да планирате неговото премахване.

9

Дублирано съдържание извън сайта

Освен дублирано съдържание вътре в сайта трябва да проверим и за дублирано съдържание извън сайта.

Дублирано съдържание извън сайта

Безспорно съдържанието е най-важния елемент в SEO оптимизацията и колкото по-рано се осъзнае този факт, толкова по-добре.

Google изобщо не обича дублирано и нискокачествено съдържание.

Посредственото съдържание, което не е полезно за потребителите, не решава проблеми, не е ангажиращо и е създадено само с цел „да има някакво съдържание в сайта“ не се позиционира добре в Гугъл и другите търсачки.

Защо?

Защото не е полезно за потребителите, не добавя стойност и не решава проблеми.

А както всички знаем главната цел на Гугъл е да предоставя релевантни на търсенията резултати, които да са полезни за потребителите, да ги информират и да им решат проблемите.

Можем да използваме една чудесна програма Advego Plagiatus, за да идентифицираме дали съдържанието на сайта ни е уникално и дали някой друг сайт не ни е изкопирал съдържанието, представяйки го за свое.

Ако ние сме прекопирали и/или пренаписали съдържание от други сайтове, не трябва да си мислим, че само ние знаем за това си деяние и всичко е скрито, защото Advego Plagiatus ще покаже източниците на това съдържание.

А според вас дали Гугъл ще се усети, че това съдържание е прекопирано и/или пренаписано от други сайтове?

Такъв тип съдържание не се класира добре в търсачките.

Гугъл има алгоритъм, който много прецизно може да определи дали едно съдържание е прекопирано и/или пренаписано.

Вместо да се чудим как да излъжем търсачката, по-добре е да създадем уникално и авторско съдържание или да се обърнем към професионален копирайтър.

Съдържанието е най-важното парче от пъзела при оптимизацията на сайтовете и поради тази причина трябва да му се обърне особено внимание при извършването на SEO одита.

10

Тънко съдържание (thin content)

След пускането на ъпдейта Google Panda през февруари 2011 г., който има за цел да се бори с нискокачествено и тънко съдържание, нещата в оптимизацията на сайтовете се промениха драстично.

Можете да видите какво се случи с Ebay след пускане на Panda 4.0 през 2014 г.

Google Panda Update Ebay Penalty 2014

Пропуснатите ползи за Ebay се оценяват на 200 милиона долара.

http://searchengineland.com/google-ebay-penalty-cost-197031

Всяка страница с дублирано и нискокачествено съдържание вече не се позиционира добре в търсачката.

Има изследвания, които показват, че Google третират като „тънко съдържание“ всяко съдържание, което е по-малко от 180-200 думи на страница.

Вече е невъзможно да се класираме на високочестотни и конкуренти ключови думи и фрази с тънко съдържание.

Поради тази причина в SEO одита трябва да се анализира и изследва дали има наличие на тънко съдържание в сайта.

11

Семантично ядро

Тук идва въпроса какво е семантично ядро?

Най-общо можем да кажем, че семантичното ядро представлява група от думи, изрази и фрази, които се използват по естествен начин при описване на дадена тема.

Най-вероятно сте виждали оптимизация на текст в интернет по подобен начин:

Пренасищане с ключови думи Keyword Stuffing

Няма нищо лошо в този тип оптимизация ако се върнем през 2010 г., но вече нещата са коренно различни от тогава.

Търсачките все повече залагат на самообучаващи се системи, изкуствен интелект и др. подобни.

Семантичното търсене се разширява все повече и повече.

Поради тази причина формирането и имплементирането на семантично ядро на всяка тема и под тема в сайта е изключително важно.

Вече не е необходимо да повтаряме основната ни ключова дума във всяко изречение, защото това няма да ни помогне с оптимизацията на сайта, а може само да я влоши.

Има наказания от Гугъл, които се налагат за пренасищане с ключови думи (keyword stuffing) и за преоптимизация на страница и/или сайт.

Как можем да онагледим семантичното ядро?

При положение, че използваме в една страница следните думи и фрази:

  • 3.0 TDI
  • 17 инчови лети джанти
  • Quattro (4×4)
  • Парктроник
  • Навигация (GPS)
  • Автоматик
  • Централно заключване
  • Аларма
  • Имобилайзер
  • Ксенон
  • Халогени
  • Бордови компютър
  • ABS
  • Електронна програма за стабилизиране (ESP)
  • Кожен салон
  • Ел. стъкла
  • Ел. огледала
  • Блокаж на диференциала
  • Адаптивно въздушно окачване
  • Auto Start Stop система
  • Безключово палене
  • Климатроник
  • Подгряване на седалките
  • Сензор за дъжд
  • Регулиране на волана
  • Автопилот
  • Хладилна жабка
  • Въздушни възглавници

Гугъл разбира много добре, че в тази страница се описва автомобил, дори без нито един път да е използвана основната ключовата дума „автомобил“.

Това означава, че Гугъл ще показва тази страница при търсения, които са сходни на автомобил, кола и т.н.

Търсачките еволюират непрекъснато и усъвършенстват алгоритмите си постоянно, а от там SEO оптимизацията става все по-сложен и комплексен процес.

Именно поради тази причина вече не можем да оптимизираме сайта си както през 2010 г.

Задължително в SEO одита трябва да се обхване и анализира правилното сформиране и имплементиране на семантичното ядро в сайта.

Безспорно това е един много трудоемък и времепоглъщащ процес, но без него няма опция сайтът да се класира на челните позиции в Google и другите търсачки.

12

Канибализация на ключови думи

Това е често срещан проблем в SEO оптимизацията на сайт, когато две или повече страници са оптимизирани по сходна тематика, ключови думи и фрази, както и семантично ядро.

Тогава Гугъл няма да знае коя страница да класира за съответните ключови думи и фрази, следователно тези страници ще се конкурират помежду си.

Нашата цел е да се конкурираме с конкурентите, а не със самите себе си.

Този проблем се наблюдава, когато:

  1. Не е изградена правилна структура на сайта
  2. Не са разпределени правилно темите и подтемите в сайта
  3. Не е имплементирано коректно семантично ядро на всяка тема и подтема в сайта
  4. Не са подбрани и използвани правилните ключови думи и фрази за всяка тема

Това е много подценявано явление, което често се пропуска при извършването на SEO одит, но е изключително важно да се изясни коя страница от сайта на каква тема е.

Безсмислено и неефективно е да се опитваме да оптимизираме две отделни страници в нашия сайт по една и съща тема, използвайки едни и същи ключови думи, както и семантично ядро.

13

Неефективни и нискокачествени страници

Когато се прави SEO анализ на сайт, задължително трябва да се идентифицират неефективните и нискокачествените страници в него.

Защо?

Основната цел на Google е да вкарва в индекса само и единствено страници с висококачествено и полезно съдържание, които да са полезни за потребителите и да решат техните проблеми.

Замислете се, ако имате посредствени страници, които не се класират добре, никой не ги посещава и ползва, дали има смисъл от тяхното съществуване?

Наличието на множество такива страници може да доведе до влошаване на класирането на целия сайт в Гугъл.

Целта в момента е да се вкарат страници само и единствено с много висококачествено съдържание, които да са полезни и ангажиращи за потребителите.

Тук целта, както при всяко нещо свързано със SEO оптимизацията, не е да се преследва количество, а качество.

След като се идентифицират тези страници трябва да се обмисли дали да не се консолидират с други страници на сходната тематика или директно да се изтрият.

ВАЖНО!

Има шанс да не можете точно да определите дали дадена страница е неефективна или нискокачествена и да изтриете важна страница и чрез това си действие да влошите цялостната оптимизация на сайта си.

Ако не сте сигурни какво точно правите, по-добре не предприемате никакви действия, а наемете SEO специалист или фирма за SEO оптимизация в София, които да се погрижат за цялостната оптимизация на сайта ви.

В случай, че желаете опитна SEO агенция да се заеме професионално с оптимизацията на сайта ви, можете да разгледате офертите за цени на SEO оптимизация, които предлагаме на нашите клиенти.

14

Вътрешни линкове

Безспорно вътрешните линкове са изключително важни както за правилното обхождане от паяците на търсачките, така и за по-лесното навигиране на потребителите в сайта.

Чрез правилното използване на вътрешните линкове ние можем значително да подобрим оптимизацията на сайта си.

Те придават допълнителна SEO тежест на страниците към които линкват.

Също така предоставят и по-добро потребителско изживяване (UX), защото помагат на потребителите да намерят лесно допълнителна информация, която е свързана с конкретната тема.

Желателно е да използваме 3 – 5 вътрешни линка към други статии или страници.

Препоръчително е да не използваме повече от 100 вътрешни линка на страница, защото вероятността паяците на търсачките да ги последват всичките е много малка.

Много често се пропуска проверката на броя вътрешни линкове, когато се извършва SEO одит, което не е коректно, защото те са изключително важен фактор в цялостната оптимизация на сайта.

Недейте да прекалявате с използването на вътрешните линкове.

Вътрешни линкове Internal Links

Wikipedia могат да си позволят използването на твърде много вътрешни линкове, но не забравяйте, че вие не сте Wikipedia.

Поради тази причина е препоръчително да не използвате повече от 3 – 5 вътрешни линка в рамките на една страница.

15

Изходящи линкове

Сега някой ще каже „Какво?! Изходящи линкове?!“.

Изходящи линкове Outbound Links

Има останало схващане от преди много години, че ако линкваме към други сайтове ще ни изтече PageRank, Link Juice, Trust, Authority и „силата“ на сайта ни.

Не се притеснявайте – линкването към авторитетни източници на нашата тематика няма да навреди по никакъв начин на сайта ни, а може само да му помогне.

Много силен елемент в алгоритъма на Гугъл са обратните връзки и най-вече обратните връзки от авторитетни източници свързани с тематиката на нашия сайт.

Поради тази причина е абсурдно да мислим, че Гугъл ще ни накаже или ще ни изтече силата на сайта, ако линкваме към други авторитетни сайтове.

Просто алгоритъмът е устроен по този начин (получаваш обратни връзки и даваш обратни връзки).

Няма как само да получаваме обратни връзки, защото това е неестествено.

Защо изходящите линкове помагат на сайта ни?

На първо място, защото предоставят допълнителна информация, която я няма в нашия сайт, но е пряко свързана с темата.

Това от своя страна помага на потребителите да намират качествена информация, сходна на тази в нашия сайт.

Информацията е качествена, защото едва ли има собственик на сайт, който да линква към нискокачествени сайтове.

Всеки собственик на сайт държи на репутацията си и едва ли би линквал към нискокачествени и спам сайтове.

Това от своя страна предоставя по-добро потребителско изживяване (UX), което става все по-силен фактор в алгоритъма на Гугъл и другите големи търсачки.

Също така тези обратни връзки помагат на Google да определи по-точно темата и съдържанието на сайта.

Защото най-естественото нещо е сайтовете да получават и да дават обратни връзки към сходни на тяхната тематика сайтове.

Колкото по-добре Гугъл разбира темата на страницата и нейното съдържание, толкова е по-вероятно да я класира по-добре.

ВАЖНО!

Още не сте убедени, че изходящите линкове помагат при оптимизацията на сайта?

Можете да видите реален експеримент, който показва, че изходящите линкове помагат при класирането на сайта в Гугъл.

https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/

Тук отново трябва да се използват по правилен начин изходящите линкове и да не се прекалява.

Използвайте 2 – 4 изходящи връзки към авторитетни източници в рамките на една страница.

Не се притеснявайте дори да поставите обратна връзка към ваш конкурент, който вече се е класирал добре в Гугъл.

Това означава, че търсачката е разбрала детайлно съдържанието и темата на вашия конкурент и след като вие поставите обратна връзка към него, Google ще асоциира вашия сайт с тази тема.

Не изпадайте в параноя, че ще ви изтече „силата“ на сайта.

Както всичко свързано със SEO оптимизацията и тук не трябва да се прекалява.

Всичко това показва колко са важни изходящите линкове и всеки един SEO одит трябва да ги обхване и анализира детайлно.

БОНУС!

Недейте да поставяте изходящи линкове само към Wikipedia, Youtube, Amazon и др. подобни „мега“ сайтове, защото това го правят над 99% от спам сайтовете и PBN.

Защо го правят?

Защото е напълно естествено да имаш изходящи линкове, а липсата на такива линкове вече е ненатурално и неестествено явление.

Има хиляди авторитетни нишови сайтове на всяка тематика, към които можете да поставите обратни връзки и да подобрите потребителското изживяване (UX) във вашия сайт, следователно и вашето класиране в Google.

16

Robots.txt

Това е първият файл, който обхождат паяците на търсачките, когато попаднат на вашия сайт.

В този файл даваме указания на паяците на търсачките кои страници и директории да обхождат и кои не.

Наличието и правилното разписване на този файл трябва да се изследва във всеки един SEO одит.

Чрез него можем да забраним определени страници или директории от нашия сайт да бъдат обхождане и следователно индексирани.

Препоръчително е да не се затварят за обхождане и индексиране страници чрез файла robots.txt, а да се използва “noindex”.

Файл robots.txt

17

Sitemap.xml

Всеки един сайт, когато е завършен и пуснат в експлоатация, трябва да има създадена карта на сайта в XML формат.

Целта на създаването на тази карта е да се предостави на търсачките пълен списък със страници и адреси, които искаме да бъдат обходени и включени в индекса на съответната търсачка.

Също така можем да направим отделна карта на сайта за нашите снимки или да ги включим в основната.

След като създадем картата на сайта, трябва да я подаваме за обхождане и индексация на търсачките.

  • За Google това става в Google Search Console
  • За Yahoo и Bing в Bing Webmaster Tool
  • За Yandex в Yandex Webmaster Tool

Можем да разгледаме Robots.txt и Sitemap XML като взаимодопълващи се файлове.

С тяхна помощ ние даваме инструкции на търсещите машини как да обхождат и какво да индексират в нашия сайт.

ВАЖНО!

Неправилното използване на двата файла може да доведе до сериозни проблеми с индексацията и обхождането на сайта, което от своя страна може да рефлектира отрицателно върху цялостната SEO оптимизация.

Поради тази причина трябва да се обърне сериозно внимание на тези файлове в SEO одита, защото само чрез добавянето на една наклонена черта (/) можем да затворим за индексация целия сайт.

18

Навигация в сайта

Навигацията е изключително важна за потребителското изживяване (UX).

Именно поради тази причина трябва да е изключително удобна, лесна и разбираема за потребителите.

Колкото по удобна и ясна е навигацията на сайта, толкова по-лесно потребителите биха навигирали в сайта.

Колкото повече е объркан и дезориентиран даден потребител в нашия сайт, толкова е по-голям шансът той да напусне преждевременно и да не извърши конверсия.

Последното нещо, което искаме в нашия сайт е объркан и дезориентиран потребител.

Същото се отнася и за търсачките, за да могат да обходят правилно сайта е необходима лесна и ясна навигация.

Именно поради тази причина се препоръчва да се използва предимно текстова навигация.

Не се препоръчва да се използва flash, също така трябва да се ограничи и използването на javascript в навигацията, въпреки че Google могат да прочитат определен JS.

Навигацията в сайта е изключително важна за потребителското изживяване (UX) и поради тази причина трябва да бъде отразена във всеки един SEO одит.

19

Вътрешни вериги от пренасочвания (301 redirect chains)

Трябва да се идентифицира дали има наличие на вътрешни пренасочвания в рамките на сайта.

Тези така наречени redirect chains представляват пренасочване от една страницата към втора към трета и т.н.

Вътрешни вериги от пренасочвания 301 Redirect Chains

При наличието на такива пренасочващи вериги се влошава производителността и скоростта на зареждане на сайта.

Именно поради тази причина в SEO одита трябва да идентифицираме дали има наличие на такива вериги от пренасочвания.

При положение, че открием такива вериги, трябва да обмислим тяхното отстраняване.

Можем да идентифицираме тези вериги от пренасочвания чрез Screaming Frog SEO Spider.

20

HTML5 семантични елементи

HTML5 семантични елементи

В SEO одита трябва да проверим дали са спазени правилно семантичните елементи в HTML5.

Чрез спазването на точните семантични елементи в HTML5, търсещите машини ще могат по-интелигентно да обхождат и разбират структурата на сайта.

Търсачките ще могат по-лесно да разберат коя част от страницата е статия, навигация, sidebar, header, footer и т.н.

21

Съотношение на текст към HTML код

Много SEO специалисти пренебрегват това съотношение, когато извършват SEO анализ на сайт.

От тестовете, които сме провели, сме установили наличието на силна корелация между него и класирането в Гугъл.

Една от причините може да е, че от Гугъл предпочитат да класира по-добре страници с повече видимо за потребителите съдържание, отколкото HTML код, който е видим само за паяците на търсачките.

Това е индикатор, че страниците са създадени за потребителите, а не за търсачките.

В най-оптималния вариант това съотношение трябва да е в границите между 25 – 70%.

22

Страница за грешка 404

Страница с грешка 404

В SEO анализа трябва да се обхване и наличието на страница за грешка 404.

Трябва да проверим дали сайта и сървъра са настроени коректно и връщат грешка 404 при достъпване на грешен адрес.

Страница за грешка 404 може да е стандартна HTML страница, което означава, че можем да я редактираме и да я направим полезна за потребителите, които попадат на нея.

Има няколко базови препоръки, които Google дават за оптимизация на тази страница и те са:

  1. Трябва ясно да се разбира, че страницата не е намерена и/или не съществува.
  2. Страницата с грешка 404 трябва да има същата визия и дизайн като останалата част от сайта, включително и навигацията.
  3. Може да се добавят линкове към някои от най-важните страници или да се имплементира вътрешна търсачка.

Повече информация можете да видите тук:

https://support.google.com/webmasters/answer/93641?hl=en

Колкото практична и удобна да е страницата с грешка 404, ние трябва да се стремим да премахнем всички подобни грешки и счупени връзки.

Можем да анализираме дали имаме такива страници чрез Screaming Frog SEO Spider, чрез Google Search Console и др. инструменти за технически SEO анализ.

23

Грешки в CSS и HTML кода

Грешките в CSS и HTML кода са много неглежирана част от оптимизацията на сайтовете.

Въпреки че от Google казват, че грешките в кода почти не оказват влияние върху позиционирането на сайта в търсачката, е строго препоръчително те да бъдат ограничени или минимизирани.

https://www.seroundtable.com/google-validation-seo-23784.html

Q: How much does W3C validation count for HTML coding in the algo now @ Google? Just trying to dig up some information. Thx!

A: As long as it can be rendered & SD extracted: validation pretty much doesn’t matter.

John Mueller

https://twitter.com/JohnMu/status/858990753909022720

Грешките в HTML кода могат да доведат до проблеми с правилното обхождане и индексиране на сайта от паяците на Гугъл, както и другите търсачки, което вече е сериозен проблем в цялостния процес по оптимизацията на сайта.

CSS грешките не са толкова критични, но могат да доведат до проблеми с правилната визуализация и стилизация на сайта, което от своя страна може да влоши потребителското изживяване, следователно да рефлектира върху оптимизацията и класирането на сайта.

Няма съмнение, че потребителското изживяване (UX) става все по-засилващ се фактор в SEO оптимизацията на сайтовете и поради тази причина трябва да му се обръща изключително внимание.

Всичко нарушаващо по някакъв начин потребителското изживяване (UX), ще рефлектира върху цялостния процес по оптимизация на сайта.

Именно поради тези причина ние обхващаме и тези грешки в SEO анализа, защото смятаме, че те са важни.

24

Проблеми с индексацията

Проблемите свързани с индексацията на сайта са много често срещани.

Можем да направим търсене в Google използвайки “site:” оператор, за да видим колко страници има в момента в индекса на Гугъл.

Проблеми с индексацията на сайта в Google

Това може да ни покаже дали имаме някакви проблеми с индексацията на сайта ни, за които все още не знаем.

Можем да сравним резултатите от Google с резултатите от Screaming Frog и да видим колко страници реално има нашия сайт и колко от тях са в индекса на Гугъл.

Ако страниците индексирани в Гугъл са повече от реалните, има голяма вероятност за наличието на дублирано съдържание, което е един от основните проблеми в оптимизацията на сайтовете.

Ако страниците индексирани в Гугъл са по-малко от реалните, това също е сериозен проблем, който показва, че има наличието на страници, които не са индексирани от търсачката.

Трябва да се идентифицират причините и да се разбере защо не всички страници са индексирани в търсачката.

Причините за това са много, но някои от най-основните са:

  1. Страниците са забранени за обхождане и индексиране от търсачките чрез robots.txt или с “noindex”
  2. Структурата на сайта е прекалено сложна и търсачките да не могат да обходят страниците.
  3. Не е разпределена правилно вътрешната линк маса
  4. Страниците дублират съдържание вътре и/или извън сайта
  5. Страниците са с нискокачествено съдържание или „тънко съдържание“
  6. Има наложено наказание от Google

Именно поради тези причина, когато се прави SEO анализ на сайта задължително трябва да се обхванат и проблемите с индексацията.

25

Проверка в кеша на Google

Много важно е да проверим дали Google правилно обхожда и визуализира страниците ни.

Има вероятност да сме блокирали някои скриптове и поради тази причина Гугъл да не може да обхожда коректно страниците ни.

Как можем да проверим?

Просто пишем в браузера “cache:example.com”

По този начин ще ни се зареди кешираната версия на сайта в Google и ще можем да видим дали има някакви проблеми при нейната визуализация.

Също можем да видим от коя дата и час е тази кеширана версия.

Можем да видим и версията на сайта само в текст, без стилизиране и форматиране.

Друг вариант е да извлечем и визуализираме (fetch and render) в Google Search Console.

Ако има наличието на някакви грешки или блокирани ресурси ще получим информация за тях.

26

Търсене по бранд

Правим търсене по бранд в Google, за да видим как се класира сайтът.

Търсене по бранд в Google

Най-естественото нещо е сайтът да се класира на първа позиция и вътрешните му страници да излизат като sitelinks в резултатите.

Ако има регистрация в Google My Business трябва да се визуализира и информация от там.

Също може да се визуализира и Knowledge Graph с информация за фирмата и/или сайта.

Ако обаче сайтът не се класира на първо място по брандово търсене, може да има няколко причини за това явление:

  1. Сайтът да е създаден скоро и да няма история и авторитет, следователно Гугъл не го е асоциирал все още като бранд
  2. Сайтът да е EMD (Exact Match Domain) с някаква много обща дума и/или фраза
  3. Да има наложено наказание от Google
27

Обратни връзки (backlinks)

Backlinks Обратни връзки

Все още обратните връзки продължават да бъдат един от най-силните фактори в SEO оптимизацията.

Те се разглеждат като препоръки за нашия сайт.

Следователно колкото повече и качествени такива връзки имаме, толкова по-добре ще се класираме в резултатите на Гугъл.

Именно поради тази причина трябва да им се обърне особено внимание, когато се извършва SEO одит на сайта.

Много често се изследва само количеството (обем) на обратните връзки и се пренебрегва тяхното качество.

Самото количество на обратните връзки не е толкова важно колкото тяхното качество.

Дори само една обратна връзка от много силен и авторитетен домейн е по-силна от хиляди, дори десетки хиляди нискокачествени връзки.

Целта не е да се преследва количество и обем на обратните връзки, а тяхното качество.

Когато става въпрос за анализиране на обратни връзки, няма как да не споменем трите най-популярни инструмента:

  1. Ahrefs (Най-голяма база данни и най-бързо откриване на нови линкове)
  2. Majestic (Голяма база данни и бързо откриване на нови линкове)
  3. Open Site Explorer (Най-малка база данни и най-бавно откриване на нови линкове)

Освен тези три инструмента можем да използваме и Google Search Console, в който отразяването на новите линкове става с много голямо закъснение, но въпреки всичко се отразяват.

При анализа на обратните връзки трябва да се вземат под внимание редица фактори, като:

  • Източници на връзките (диверсификация)
  • Авторитет на домейните, линкващи към сайта
  • Части от страницата, в които са поставени връзките (дали има sitewide)
  • Дали има nofollow връзки
  • Разпределение на връзките към вътрешните страници
  • Разпределение на анкор текстовете
  • Дали тези връзки генерират някакъв трафик към сайта, или са поставени само с цел манипулиране на резултатите в Гугъл и другите търсачки

Обратните връзки са един от най-силните елементи в алгоритъма на Гугъл и манипулацията при тях е най-голяма.

Поради тази причина от Google постоянно усъвършенстват алгоритъма си, за да могат да разкриват схеми за купени и разменени линкове, PBN и др. подобни.

При извършването на SEO анализа трябва да се идентифицират подобни опасни линкове и да се обмисли тяхното премахване или отказване с помощта на Google Disavow Tool.

Темата с обратните връзки е толкова специфична и всеобхватна, че заслужава да им отделим отделна статия, в която да ги разгледаме детайлно.

28

Anchor text

Във всеки един SEO одит на сайт освен обратните връзки, трябва задължително да се анализира и анкор текста (anchor text) на обратните връзки (backlinks).

Само с един бърз поглед може да се установи дали anchor text профилът на сайта е натурален (естествен) или не.

Какво представлява натурален anchor text профил:

Натурален backlink профил за SEO оптимизация за Google

Няма унифицирано разпределение на анкор текстовете, защото всеки сайт е индивидуален.

Обаче над 90% от анкор текстовете в един естествен беклинк профил трябва да са: брандови, домейн и голи URL.

Този тип разпределение на анкор текстовете не е измислен от Google.

Това е естествено им разпределение, когато линковете са получени по натурален начин.

Тъй като линковете са много силен фактор в алгоритъма на Гугъл, следователно и тяхната манипулация е много разпространена.

Поради тази причина от Google пуснаха през 2012 г. ъпдейт „Пингвин“, на който целта му беше да се бори със спам техники и изкуствено създадени линкове с цел манипулиране на резултатите в търсачката.

Естественото използването на exact match анкор текстове е в рамките на 1 – 2%.

Няма как 20 – 30% от сайтовете, които линкват към даден сайт да използват exact match анкор текст.

Това е ясен сигнал за изкуствено създаване на линкове с цел манипулация на резултатите в търсачката.

От Гугъл все повече затягат положението с обратните връзки и борбата със спама, както и с купените и изкуствените линкове.

Вече се използват и самообучаващи се системи, които филтрират натуралните линкове от изкуствените.

29

Текущи позиции и класиране в Google

Проверка на класиране на сайт в Google

Във всеки един SEO одит трябва да се обхват и текущите позиции на сайта в Google.

Позиционирането на всеки един сайт е пряко обвързано с трафика, който ще генерира от търсачката.

Именно поради тази причина трябва да се анализират ключовите думи и фрази, по които сайта се класира текущо в резултатите на Гугъл.

Трябва да се идентифицират както страниците, така и ключовите думи, по които те се класират.

Има няколко основни инструмента, с помощта на които може да се идентифицират текущите позиции на сайта в Google:

  1. Semrush
  2. Serpstat
  3. Google Search Console

Класирането на колкото се може повече ключови думи, както и подобряването на тяхното класиране трябва да е най-висок приоритет в SEO оптимизацията на сайта ни.

Колкото повече ключови думи имаме в топ 10, толкова повече органичен трафик и продажби ще можем да очакваме от Гугъл.

30

Социални сигнали

Социални сигнали в SEO оптимизацията на сайт

Към края на 2016 г. Facebook има над 1.79 милиарда месечни активни потребители, които прекарват средно над 1 час на ден в социалната мрежа и това време се покачва постоянно.

Сами можете да си представите как хората взаимодействат със социалните мрежи.

Има проведени много експерименти, които показват силна корелация между класирането на един сайт и социалните сигнали, които е генерирал.

Никой не знае със сигурност дали социалните фактори оказват директно или индиректно влияние върху оптимизацията на сайтовете, но едно е сигурно, че се вземат под внимание от Google и другите търсачки.

Има много инструменти, с помощта на които можем да измерим социалните сигнали към нашия сайт.

Измерване на социалните сигнали Buzzsumo

Доста популярен инструмент е Buzzsumo, но почти всички популярни SEO инструменти вече имат интегрирани подобни справки за измерване на социалните сигнали.

Безспорно социалните фактори набират все по-голяма популярност и поради тази причина ще навлизат с все по-голяма тежест в алгоритъма на Гугъл, както и на другите търсачки.

Това е основна причина, поради която трябва да се обхванат и да се анализират във всеки един SEO одит.

31

Бутони за социално споделяне

Бутони за споделяне в социалните мрежи

Едва ли има много хора, които да нямат поне един социален профил в някоя от големите социални мрежи като: Facebook, Twitter, LinkedIn, Instagram, Google Plus и Pinterest.

Все повече се увеличава и времето прекарвано в тези социално мрежи, което означава, че хората взаимодействат все повече с тях.

Никой със сигурност не знае каква точно тежест имат в алгоритъма на Google, но със сигурност влиянието им ще се повишава, защото и използването на социалните мрежи непрекъснато се увеличава.

Има изследвания, които показват, че използването на бутони за социално споделяне увеличават шанса за споделяне с над 700% в сравнение с такива, които не използват такива бутони.

Много по-вероятно е човек да сподели нещо в социалните мрежи, отколкото да сложи обратна връзка от сайта си към него.

Спомнете си последната хубава статия, която сте чели и ви е харесала.

Какъв е шансът да я харесате, коментирате или споделите в социалните мрежи?

Какъв е шансът да напишете статия във вашия сайт и да сложите обратна връзка към нея?

В Google работят едни от най-умните хора в света и те от много време са осъзнали това нещо и според мен е въпрос на време социалните сигнали да изместят традиционните обратни връзки.

Има много критици, които казват, че това няма как да стане, защото социалните фактори са много лесни за манипулиране и можеш да си купиш харесвания, коментари и споделяния.

А купуването на обратни връзки е много трудно, нали?

Дори социалните фактори да не оказват голямо влияние върху класирането на сайта в търсачките, те могат да помогнат много с популяризирането на нашите продукти или услуги и те да станат по-видими за повече хора.

Това означава, че можем да получаваме повече посетители от социалните мрежи, на които да предлагаме нашите стоки или услуги, следователно да генерираме повече конверсии и приходи.

Поради тези причини в SEO одита трябва да се изследва за наличие на такива бутони за социално споделяне.

Социалните мрежи са огромен източник на трафик и не трябва да се пренебрегват или подценяват по никакъв начин.

32

Open Graph и Twitter Card

Макар да не са директно свързани със SEO оптимизация, Open Graph и Twitter Card са изключително важни за визуализацията на нашия сайт в социалните мрежи.

Както най-вероятно се досещате, социалните сигнали оказват влияние върху оптимизацията на сайта.

Дали са директен или индиректен фактор никой не знае със сигурност, но едно е сигурно, че оказват влияние върху SEO оптимизацията и класирането на сайта.

Правилното използването на Open Graph и Twitter Card е изключително важно за споделянията в социалните мрежи като Facebook и Twitter.

Именно поради този факт следва да бъдат отразени в SEO одита на сайта.

Визуализацията на снипетите в социалните мрежи става чрез данните, разписани в Open Graph за Facebook и Twitter Cards за Twitter.

Така че вече не е необходимо да се чудим откъде Facebook, Twitter и другите социални мрежи взимат данни, когато се споделя даден линк в тях.

Можем да използваме инструмент на Facebook, който може да ни покаже как биха се визуализирали страниците при тяхното споделяне.

https://developers.facebook.com/tools/debug/sharing/

33

Анализ на конкуренцията

SEO анализ на конкуренцията

Едва ли има SEO одит, в който да не се обхване изследването на конкуренцията.

Анализа на конкуренцията е изключително важен процес, за да бъде подценяван и пренебрегван.

Материята е много прецизна и широка, поради тази причина заслужава да бъде разгледана в отделна статия.

При анализа на конкуренцията трябва да обхванем следните най-важни аспекти:

  1. Да идентифицираме, кои са основните ни конкуренти в бизнес нишата
  2. Да видим каква стратегия използват за оптимизация на сайтовете си
  3. Да проверим текущите им позиции в Google
  4. Да анализираме източниците им на трафик
  5. Да анализираме рекламните им канали
  6. Да анализираме откъде получават обратни връзки

Има още много фактори, които следва да се анализират и да се направят съответните изводи.

Въпреки че анализа на конкуренцията е изключително важен, не трябва да копираме конкуренцията.

Трябва да се учим от тях и да прилагаме работещите стратегии, но също така трябва да избягваме грешките, които те правят.

Част от инструментите, които могат да се използва за анализ на конкуренцията са:

  1. SEMrush
  2. Similarweb
  3. Serpstat
  4. Ahrefs
  5. Alexa

ВАЖНО!

Всички тези инструменти не могат да покажат 100% акуратни данни и поради тази причина не трябва напълно да им се доверяваме.

Без да имаме 100% точни данни е много лесно да направим грешни анализи и заключения.

Поради тази причина анализирането на конкуренцията трябва да се извършва само от специалисти с богат опит и експертиза.

Те могат да отсеят непълните данни и да направят много по-точни анализи и крайни заключения.

34

Източници на трафик

Източници на трафик

Въпреки че анализирането на източниците на трафик не е пряко обвързано със SEO оптимизацията, трябва да бъде засегнато в SEO одита.

Оптимизацията на сайта не е отделна и изолирана дейност, следователно трябва да се разглежда като част от цялостния маркетингов микс.

Именно поради тази причина трябва да се установят кои са най-големите източници на трафик към сайта и кои канали конвертират най-добре.

И фокуса да се насочи към тяхното подобряване, както и към развиване на други канали за трафик и продажби, които към момента сайта не използва в пълният им потенциал.

Можете да използвате сайтове като Similarweb и Alexa, за да проверите какви са източниците на трафик, но не трябва да приемате резултатите като абсолютна стойност, защото може да има големи разминавания с реалните.

По-скоро резултатите, показани в Similarweb и Alexa трябва да се разглеждат като ориентир.

Заключение

SEO одита можем образно да го разгледаме като бетонна основа на сграда.

Всяка една сграда има нужда от стабилна основа, върху която да се изгради.

Няма как да имаме сграда без основа, нали?

Обаче само и единствено наличието на основа също не е достатъчно, защото очевидно нямаме сграда.

Много хора смятат, че след като е извършен SEO одит, идентифицирани са пропуските и слабите страни, то само чрез тяхното отстраняване процеса по SEO оптимизация на сайта приключва.

Строителството на една сграда приключва ли само с полагането на нейната основата?

Точно така, това е абсолютният минимум и тепърва започва същинският процес по нейното изграждане.

Същото е положението и със SEO оптимизацията.

Няма как да започнем процеса по оптимизация на сайта, без преди това да сме положили стабилни основа чрез извършването на SEO одит.

Обаче това не е краят на процеса по оптимизация на сайта, а точно обратното, това е неговото начало.

Оценка и ревю от Dimitar Stoyanov 9 от 10 възможни точки.

Ivan Panchev SEOsofЗа автора

Казвам се Иван Панчев и се занимавам със SEO (Search Engine Optimization) от 2014 година като през това време съм работил изцяло върху собствени проекти, както на родния, така и на международния пазар.

Провеждал съм стотици A/B тестове върху тестови сайтове с цел да установя кои неща реално работят и водят до подобряване на класирането на сайтовете в Google.

Чрез тестовете, които провеждах в изолирана среда с тестови и контролни групи от сайтове успях изградя технологично Know-How и да докажа нещата, които работят и тези, които са само митове и легенди.

За разлика от много други хора, които след като прочетат нещо в интернет и го приемат за чиста монета, аз подлагах почти всичко на съмнение и го тествах, за да докажа дали реално работи или не.

В последствие имплементирах работещите и доказани неща върху собствените си проекти.

След повече от 2 години постоянни експерименти на принципа „проба – грешка“ и проведени стотици сплит тестове върху тестови сайтове и лични проекти бях натрупал определен опит и know-how.

2 години по-късно вече имах изградена ефективна работна рамка, която прилагах сполучливо върху личните си проекти и реших, че мога да разгърна тези знания и умения и да започна да предлагам SEO като услуга.

Така през 2016 година създадох бутиковата фирма за SEO оптимизация SEOsof ® с идеята да помагам на собствениците на малък и среден бизнес да развиват и разрастват проектите си онлайн.

Привърженик съм на SEO 3.0 или т. нар. „SEO на бъдещето“, което според мен вече не е бъдеще, а е настояще.

Според мен SEO 2.0 или т нар. „SEO на настоящето“ е навлязло в последната фаза от своя жизнен цикъл и трябва да се премине на следващо ниво, а именно SEO 3.0.

SEO 3.0 надгражда SEO 2.0 като при него фокусът е върху семантичното търсене, самообучаващите се системи (machine learning), изкуствения интелект (AI) и потребителското изживяване (UX).

Именно това са нещата, които приоритизирам когато работя върху даден проект без значение дали е клиентски или личен.

През свободното си време обичам да…

Свободно време?

За малко да забравя, че се занимавам със SEO, така че за какво свободно време можем да говорим…