Seo аудит сайта - проверка и анализ качества
Ну что, друзья. Давайте сегодня коротко поговорим о том, какие пункты необходимо учесть, проводя аудит сайта клиента или оценивая возможности собственного проекта перед продвижением. Статью буду строить по принципу анализа характеристик для своего seo блога, что собственно и является seo аудитом сайта seoexecutor.ru глазами сеошника.
И так... Заводя себе блог в далеком 2010 году, а точнее в январе 2010 года, я и представить не мог, что seo, что бы о нем не писали тогда, на столько муторная и не всегда легкая наука, что просто пипец! Начитавшись сеошных блогов, которые рассказывали о легких деньгах, квартирах и машинах, мной было принято решение создать блог именно сеошной тематики. Можете представить себе пацана, который запоем читает статьи о заработке и деньгах в seo. Зрелище на самом деле "наивное".., но думаю, многие из моих читателей, ведущие блоги о заработке и продвижении, начинали с пустой головой в этом деле. Посудите сами, интересный подход в блогосфере по заработку - я сам не умею делать деньги в интернете, но сделаю блог, на котором буду писать о том, как заработать деньги в сети. Жесть... Но к чему это я говорю, спросите вы?! А к тому, что спустя какой то определенный промежуток времени, пропустив через себя вагон информации, отсортировав мусор и проведя кучю экспериментов, начинаешь понимать - бляя... пацан... ты пишешь о seo, оптимизации, продвижении, верстке, а сам имеешь в своем арсенале на столько не качественный и убогий, с точки зрения нынешних реалий сайт, что просто печаль...
Толчком к такого рода рассуждениям, стало резкое падение трафика на блог в конце марта начале апреля этого года. Позиции сайта с его постепенным развитием все время росли. К марту 2012 мой блог вышел на четкую посещаемость в 1000 уникальных посетителей в сутки. По скринам liveinternet можно наблюдать картину резкого падения. На сегодняшний день, планка посетителей моего сайта колеблется в районе 350 - 400 уникальных заходов в день.
Отмечу сразу, проблемы присутствующие на сайте - это только часть всего списка недочетов и ошибок, которые нужно решить для возвращения трафика, но сейчас именно о характеристиках сайта и всех вопросах, которые с этими характеристиками связаны. Начнем разбор полетов господа.
1. Необходимый критерий любого качественного ресурса - наличие регистрации сайта в веб-мастер панели Яндекса и Инструментах веб-мастера Google. Панели позволяют осуществить проверку и первоначальный сбор статистики сайта, а так же задействовать ряд необходимых функций, которые позволят лучше представить сайт поисковой машине. Панель вебмастер Яндекса - webmaster.yandex.ru; инструменты веб-мастера Google - books.google.ru/webmasters.
Регистрация блога в панели Вебмастер Яндекса, для сайта seoexecutor.ru была произведена еще на заре его открытия. Оттуда на начальном этапе, отслеживались ссылки с дофоллов блогов, форумов и каталогов. Сейчас панель посещается изредка, из за большого объема работ.
Регистрация в инструментах google прошла недавно - пару месяцев назад. Не придавал вообще нужного значения данной поисковой системе, и соответственно ее инструментарию для сайтостроителя. Но как показала практика, совершенно напрасно я забил на google.
Обе поисковые системы позволяют более конкретно работать с техническими показателями сайтов, по средствам инструментария для веб - мастеров в виде скрипта аналитики, который можно установить на блог - это скрипт Яндекс Метрика у Яндекса и Google Analytics у Гугла. У меня стоит только метрика Яндекса, а значит я теряю огромную часть аналитических данных по своему блогу!
2. Определяем наличие сайта в поисковой системе Яндекс и Google ( я интересуюсь только двумя поисковыми системами, вы можете проверять и в других ), а так же степень проиндексированности сайта в каждой из них. Оценку проводим при помощи pr-cy.ru
В поисковой системе яндекс на сегодняшний день проиндексировано 227 страничек. В индексе присутствуют как статьи, так и служебные страницы сайта, что не есть хорошо в нашем случае.
В индексе Google мы имеем 262 странички. Google как и Яндекс, проиндексировал все доступные страницы сайта, включая не нужные мусорные служебные разделы.
В данном анализе прослеживается явно положительная тенденция - коэффициент проиндексированности сайта в обоих поисковых системах стремиться к 1-(еденице), т.е. количество проиндексированных страниц сайта в одной поисковке приблизительно равно количеству проиндексированных страниц в другой. И да.., сайт присутствует в индексе обоих поисковых систем, с количеством страниц больше 50, а по сему ни бана, ни АГСа со стороны Яндекса у нас нет.
3. Проверяем количество страниц в основном и дополнительном индексе Google. По данным сервиса pr-cy.ru всего гуглом проиндексировано 262 страницы. Из них, при проверке на сопли с помощью строки поиска google, в основном индексе сидят 165 страниц.
Проверка на основной индекс гугла осуществляется подстановкой оператора /& в конец урла нашего сайта, в конструкции site:seoexecutor.ru/& и на рисунке выше это прекрасно показано. Для проверки замените seoexecutor.ru на свой сайт.
Дополнительный индекс google рассчитывается из разницы между общим количеством проиндексированных страниц и страниц, присутствующих в основном индексе гугла. Что то вроде 262-165=97. В итоге, в дополнительном индексе гугла сидит 97 страниц. Получается, пол сайта не нужной, бесполезной информации. А с этим нужно что то делать!
4. Анализ внешней ссылочной массы сайта. Тут можно использовать целый набор сервисов. Я пользуюсь основными двумя, о которых писал выше - инструменты гугля и панель вебмастер Яндекса. Это доступные способы проверки, которые показывают максимально возможное число хоть как то работающих ссылок.
Панель вебмастера в Яндексе показывает нам общее число внешних ссылок в районе полу тысячи. Из этих ссылок, при более-менее детальном анализе видно, что основная масса - это блоги, каталоги, рейтинги и rss агрегаторы. Ссылочная масса оставляет желать лучшего.., над ней как минимум нужно работать! Нет ссылок с трастовых не заспамленных площадок, большая часть пустых не тематических ссылок со страниц с малым количеством контента.
Гугловские инструменты дают максимально возможный перечень ссылочной массы на ваш сайт! Гугл показывает все, что сам видит, т.е. ссылки в noindex (т.к. это Яндексойдовский тег и гугл его не понимает), ссылки в nofollow (хоть по заявлениям гугла такие ссылки вам не передают вес), а так же полностью открытые для индексации ссылки. В отличии от панели вебмастер Яндекса, инструменты google дают подробный отчет по ссылкам на каждую страницу вашего сайта, что весьма удобно. По ссылочной массе блога seoexecutor.ru снова прослеживается спамный след моей молодости из 1700 внешних линков. Ссылочную массу нужно обновлять, корректировать, вычищать... В общем работы по внешнему ссылочному много.
5. Определяем соотношение количества страниц в индексе поисковых систем к их реальному количеству на сайте. Идеальный вариант, если в поиске участвует ровно столько страниц, сколько имеется на сайте.
Для анализа реального количества страниц сайта из бесплатных способов могу посоветовать лишь онлайн генераторы карт сайта, или бесплатные программы для генерации xml карт под google. Не буду отсылать вас к конкретным сервисам или проргам, т.к. каждое из возможных моих предложенний, в виду своей бесплатности, будет иметь свои минусы. Сам пользуюсь платными решениями. Проанализировав блог с помощью специального софта я обнаружил, что на нем 402-е реально присутствующих странички. А как мы уже видели ранее в индексе весит всего 262 - google и 227 - яндекс. Нужно переработать ссылочную структуру блога, а в виду этого - коренным образом переработать шаблон вывода блоков ссылок.
6. На следующем шаге можно проверить корректность отработки ошибки 404. Для проверки воспользуйтесь бесплатным решением под названием Xenu’s Links Sleuth - замечательная бесплатная программа, с огромным полезным функционалом внутри. Анализ сайта показал, что проблем с отработкой ошибки 404 нет. Спим спокойно.
7. Проверяем возраст домена (косвенный показатель траста) - чем старше домен/сайт, тем лучше для продвижения (не во всех нишах это работает, но работает). Элементарно смотрим whois нашего сайта - whois.domaintools.com/seoexecutor.ru У меня картина следующая...
Регистрация домена (читай первое появление сайта в сети) датировано 2010.01.12 На сегодняшний день - это 31 месяц жизни сайта. Очень хорошо, т.к. блог является уже возростным старичком и многие ошибки по определению возраста списывается со счетов.
8. Определяем время загрузки страниц сайта. Для анализа можно воспользоваться сервисом domw.net По моему сайту показатели я бы сказал просто ужасны.
Если оценивать по 100 бальной шкале время загрузки сайта, то моя оценка 43. Отрицательный показатель, в виду того что у меня обычный трех колоночный блог, а не какой нибудь там портал, с множеством видео контента, аудио контента, с большим количеством галерейной и текстовой информации. Нужно максимально облегчать подачу сайта.
9. Проверяем корректность robots.txt и вообще наличие его на сайте, т.к. многие сайтеры из принципа не включают его в общий алгоритм правильной оптимизации сайта.
При первой оценке роботса все вроде бы правильно. Но во первых, для чего нужно было дублировать отдельные команды для робота Яндекса? Тут явно горе от ума :-) Но и это не все. Роботс как минимум не полный... Нужно добавить сайтмап, убрать ненужные папки из директив, дописать дубли страниц, которые присутсвуют на сайте, скрывая их от роботов.., короче нужно исправлять, такой роботс сеошнику не катит ни как... Ах да, о сайтмапе написал, а о его присутствии нет. Обязательно необходимо наличие карты сайта на сайте! А ее у меня нет... Вот тебе и еще одна ошибочка... Неоднократно замечено, что кэш страниц в индексе обновляется чаще, при наличии сайтмапа на сайте. Но кому как ;-)
10. Так же можно поработать с микроформатами сайта. Google их не плохо понимает, чего не скажешь о Яндексе. Но и Яндекс уже кое что из микроформатов умеет читать. У меня на сайте микроформатов нет вообще, но я это обязательно исправлю.
11. Наличие присвоенного региона в панели Яндекса. Обязательный фактор облегчающий продвижение. А у меня и тут вырисовывается проблема! Решаем ее добавлением нужной страницы на модерацию или микроформатами, которые Яндекс на сегодняшний день сечет.
12. Оцениваем верстку сайта, ее валидность, тяжесть, правильность. Если посмотреть валидацию кода моего блога при помощи сервиса validator.w3.org мы увидим следующую картину.
На главной странице 39 ошибок, использую уже можно сказать устаревший HTML язык, ведь кругом говорят о HTML 5 и нужно идти в ногу со временем, ну а если заглянуть в код страницы, то...
Мы имеем устаревшую табличную верстку сайта. Против дивов, таблицы нонче не катят никак, тут необходимо работать, переверстывая шаблон по новой.
Верстка сама по себе рваная, не имеющая четкой логической структуры. Много пустых мест и ошибок в коде.
Адоптация кода шаблона на нулевом уровне. Многие вещи могут быть просто вынесены в css файл, который тоже кстати загажен лишними элементами.
Закругления в табличной верстке, а так же элементы меню построены при помощи усложненного кода и вызова в нем элементов графики - обычных тяжелых изображенний. Все это легко заменяется CSS3 кодингом, что впринципе необходимо реализовать в любом случае, для облегчения общей графики сайта.
13. Определяем внутреннюю ссылочную структуру сайта - (сквозная новигация, блоки бесполезных ссылок, оценка полезности внутренней структуры сайта). Что тут можно выделить..? Блог сделан по принципу общей блоговой структуры - как есть и как у всех. Но это же в первую очередь сеошный блог, а значит в общие рамки он не должен вписываться как минимум.
На скрине видны основные ошибки. Меню - сквозное меню, вес страниц которого максимальный! Спрашивается, зачем качать страницу контактов или страницу об авторе..? Мне это так же не ясно.., нужно устронять! Сквозной сайдбар - что имеем..? Имеем кучу неуникального контента через все страницы сайта! Теперь о ссылке "читать далее" - зачем с одной страницы ставить по несколько ссылок на одну и ту же статью, тем более с бессмысленным анкором. Ход мыслей ясен каждому..! И так, по всем страницам сайта, не щадя внутренню структура сайта вообще.
14. Проверка сайта на внешнюю ссылочную массу (учитывая noindex и nofollow). Места где безконтрольно пращаешся с весом страниц сайта - это комментарии.
Спрашивается, зачем столько ссылок в комментах на всякие варезники и заброшеные блоги, многие из которых уже не существуют. Вес хоть и не передается пациенту (что в принципе еще не особо понятно), но как минимум растворяется в никуда. Тогда зачем его распылять по напрасну..? Можно выводить текстовое имя сайта (урл), рядом с именем комментатора и датой добавления. И вам хорошо и активному комментатору, за хороший коммент польза ;-) А спамеры идут лесом.
15. Семантическое ядро сайта - оно не собрано! Статьи писались как есть - что вижу то и пишу. На сегодняшний мозг, я бы провел четкий анализ поисковых запросов при помощи стороннего софта, выделил бы низкоконкурентные ключевые слова и фразы, определил страницы рубрик и статей. Короче собрал бы нужное мне по тематике seo семантическое ядро, под которое и писал бы статьи. Сейчас путь только один - сбор семантического ядра сайта, и на его основе добавление новых материалов.
16. Внутренняя перелинковка сайта. В пункте - 13, была затронута ссылочная структура, однако как таковой, корректной внутренней перелинковки на сайте нет. Присутствуют сквозные блоки и кластеры одинаковых ссылок внутри страниц статей. По сути, на блоге имеет место быть автоматическая перелинковка сторонними скриптами, которая, как минимум не является хорошей, человеческой, правильной, и как максимум сделана не для позиций сайта, а для перелинковки. Перелинковка ради перелинковки - думаю знакомаю многим фраза. Это в корне необходимо менять! У меня кулинарные блоги знакомых, не без моей помощи, оптимизированы и перелинкованы намного правильнее этого seo блога. Логики нет :-)
17. Социальная составляющая блога, честно говоря скудна, а это знаки! Поисковые системы должны видеть всестороннее развитие ресурса. Тут необходимо поработать со всеми возможными крупными социалками.
Как видите на моем блоге, при минимальном seo анализе присутсвует тонна ошибок, а это все коренным образом влияет на качество сайта и его позиции в серпе! Поисковые системы учитывают все... Пробится в топ с качественным сайтом намного легче, чем с сайтом сделанным на коленке. Данный анализ был описан сдесь, как некая инструкция для новичка и напоминание мне, что над сайтом необходимо плотно поработать.
Не думайте, что тут выложены все характеристики, по которым нужно чекать сайт на предмет его достойности серпа. Много пунктов по которым нужно просматривать сайт я просто опустил - это вам полигон для изучения (тем, кто и этого, что описано в статье, не знал), а те кто в курсе событий, понимают, что к данному онализу нужно еще порядка 30 пунктов прицепить, и по каждому пункту, который описан в статье, более детально определить ошибки (я их определил).
Ни где в интернете нет четко сформированных правил, по которым следует проводить seo анализ сайта, с пояснениями по каждому пункту проверки - что проверять, чем проверять, зачем проверять, на что влияет. Это золотая инструкция, которую ни кто в интернете просто так не спалит! Можете посмотреть, сколько берут за seo анализ сайта топовые seo блогеры ;-) Топовики в области seo разбивают полный seo анализ на несколько мини аудитов, что впринципе и понятно.
Самый простой мини аудит сайта включающий анализ битых ссылок на сайте, корректность отработки ошибки 404, анализ редиректной составляющей, оценка присутствия дублирования заголовков и мета-тегов статей, а так же анализ правильности и корректности robots.txt стоит от 5000 рублей за разовое обращение. Более сложный по содержанию seo аудит сайта, учитывающий исходный код, внутреннюю перелинковку, рекомендации по улучшению общей внутренней структуры, рекомендации по написанию статей, оптимизации заголовков, стоит уже от 10 000 рублей. Ну а полный seo аудит сайта, со всеми нюансами и вытекающими стоит как минимум от 15 000 рублей за разовое обращение. Так что для содержания в своем арсенале качественного конкурентного сайта нужно либо самому разбираться в вопросах оптимизации либо выкидывать за это бабос специально обученным людям.
На сей ноте прощаюсь с вами друзья, и в нагрузку предлагаю посмотреть видео, в котором четко расписаны основные моменты seo аудита любого сайта, подводные камни заказа данного аудита у фрилансеров и вообще, необходимость проведения аудита для любого ресурсоемкого и продающего проекта. Удачи вам!
Геннадий(2012-11-05)
Очень качественная и содержательная статья. Я Ваш подписчик, и часто посещаю Ваш сайт, изучаю статьи. В данный момент удивляюсь как у Вас хватило терпения и времени выполнить анализ сайта, и написать такую объемную статью. Интересно сколько держите сайтов, что успеваете писать такие полезные статьи?