Назад к списку

Зачем сливать бюджет на рекламу?

Первый шаг для попадания в верхние результаты поиска? Составить портрет целевой аудитории, сделать уникальное торговое предложение, создать рекламные объявления и все в таком духе? Не все так просто, ознакомьтесь с нашим опытом работы с сайтами, интернет магазинами, получите полезную информацию для себя...



           В ходе рекламы, потенциальные потребители придут к вам на сайт, в интернет магазин и будут сначала изучать вас, вашу продукцию, страницы сайта. Посетители могут столкнуться с некоторыми недостатками сайта, такие как битые страницы, дубликаты страниц, большое время загрузки страницы. Вы будете тратить финансовые средства на SEO продвижение сайта, рекламу, а поисковые системы Яндекс, Google не будут повышать ваш сайт в поиске из-за технических ошибок. 

Один из наших партнеров попросил провести аудит их сайта www.asgor.su . Компания Асгор специализируется на разработке и внедрении информационных и аналитических систем «под ключ» на базе современных технологий для предприятий различных отраслей народного хозяйства (государственное управление, страхование, металлургия, строительство, транспорт, финансы, и др.). Лучшим  программным продуктом Асгор является «Недвижимость» для управления земельными и недвижимыми объектами. В 2019 год состоялось успешное прохождение нагрузочных тестов АСГОР «ИМУЩЕСТВО» под управлением операционной системы Astra Linux. Таким образом, использование АИС полностью соответствует требованиям Правительства РФ об использовании в органах исполнительной власти отечественного ПО. 

 Индекс качества сайта АСГОР  100, чуть уступая конкурентам на 20 единиц.  Не высокая посещаемость сайта беспокоила директора.



Основные решения  разработанные  АСГОР для рынка:



Анализ сайта из 1060 страниц показал наличие недостатков: 

1.Ошибки с низкой критичностью -14 ошибок (одинаковые title и Н1, несколько заголовков Н1, короткие описания т.п.) 

2.Ошибки со средней критичностью – 7 ошибок (большое время ответа сайт, отсутствующий или пустой Н1, изображение без атрибута alt, большие изображения и т.п. 

3.Ошибки с высокой критичностью – 12 ошибок. Вот на этой категории ошибок остановимся поподробнее. Решая, оперативно вопросы по устранению этих ошибок, вы помогаете поисковым системам поднимать свой сайт в поисковой выдаче бесплатно. 


 Битые страницы

 


Битая ссылка — это ссылка, которая ведёт на несуществующую страницу, документ или изображение. Если сервер настроен правильно, такие страницы должны отдавать 404 коды ответа сервера. Битые ссылки отрицательно влияют на ранжирование, потому что делает ваш сайт не привлекательным для поисковых роботов. 

Наличие битых ссылок негативно отражается и на поведенческом факторе. Они вызывают у пользователя неприятные эмоции — он не находит то, что искал, и уходит с сайта. 

 Для устранения этой ошибки нужно удалить битые ссылки или перенаправить их на соответствующие страницы. 


  4ХХ Ошибки 



Класс кодов 4xx предназначен для указания ошибок со стороны веб клиента, входит в отчет «Битые ссылки». Поисковые системы считают сайт с такими ошибками некачественным и понижают его позиции в результатах поиска. Поисковые роботы тратят много ресурсов на обработку битых страниц, поэтому ваши важные страницы могут не попасть в поисковую базу и вы потеряете поисковый трафик. 

Для удаления ошибки замените ссылками на доступные страницы. 


  Дубликаты страниц 

 


User-agent: * 

Disallow: /manager/ 

Disallow: /assets/components/ 

Disallow: /core/ 

Disallow: /mgr/ 

Disallow: /connectors/ 

Disallow: /index.php 

Disallow: *? 

Host: asgor.su 

Sitemap: http://www.asgor.su/sitemap.xml 


 Так выглядит robots.txt - Файл дает поисковым роботам рекомендации: какие страницы/файлы стоит сканировать  или запретить сканирование, какая страница является основной для поисковых роботов.


Существенная ошибка в нашем конкретном сайте, потому что одна и та же страница доступна по нескольким адресам, с и без www, на разных протоколах http\https, что мы и видим. 

 Критическая ошибка для вашего магазина, сайта: Не настроена переадресация (301 редирект) после переезда сайта с протокола http на https. Это касается и отсутствующего редиректа на главное зеркало сайта. Например, когда сайт доступен по адресу с www. и без него, со слешем в конце и без него. 

Поисковым системам Yandex, Google сложно определить, какой адрес из дубликатов добавить в свою поисковую базу и какую страницу показывать в поиске. В итоге на более высокой позиции в выдаче могут показываться неважные для потребителей адреса ваших страниц магазина, сайта., что ведет к низким позициям страниц в органическом поиске, потере трафика и возможно удалению этих страниц из поиска. 

Большие магазины могут особенно пострадать от дубликатов. У поисковых роботов не хватит ресурсов и времени на сканирование сайта. В итоге многие страницы товаров могут не попасть в поисковую базу, поисковые системы снижают позиции всего сайта, так работает алгоритм Google Panda. 

 За счет дублей в поисковую выдачу может попасть не та страница, продвижение которой планировалось, а её копия. Есть и другой вариант: обе страницы будут конкурировать между собой, и ни одна не окажется в выдаче.   

Поисковый вес страницы сайта, магазина — это рейтинг, построенный на количестве и качестве ссылок с других сайтов, или страниц внутри вашего сайта. При наличии дублей ссылочный вес делится между ее дубликатами, что приведет усилия по внешней оптимизации и продвижению в тупик. 

Чтобы устранить эту ошибку перенаправляйте пользователей и поисковые системы на ОСНОВНУЮ страницу с поддержкой HTTPS или ресурс с переадресацией 301 на стороне сервера для адресов HTTP. Убедитесь, что страницы HTTPS можно сканировать и индексировать. Не запрещайте посредством файлов robots.txt сканировать и индексировать страницы HTTPS. Не размещайте на страницах HTTPS метатеги noindex. 


 Дубликаты текста  



В нашем случае это связано с ошибкой дубликата страницы. 

Поисковые системы считают дубликатом страницы, у которых дублируется текст в блоке <body>, даже если содержимое блока отличается. 

Ошибка ведет к снижению рейтинга и поискового тарфика. 

 Необходимо сделать контент страниц уникальным. 


 Дубликаты title



 Title- важный элемент поиска, его содержание указывается в первой строке результатов поиска. Эти теги у разных страниц дублируются, если их содержимое идентично. Поисковым системам сложно определять какую страницу из дубликатов показывать в поиске. Страницы с дублирующим тегом title конкурируют между собой за позиции или вовсе не показываются в результатах поиска по важным ключевым словам. 

Ваша задача составить для каждой страницы уникальный тег title, который будет описывать ярко контент и содержать целевые ключевые слова. Оптимальная длина тега от 40 до 70 символов, максимум 140 символов.


 Дубликаты Description 



Это индексируемые страницы с дубликатами тегов <meta name=”description” />. Важный элемент поисковой оптимизации, т.к. его содержимое часто используется в качестве результатов поиска, чтобы посетители сайта лучше поняли суть страницы. 

 Данная ошибка приводит к понижению посещаемости страницы количества переходов из поисковой рекламы.  

Ваша задача составить уникальное описание description, который будет емко описывать контент, существенные ключевые фразы, а также должен побуждать пользователя перейти на сайт. Его оптимальный размер от 100 до 160 символов.


 Дубликаты Н1 



Ваши индексируемые страницы с дублирующими заголовками Н1. 

Важный элемент поисковой выдачи. Он позволяет пользователям понять содержимое страницы посещаемого сайта. 

При дублировании поисковые системы и пользователи считают сайт некачественным, что ведет к потере трафика.   

Важно для каждой страницы составить уникальный заголовок Н1 от 3 до 7ми слов. Заголовок Н1 не должен дублировать содержимое тега <title>. 


 Отсутствующий или пустой description



Контролируйте индексируемые страницы с отсутствующим или пустым тегом <meta name=”description” />. 

 Если тег отсутствует, поисковые системы могут самостоятельно изменить ее описание, в поиске исходя из контента, и оно может стать неинтересным для посетителей, что ведет к потере трафика. 

 Важно включить в настройки сайта добавление тега на страницы сайта. 


 Битый редирект



Это адреса страниц, возвращающиеся на недоступные URL или URL, которые возвращают ответ сервера 4ХХ или выше. 

Битый редирект равносилен битой ссылке. Итог посещения такой страницы уход посетителя с сайта, а поисковые системы понижают сайт в результатах поиска. 

Для борьбы с ним уберите с сайта внутренние ссылки на редирект или замените ссылками на доступные страницы. Редирект, заблокированный в robots.txt 


 Редирект, заблокированный в robots.txt



Данный редирект возникает, когда первый URL доступен для сканирования, а конечный адрес редиректа или любой другой URL в цепочке перенаправления закрыты. В таком случае поисковый робот переходит по ссылке, но не может продолжить сканирование, потому что попадает на заблокированный для него адрес. 

Эти перенаправления отрицательно влияют на сканирование роботами и расходуют ссылочный вес, что ведет к редкому сканированию вашего сайта и понижению трафика. 

Данную ошибку необходимо убрать путем замены ссылками на доступные страницы. Возможно, стоит закрыть в robots.txt начальный URL редиректа, чтобы поисковый робот не заходил на него.


  Висячий узел 



Ошибка показывает HTML страницы, которые были определены алгоритмом PageRank как «висячие узлы». На эти страницы ведут ссылки, но на них самих отсутствуют исходящие ссылки, либо они закрыты от роботов по правилам сканирования. Это аналог концепции, когда учёные оценивают «важность» научных работ — по количеству других научных статей, которые на них ссылаются. 

Закрытые от индексации страницы, за исключением страниц с атрибутами noindex, follow, не передают ссылочный вес страницам, на которые ссылаются, из-за чего и возникает висячий узел.

 Важно – внутренние ссылки эффективный метод показывать поисковым системам важность страниц сайта (ссылочный вес). Если у страницы нет исходящих ссылок, или роботам запрещено их учитывать, то она не сможет передавать ссылочный вес другим страницам. 

 Результат: полезные страницы могут потерять позиции в поиске и трафик. 


  Страницы без внутренних ссылок 



Показывает HTML- страницы, на которые ведут ссылки, но на них самих отсутствуют исходящие внутренние ссылки.  

В результате из-за таких тупиковых страниц полезные страницы могут получить меньше ссылочного веса. Потерять позиции в поиске и трафик. 

На всех целевых страницах сайта необходимо добавить исходящие внутренние ссылки. 

 Ссылочный вес не имеет прямого влияния на индексацию и ранжирование, но грамотное его распределение между страницами позволит вам:

 - Лучше распределять краулинговый бюджет

 - Акцентировать внимание краулеров на определённых страницах, которые потенциально могут принести много трафика. 

 - Оценивать значимость страниц внутри вашего сайта. 


  Заключение: перед тем как продвигать себя на просторах аукционных затрат в рекламных сетях, оцените свой сайт, уберите ошибки и поисковые роботы помогут перейти в лучшие видимые позиции результатов поисковых запросов вашей целевой аудитории.   

 Всегда рады ответить на ваши вопросы , пишите, звоните

Продолжение этой статьи следует...