Главная Новости

Распространенные ошибки оптимизации сайта

Опубликовано: 01.09.2018

Здравствуйте, друзья!

Начинаю новую серию статей про ошибки в продвижении и первая из них будет про основные ошибки оптимизации сайта.

Наверняка, вы попадете хотя бы под один пункт из данного чек-листа, в виде которого я и хочу сделать сей мануал. Конечно же не обойдется и без объяснений каждой ошибки. Настоятельно рекомендую провести анализ сайта на ошибки по данной статье.

Важно! В данном материале не буду показывать, как устранить данные ошибки. Я лишь перечислю и объясню основные, которые вам уже нужно будет найти на сайте и устранить их. Это будет первый материал по данному вопросу. В следующих мы уже начнем практиковаться.

Технические ошибки

Доступность сайта. Мало кто уделяет данному моменту должное внимание. Происходит ситуация, когда владелец сайта заходит на него иногда и видит, что ресурс в строю. Но если поставить мониторинг доступности сайта, то можно увидеть, что показатели работы сайта не совпадают с тем, что мы замечаем.Очень часто сайт может быть недоступным по пару минут в день, а в месяц уже накапливается достаточно большое количество времени его неработоспособности, а ведь в данный промежуток времени мог зайти робот поисковых систем и собрать нежелательную статистику. Тогда сайт может понижаться в поисковой выдаче. Также это касается и показа рекламы на сайте. Если из 30ти дней 1-2 дня сайт недоступен, то мы можем терять часть прибыли с него.

В сервиса Яндекс.Вебмастер можно отслеживать статистику запросов робота и наличие ошибок при соединении с сервером сайта.

Доступность сайта также можно отслеживать с помощью сервиса ping-admin, который часто делает запросы к сайту и можно видеть детальную статистику о работе сайта. К тому же, если не изменяет память, в нем можно реализовать оповещение о недоступности сайта на мобильный номер;

Дубликаты страниц. Один из важнейших моментов, когда один и тот же контент доступен по разным адресам. Обязательно нужно проверять сайт на ошибки данного характера. Вы можете и не создавать такие страницы сами. Но они могут создаваться автоматически различными лишними ссылками движка, если неправильно настроена оптимизация сайта.На движке WordPress это могут быть ссылки "Ответить" в комментариях. Часто появляются дубли страниц комментариев. Чтобы таких страниц не было, всегда старайтесь избавиться от лишних и ненужных ссылок с сайта, которые могут посодействовать появлению дублей страниц; Ошибки отклика от сервера. Ошибка связана со слабым хостингом или его слабым тарифом, когда сервер не справляется с нагрузкой на сайт и ресурс становится недоступным. По началу, когда сайт только создался, эта проблема не будет заметна, так как нагрузки на него не будет.Но, когда в один момент на сайт будут заходить сразу 100 человек, то сервер просто не выдержит, страницы не будут грузиться и посетители на сайт не зайдут. В данном случае мы обращаемся к хостингу и повышаем тариф. Если ресурс сильно посещаем, то придется переезжать на выделенный сервер; Наличие ошибок 404, 50*.

На вашем ресурсе не должно быть ошибок, которые отдают ответ сервера 404, когда страницы не существует или же различные ошибки 501, 502 и так далее, когда страницы не грузятся из-за большего времени ожидания или же из-за ее недоступности в данный момент времени.

Такие документы обязательно анализируем и устраняем проблемы;

Циклические ссылки. На сайте не должно быть ссылок страниц, которые ведут на самих себя. То есть, если я сейчас нахожусь на странице "Об авторе", то на данной странице я не должен иметь возможности перейти на эту же страницу. Можете посмотреть в моем главном меню.Тоже самое касается и ссылок в тексте. У многих внутри статьи имеется кликабельный заголовок статьи, являющийся ссылкой на эту же страницу. Также часто внутри статьи используют изображения, которые тоже являются ссылкой на данный материал. Такие ссылки называются циклическими и их не должно быть; Глубина сайта не больше 2х, в редких случаях 3. Старайтесь, чтобы глубина вложенности ресурса была максимум 2го. То есть, главная страница - 0 уровень, рубрика - 1й, статья - 2й.Могут быть еще и подрубрики, тогда глубина сайта будет 3. Это также допустимо, но старайтесь не использовать глубину 3го уровня, так как это затрудняет индексирование таких страниц поисковым роботам; Наличие страниц с низкой скоростью загрузки. Выявляем такие страницы и анализируем на причины низкой скорости. Это могут быть не оптимизированные изображения большого размера, ошибки в коде страницы и так далее.Если не знаете, как ускорить загрузку сайта , то прочтите материал по предыдущей ссылке; 30% контента в соотношении к коду страницы. В большинстве случаев, веб-мастера использую такие навороченные шаблоны, в которых куча ненужного кода или его просто слишком много.  таком обилии кода контент просто теряется и это плохо с точки зрения технической оптимизации.Стараемся придерживаться минимум в 30% контента из всех 100% исходного кода страницы. Если добьетесь показателя в 50%-60%, то вообще супер; Наличие непроиндексированных страниц. Обязательно проверяем их на причины отсутствия в индексе, так как на них могут быть технические ошибки. Также это могут быть страницы с низким качеством контента или вообще копипаст, который рано или поздно может выпасть из индекса. к содержанию ↑

SEO ошибки

95% страниц, загруженных роботом, должны находится в индексе. Частый случай, когда много страниц были загружены роботом, но в поисковый индекс не попали. Стоит находить такие страницы и анализировать их.Причиной может быть сам контент, наличие ошибок на странице. Такая проблема случается и со старыми страницами сайта, которую уже кучу раз скопировали на другие ресурсы, она потеряла свою уникальность и выпала из индекса. Можно переписать текст. Много вы от этого не потеряете, но зато будет полноценная индексация проекта; Обязательное должен присутствовать файл robots.txt, в котором прописаны директивы для всех поисковых роботом (яндекс, google, mail, а также рекламные роботы адсена и яндекс директа).

Если у вас ресурс на движке WordPress, то настоятельно рекомендую проштудировать мой материал про файл robots.txt для WordPress ;

Обязательно наличие карты сайта Sitemap.xml для поисковых роботов, а также рекомендуемое наличие html карты для людей.HTML карта должна быть открыта для индексации на всех страницах сайта; Отсутствие заголовков и подзаголовков. На каждой странице сайта должен быть заголовок H1 и подзаголовки (хотя бы H2). Если таких заголовков нет, то переделывайте страницы, так как это спорный момент. Что это за страница, если на ней нет заголовков? H1 должен быть в обязательном порядке и содержать в себе название страницы. А H2-H6 используются для структурирования контента; Переспам страницы тегом strong. В своих статьях я уже писал, что данный тег стоит использовать лишь для выделения ключевых мыслей статьи для акцентирования на них внимания посетителей. Можно сделать вывод, что много данного тега на странице быть не должно, а уж тем боле выделений ключевых слов или отдельных фраз.Старайтесь употреблять данный тег 1 раз на 2000 символов и выделять лишь целые предложения с ключевыми мыслями. Никаких выделений "для галочки" и употребления более 10 раз на странице; Отсутствие или повторяющиеся мета-теги (title, description, keywords). Даже, если это служебные страницы или рубрики, вы все равно должны прописать к ним все мета-теги.Также должно отсутствовать дублирование мета-тегов, например один и тот же заголовок для разных страниц. Когда такая проблема будет у вас, то в google веб-мастере вы будете получать уведомления об этом в соответствующем разделе;

Исключены нужные страницы в файле robots.txt. Если вы закрываете какие-то страницы в данном файле, то обязательно просматривайте через инструменты веб-мастеров, те ли страницы исключены, так как из индекса могут выпасть нужные страницы.

У меня, например, вот недавно выпала одна статья из индекса, так как в файле роботса было прописано правило, которое содержало слово, содержащееся в URL адресе статьи. Повезло, что я быстро среагировал на данную проблему и изменил свой файл.

Выявление внешних ссылок с сайта. Также распространенная ошибка, когда с сайта ведет большое количество ссылок на другие сайты, а тем более на некачественные ресурсы. Такие ссылки стоит убирать.Еще стоит выявлять внешние линки, чтобы убрать их из шаблона. Если вы используете бесплатную тему, то имеется вероятность, что в него вшиты такие ссылки, ведущие, например, на сайт разработчика. И конечно же, при взломе сайта могут наставить много ссылок внутри материалов; Проверка длины мета-тегов TDK (title, description, keywords). Мало кто соблюдает необходимую дину данных тегов при оптимизации страниц; title - 60-75 символов; description - 160 символов; keywords - длина может быть и большой (относительно) и маленькой. Все зависит от частотности ключа, но не старайтесь впихнуть "как можно больше". Только то, что нужно для конкретной страницы. Отсутствие выделений жирным с помощью тега strong. На каждой странице мы должны делать акцент на ключевых мыслях, чтобы помочь посетителю. Если имеются страницы без таких выделений, то постарайтесь их доработать.Кроме тега strong можно использовать тег em (курсив), который также несет смысловую нагрузку поисковым системам; Совпадение плотности ключевых слов в тегах.Приведу пример. Например, мы используем ключевое слово в теге title, что очень уместно и логично, а затем в самом тексте статьи выделяем эти же ключевые слова в теге strong (или другим смысловым тегом, например em). Это уж явный знак, что мы пытаемся повысить плотностью ключа и акцентировать на нем внимание. Такого делать нельзя; Спам по слову не более 4%. Распространенная ошибка на большинстве сайтов, когда на каждой странице определенное слово имеет показатель плотности более 4%. Во-первых, текст становится менее читаемый и более водянистым. Во-вторых, не за горами вас настигнут санкции за переоптимизацию.Кстати, 4% - это показатель по странице в целом. Сюда берутся в учет слова с рубрик, различных меню и так далее. Если брать показатель по тексту статьи, то это не более 3%.Показатель плотности слов по тексту я обычно проверяю с помощью онлайн сервиса от Advego по данной ссылке . Переходим, вводим весь текст в поле и проверяем. В пример беру данную статью.

Как видите, максимальная плотностью слова составляет 3.01 процента. Это можно учесть за норму. Если бы было в пределах 3.5, тогда пришлось бы форматировать текст.

Конечно же это не полный список ошибок, который можно анализировать. Но я перечислил те, которые необходимо проверить в первую очередь.

В комментариях отпишите, пожалуйста, какие ошибки вашего ресурса вы уже можете назвать без проверки. Такие имеются?

Статьи про ошибки оптимизации сайта и ошибки в продвижении я буду продолжать писать и на очереди статья про аудит сайта на ошибки, в которой я покажу, как проанализировать все недочеты проекта с помощью онлайн сервиса.

На этом я прощаюсь и в заключение даю видео по теме.

Пока.

С уважением, Константин Хмелев!

P.S. Не забываем оценивать материал с помощью звездочек ниже, а также своими комментариями. Ну и социальные кнопки само собой)

rss