Основы СЕО оптимизации, - Дмитрий Лео

2016

Важность анкоров

Основой интернета являются ссылки, по которым можно переходить со страницы на другую страницу, с сайта на другой сайт. Работа поискового робота Яндекса основана на переходах по ссылкам
и анализе этих ссылок. Почти все известные Яндексу документы попали в поисковую базу благодаря переходам робота по ссылкам, и только некоторые были добавлены в базу веб-мастерами вручную через форму «Сообщить о новом сайте». Если на вашем сайте есть документы,на которые не ссылаются другие страницы, робот Яндекса никогда не узнает про их существование, и они не будут учитываться при поиске. Поэтому важно следить за тем, как страницы вашего сайта связаны друг с другом.

Вывод: Названию анкоров стоит уделять на сайте само больше внимания и важна правильная перелинковка на сайте.

PR страницы

PR страницы, это главный фактор определяющий будет она в выдаче или нет. Чем выше PR тем больше шанса на ее выдачу.

Нельзя ничего менять на популярных страницах сайта. Просто оставлять их нетронутыми даже если они не вписываются в новый дизайн сайта. Делаются похожие страницы в той же теме в правильном дизайне и на них с нее делается 1-2 ссылки и ждем. Когда новые страницы поднимутся и получат высокий PR, тогда можно заменить ту страницу на обновленную и сделать 301 Редирект.

Правило для страниц с одинаковым контентом.
- уникальный url титл и описание
- link rel="canonical", у той страницы, которая имеет больше PR.

Рекомендации вебмастерам от гугл

Описание изображений alt должны быть короткими. Не нужно предложения туда вписывать.

URL должны быть в транслите и не длинными, длинные могут игнорироваться роботом яндекса.

Убедитесь, что ваш веб-сервер поддерживает HTTP-заголовок "If-Modified-Since". Этот заголовок позволит веб-серверу сообщать Google, изменился ли контент сайта со времени последнего сканирования. Поддержка данной функции сократит нагрузку на пропускную способность и издержки.

Примите соответствующие меры, чтобы не допустить влияния рекламы на рейтинг вашего сайта в поисковых системах. Например, следует запретить сканирование объявлений Google AdSense и ссылок DoubleClick, указав их в файле robots.txt.

Clean param. Нужен для указания поисковым роботам, какие cgi-параметры в адресе страницы следует считать незначащими. Иногда адреса страниц содержат идентификаторы сессий – формально страницы с разными идентификаторами различаются, однако их содержимое при этом одинаково. Если таких страниц
на сайте много, индексирующий робот может начать индексировать такие страницы, вместо того чтобы скачивать полезное содержимое. В соответствующем разделе помощи можно прочитать подробнее об использовании директивы clean param.

Не нужно использовать страницы недоступные пользователям на сайте просто закрывая их от робота. Это нагружает паука и он может что-то важное не проиндексировать. Также это нагружает сам сайт, потому что обращение к ним все равно будут. Лучше удалить их сайта все не нужное или по другому решить проблему с непубличными страницами на сервере. Итак, меньше всего закрыть спец страниц и технических директорий от гугл, лучше это вообще удалить или по другому сделать. Мет вообще не советует закрывать страницы в робот текст и даже в мета теге использовать это крайне редко. Лучше избавиться от ненужного, чем замусоривать сайт.

Не советуем: предоставлять одну и ту же страницу в корневом каталоге и в субдомене (например “domain.com/page.htm” и “sub.domain.com/page.htm”) и
использовать ненужные заглавные буквы в URL (пользователи привыкли к строчным буквам в URL и лучше их запоминают).

Используйте навигационные цепочки для большего удобства пользователей.
Навигационная цепочка (так называемые “хлебные крошки”) – это цепочка внутренних ссылок в верхней или нижней части страницы. Она помогает пользователю быстро переходить к предыдущему разделу или корневой папке (1). В большинстве навигационных цепочек ссылка на корневую папку (или стартовую страницу) идет первой, далее слева направо идут целевые директории.

Предусмотрите возможность удаления части URL
Учитывайте те случаи, когда пользователь вводит неправильный URL. Многие пользователи могут непредвиденно перемещаться по сайту, и это стоит принимать во внимание.

Google не рекомендует блокировать доступ поисковых роботов к повторяющемуся контенту с помощью файла robots.txt или иных способов. Если поисковые системы не имеют возможности сканировать страницы с повторяющимся контентом, то они не смогут автоматически определять, что разные URL имеют одинаковый контент, и будут обращаться с ними как с уникальными страницами. Наилучший выход из этого положения – разрешить поисковым системам сканировать все URL, предварительно отметив их как повторяющиеся с помощью элемента link rel="canonical", функции обработки параметров URL или переадресации 301.

Если вы переопределили поведение сервера для несуществующих URL, убедитесь, что сервер возвращает код ошибки 404. Получив код ответа 404, поисковая система удалит данный документ из индекса. Следите, чтобы все нужные страницы сайта отдавали код 200 OK.

Мет говорит о теге nofollow

У гугл возникает подозрение, если вы ставите ссылки с разных страниц с нофолоу на какую-то страницу. Если она такая важная, зачем вы ее прячете от поисковика. Лучше ограничить до минимума ссылки на сайте с нофолоу. Это не инструмент для СЕО это параметр для закрытия спамных ссылок в комментариях и на форумах.

Нет смысла и выгоды в nofollow.
Ссылка с nofollow - внутри своего сайта передает PR вес дальше туда куда ведет ссылка (образно: 100% - 25% = 75% осталось на странице а 25% ушло в пользу другой страницы, и робот туда не идет).

Когда ссылка ведет на внешний сайт, тогда вес вычитается с этой страницы, но не передает вес другому сайту. (100% - 25% = 75% осталось на странице а 25% потерялось, и робот туда не идет).

Больше

Прежде всего, вы должны обратить внимание на правильное создание страниц сайта, иначе, потом будет сложно оптимизировать их. Хорошая статья о том, как создать и расширить семантическое ядро сайта избавит вас от многих ошибок в структуре сайта..Статья SEO и поисковая оптимизация сайтов поможет вам правильно оптимизировать ваш сайт, чтобы его "полюбили" поисковики.

X