21st
Nov

Все знают, что Joomla полное говно, но сеошить такие сайты иногда приходится, для этого необходимо редактировать title для каждой страницы.

Итак, поехали:

  • Качаем архив
  • В верхнем меню "Расширения" - "Установить/удалить" - загружаем архив
  • Заходим в "Расширения" - "Менеджер плагинов" - "System - Tag Meta" - включаем
Все, теперь в вкладке "Компоненты" - "Tag Meta" - "Items" можем добавить страницу, для которой надо поменять мета-теги. Для этого нужно указать адрес страницы от корня, например "/contact", для страницы "http://www.сайт.ru/contact"

Радуемся жизни! И ставим ссылочки на этот блог :)

» подробнее
19th
Oct

Робот Яндекса учитывает содержание следующих тегов:
<meta content="..." name="Keywords" /> &mdash; может учитываться при определении соответствия страницы поисковым запросам,
<meta content="..." name="Description" /> &mdash; содержание данного тега может использоваться в сниппетах (описаниях сайтов на странице результатов поиска),
<meta content="N;url=_адрес цели перенаправления_" http-equiv="refresh" /> &mdash; перенаправление (редирект) пользователя на страницу с адресом url, после N секунд нахождения на данной странице. При небольших значениях N считается временным перенаправлением, аналогичным серверным редиректам с HTTP-кодом 302/303/307.

Также робот Яндекса учитывает указания в тегах:
<meta content="all" name="robots" /> &mdash; разрешено индексировать текст и ссылки на странице, аналогично <meta content="index, follow" name="robots" />
<meta content="noindex" name="robots" /> &mdash; не индексировать текст страницы,
<meta content="nofollow" name="robots" /> &mdash; не переходить по ссылкам на странице и не индексировать их,
<meta content="none" name="robots" /> &mdash; запрещено индексировать и текст, и ссылки на странице, аналогично <meta content="noindex, nofollow" name="robots" />
<meta content="noarchive" name="robots" /> &mdash; не показывать ссылку на сохраненную копию на странице результатов поиска.

Робот не узнает о документах, если ссылки на них стоят со страницы, содержащей мета-тег со значением nofollow, тем не менее, они могут быть проиндексированы, если где-либо еще на них указаны ссылки без nofollow.

Если мета-теги не указаны, по умолчанию они имеют положительное значение (index, follow, archive). В случаях конфликтов между тегами робот делает выбор в пользу значения по умолчанию.

Тег <noindex>
Для запрета индексирования служебных участков текста вы можете использовать тег <noindex>. Тег работает аналогично мета-тегу noindex, но распространяется только на контент, заключенный внутри тега в формате:
<noindex>текст, индексирование которого нужно запретить</noindex>

Атрибут rel="nofollow" тега <a>
Атрибут rel="nofollow" используется в теге <a> в формате:
<a href="url" rel="nofollow">текст ссылки</a>
Атрибут работает аналогично мета-тегу со значением nofollow, но распространяется только на ссылку, для которой указан.
Очень полезно, когда нужно сохранить вес сайта перед поисковыми системами, когда ставишь внешние ссылки :)

» подробнее
28th
Sep

Если сайт для людей, то вероятность будет более высокой, что ссылка на нем проживет дольше и будет рабочей. Но это все только в теории. На практике роботы ПС (поискоыве системы) не оценивают красоту дизайна и удобство пользования. Но в последнее время много ГС (говносайтов) вылетает из индекса, из этого можно сделать вывод, что ссылка с ГС будет не надежной.

Методика определения структуры url. В его основу входит исключение всех страниц, которые потенциально содержат ссылки с форумов, профиля пользователя, страниц обмена ссылками, а также страниц без собственного контента. У людей, практикующих данный метод, есть подборка конструкций в url, которые нужно избегать и методика, которая позволяет отбрасывать таких доноров автоматически.

Метод тестовой закупки. Отбираются легкие запросы, например трехсловные низкоконкурентные запросы. На тестируемых площадках закупаются ссылки с этими анкорами, ведущие на нашу проверяемую страничку. После этого ожидаем очередного ссылочного апдейта. Сразу после ссылочного апдейта проверяем тестовые позиции. Те доноры, запросы-ссылки которых попали в ТОП10 из 30-100 признаются рабочими и добавляются в "Избранное". Остальные отправляются в черный список. Это самый лучший метод, но он требует установки только одной ссылки на конкретно продвигаемую страницы. Зато на выходе вы болучите белую базу сайтов для покупки ссылок. Разумеется, такого рода тесты можно проводить и с сайтами заказчиков, например ;)

Размещение ссылок с морд. 

Ссылка с морды работает намного эффективнее ссылки с внутренней страницы. По этому и стоимость на порядок выше. Самое главное, при покупки ссылок (это касается и морд и внутренних) это смотреть на число внешних ссылок. Если их много, то толку от такой ссылки будет меньше. Лично я стараюсь не покупать ссылки со страниц, у которых внешних ссылок больше 6-8 шт.

  • Высокий тИЦ - это не главное. Главный показатель эффективности морды - это совокупность тех ресурсов, которые ссылаются на нее, а не исскуственно нагнаный тИЦ. Тем более что на данный момент существую скрипты, которые умеют обманывать поискового робота Яндекса.
  • Высокий PR - тоже не показатель, но я считаю что более правильный чем тИЦ. PR определяет вес конкретной страницы, в отиличии от тИЦа. PR может быть нагнан сквозняками, может быть получен ссылками с не русскоязычных ресурсов – это надо проверять. Кроме того, тулбарный показатель PR тоже мало что говорит. Проблема в том, что PR 4 может быть ближе к 5, а может быть ближе к 3 и вес такой морды будет различаться в несколько раз.
  • Лучше купить дорогую ссылку с высоким PR, чем много но с маленьким.
  • Покупка дорогих ссылок. Проверьте позиции сайтов по тем анкорам, с которых у них стоят ссылки. И проанализировав все ссылки, вы сможете сделать довольно точные выводы об эффективности этой морды.
  • Для самых высококонкурентных запросов выбираются самые сильные морды и в анкоре ставится точный интересующий вас запрос. Это тоже важно, вес, передаваемый с ссылкой, делится (условно) поровну по числу слов, которые стоят в анкоре, и если вы ставите еще 2 «левых» слова с 2 основными, то вы просто уменьшаете эффективность этой ссылки в два раза.
» подробнее
5th
Sep

Одной из главных ошибок оптимизаторов является продвижение сайтов, которые индексируются без www.

Например, у вас задача продвинуть сайт, а в Гугле он например индексируется с www, а в Яндексе нет. В таком случае, можно очень долго покупать ссылки на сайт с www."название сайта" и особых результатов не будет, пока Яндекс не поймет, что надо сайт индексировать с www.

Самый простой способ решения этой проблемы, это прописать в корневой файл .htaccess код:
RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\..*\.ru$
RewriteRule ^(.*)$ http://www.%{HTTP_HOST}/$1 [R=301,L]

Еще один способ, записать в хеде:
<head>
<base href="http://www.*название сайта*/">
</head>

» подробнее