Система учета низкочастотных запросов.
Встал перед вопрос поднятия действительно большого количества НЧ запросов и соответственно выведения их в топ. Имеются в виду продающие НЧ запросы, а не просто мусор который дает некачественный трафик.
Собственно вопрос: как учитывать страницы с нч запросами и как автоматизировать весь процесс. Совсем не хочется долбить по площадям. Возможно у дорвейщиков есть подобный софт?
ЗЫ
У меня температура и мысли путаются, возможно я не корректно или не полно раскрыл суть вопроса. Спрашивайте я отвечу.
Похожие темы
Разделы форума
- Привлечение посетителей
- Интернет-магазины и корпоративные сайты
- Контент-проекты и сообщества
- Монетизация сайтов
- Реальные примеры, истории успеха
- Футурология и тренды
- Юридические и финансовые вопросы
- Тестирование сайтов, советы
- Технические вопросы
- Технические аспекты SEO
- Хостинг
- Реклама компаний и сервисов
- Объявления фрилансеров
- Работа, поиск исполнителей
- Сайты ищут рекламодателей
- Об этом сайте
Теги к теме Система учета низкочастотных запросов.
Вопрос в том, как автоматически собрать много качественных НЧ и автоматически подобрать под них подходящие страницы сайта?
Не. тут глубже.
Суть в том что Все нч я соберу руками. Страницы тоже создам. 1 запрос одна страница.
Действительно я не раскрыл тему...
Дело в том, что посетители сайта сами рожают уникальный и качественный контент по теме. Они задают вопросы, наши спецы на них отвечают. Результат этого общения прогоняется через оптимизатора. Получаем много-много страниц на сайте.
Сейчас мы столкнулись с конкуренцией страниц внутри сайта. Т.е. часто в топ выходит не то что нужно. И нужно же как-то использовать те страницы которые в топ по запросу не попадут из за наличия более сильной страницы. Поэтому была мысль усилить их за счет проставленных ссылок на продвигаемую, более сильную страницу. Так мы и конкуренцию прибьем в зародыше и покажем ПС какая страница более значимая.
В общем хаос. Много контента, а он лежит мертвым грузом. Где-то что-то перелинковывается, но без системно. Просто плодить его дальше и полагаться на "авось и вылезет в топ" не хочется.
ЗЫ
А если призвать дух Сноб"а?
Думаю вот кто спец в подобных вопросах.
1. Смотрим поисковые запросы, по которым приходят посетители на страницы.
2. Определяем позиции страниц по этим поисковым запросам.
3. Если мы знаем, что данная страница не релевантна данному запросу, то подбираем релевантную.
4. Ставим дополнительные внутренние ссылки. Т.е. грубо говоря, если на 1 запрос есть 10 претендентов, то 9 из них ссылаются на десятого, отдавая ему вес.
5. Уровень релевантности и веса страниц определяем по яндексу, делая запрос с ключом и поиском в рамках только Вашего сайта. Т.е. Вы получите выдачу внутри своего сайта по данному запросу. Соответственно перераспределяем между ними вес, так как нужно, в сторону релевантной с точки зрения пользователя странице.
6. Дотягиваем запросы, которые ещё не в топе до первых мест. Дело в том, что бывают ситуации, когда запрос сидит на 9 месте, и его можно только внутренними ссылками дотянуть до 1. Именно поэтому, нужно брать весь НЧ хвост и проверять на позиции. Если топ 3, то ок, если что-то уже за пределами топ5, то стоит поработать в сторону увеличения веса этих страниц.
7. Раскачивать так называемые точки входа можно при помощи страниц, которые не дают трафика, для того, чтобы не терять вес на важных страницах.
8. С точки зрения оформления, сделайте просто блок: "читайте также" и им перелинковывайте. Это значительно проще, чем перелинковка из текста.
9. Что касается дорвейщиков и т.п., то у меня подобная схема работает с сайтами для взрослых. Система определяет ключи, по которым приходят пользователи, определяет позицию в ПС. А затем на страницах, на которых не было зафиксировано посещений, но которые в индексе, проставляются ссылки на эти страницы. Тем самым, я имею сайты, по 1000 страниц, которые в течение 1-2 месяцев самостоятельно настраиваются и выявляют релевантные страницы. Обычно их около 20 штук. Соответственно они начинают давать основную часть трафика. Подобных систем в паблике не видел, пишите под заказ. Если число страниц большое, трафик можно увеличить раз в 10, проверено.
Сейчас страниц около 11к. С каждым днем количество растет. Насчет увеличения трафа на порядок не уверен, максимум раз в 5, но для меня и это будет огромная победа.
У вас система сама работает без вашего участия и контроля? Т.е. ориентируется на то, что яндекс считает релевантным и просто усиливает за счет внутренних ссылок которые проставляет автономно на основании данных ей правил?
А как она считает какая страница к какому запросу относится? А если она эффективна по нескольким запросам, и содержит в себе ключи для третьего запроса. В какую группу ее отнесет система? Реципиенты или доноры?
По пункту 6: Вторая проверка тоже делается руками или все-же система проверяет топ сама и если результат не достигнут (топ 3-5) то проставляет еще ссылок?
А если их брать неоткуда? Ну нет больше страниц с нужным нам "точным вхождением"?
Если систему сделать как топку паравоза которой нужно скармливать уголь (новый контент) она будет значительно эффективнее работать.
Я почему то не думал про точки входа...
Сейчас вот посмотрел и получил около 100 точек с ежедневным трафиком, и около 4000к с эпизодическим.
В эпизодическом больше 80% мусора.
На чем работает ваша система, php?
ЗЫ
Видимо действительно придется писать самому.
да, совершенно верно.
главный показатель - объём трафа, что идёт на страницу. Если траф есть, значит страница важная. Ссылки на эту страницу могут проставляться не только в виде поисковых запросов, но и в виде тайтла. Т.е. если на странице есть траф, то на неё будут ссылки. Как они будут оформлены - зависит от настроек.
руками не делается совершенно ничего. Всё на автомате.
Да, исключительно. Потому как кроме него ни на чём не пишу, да и его знаю всего как год =).
P.S. сейчас готовлю скрипт бесплатный для перелинковки на базе своих алгоритмов, как подготовлю, сообщу на форуме.
Вы прогу писали сами? Есть какие-то наброски правил для перелинковки и разделения страниц кто донор а кто реципиент?
У меня пока на бумаге получается более 20 правил и фильтров. Что-то много мне кажется. Но отказаться даже от одного не получается.
да, сам.
Схема работы по шагам:
1. Вводим минимальный порог трафика на страницу. Если этот порог не достигается - страница является донором. При указании периода времени, за который собирается статистика. После этого мы получаем на выходе число страниц-доноров и акцепторов. Есть возможность скормить акцептора вручную.
2. Указываем число ссылок со страницы донора. После этого мы видим какое число ссылок на страницах доноров у нас свободно.
3. После того, как мы определились с донорами и акцепторами, мы определяем ключевые слова, по которым заходят на страницы.
4. По данным запросам мы проверяем позицию в Yandex и проверяем, чтобы страница в выдаче соответствовала странице, которую мы собираемся продвигать. Бывают ситуации, что страница уже другая(когда есть несколько конкурирующих по релевантности страниц). Если другая, берём ту, что идёт в поиске. Главная страница отсекается из перелинковки сразу.
5. Настройки позволяют устанавливать границу позиций, которые нас интересуют. Т.е. например топ3, топ5 и т.д. Это те показатели, которых нужно добиться. Глубина парсинга реальных позиций устанавливается вручную (обычно до 40).
6. После того как мы определили страницу, ключ, позицию, мы идём в яндекс и делаем по этому запросу поиск по сайту, получая список релевантных страниц. Если на страницу идут по нескольким запросам, то определяем релевантные страницы по всем запросам, а потом совмещаем данные, выбирая наиболее часто встретившиеся в выдаче (глубина выдачи также регулируется, у меня это 25). Т.е. например по 5 запросам собрали выдачу, совпадение по страницам получили, страницы с максимальным совпадением записали.
7. Теперь у нас есть не только страница, её позиция, но и список релевантных страниц. Я выбираю не более 25 доноров для каждого акцептора.
8. Затем происходит первое равномерное проставление ссылок на донорах. Период и число проставления ссылок варьируется. Это может быть по 20 ссылок в неделю в том случае, если не достигнут результат, который мы задаём (топ 3, топ 5).
9. Бывают ситуации, когда есть страницы-маньяки, которые сжирают всё место на донорах. Т.е. они не могут вылезти в топ и каждую неделю хватают новые ссылки. Проставление ссылок на таких акцепторов приходится останавливать вручную или полностью удалять все ссылки на него. Но это можно решить программно, указав снимать ссылки в том случае, если страница не попадает в топ за какой-то период.
10. Бывают ситуации, когда страниц не хватает. В таком случае система останавливается и ждёт новых страниц.
11. В зависимости от настроек система проставляет ссылки нескольких типов:
- ключевые слова, по которым приходят посетители (порой выглядят очень убого)
- просто тайтлы этих страниц
- перечисление слов из ключевого запроса в именительном падеже (создаётся при помощи phpMorphy)
- комбинированный метод, использует в % соотношении различные методы
Вроде бы всё, если что-то упустил, спрашивайте.
P.S. если сильно заморочиться, то число проставляемых ссылок на страницу можно привязать к сумме показов по wordstat данного запроса. Однако это не всегда адекватно, т.к. число показов не является отражением конкуренции по данному запросу.