Кейс автоматизированного создания сайтов под CPA

В данном кейсе речь автор ведет речь об автоматизированном методе создания сайтов под товарные CPA партнерки. Вы научитесь делать свои рабочие сетки сайтов, которые будут давать вам доход достаточно продолжительное время.

Для старта вам понадобится:

  • VDS – стоит 400-500р в месяц.
  • Программа RDS API – для анализа списков освобожденных доменов (десктопная версия RDS)
  • Софт для подбора ключей (я пользуюсь KeyCollector, но подойдет любой бесплатный аналог: мутаген, словоеб)
  • Софт для генерации сайтов (идет в комплекте)
  • Софт для добавления сайтов в индекс (идет в комплекте)
  • Софт для сбора списков освобожденных доменов (идет в комплекте)
  • Любой редактор кода (я пользуюсь Sublime Text 2)

Начинать автор советует не меньше, чем с 3 пачек, в идеале под 3 разных оффера и суммарно не меньше чем с 20 сайтов (по 5-7 в каждой пачке). Это нужно как для понимания процесса, так и для уверенности, что выстрелит достаточное количество для нормального заработка в сети интернет.

По затратам на пачку из 20 сайтов выйдет в районе 3000р, из которых 400-500р – затраты на VDS, используемый в дальнейшем и для последующих сайтов.

Схема создания сайтов под CPA

Работать мы будем с CPA по китайским товарам. Привожу список партнерок, офферы которых 100% подходят для схемы:

  • cpagetti.com
  • kma.biz
  • shakes.pro

Данные CPA партнерки не только идеально подходят для монетизации наших сайтов, но и предоставляют пакет заготовок для каждого оффера: готовые лендинги, которые мы будем брать за основу при создании шаблонов, и тексты, которые мы будем синонимизировать и размножать софтом.

Пример лендинга по офферу «Монастырский чай от алкоголизма» http://ml.monasterytea.com

Тем самым, решается проблема как с шаблонами, так и с заготовкой для контента. Шаблоны в данных партнерках дают высокую конверсию сами по себе, т.к. на них напрямую льет огромное количество вебмастеров и арбитражников, и тем самым создается обширная статистика для анализа эффективности лендингов в партнерках.

Мы же, используя данные лендинги, как есть, также получаем высокий процент заявок с нашего трафа.

В качестве семантики для сайтов мы используем вариации ключей по самому офферу. Например, по офферу «Монастырский Чай», собираем аналогичные ключи.

Под каждый ключ затачиваем (автоматически) каждую страницу на каждом сайте. Как вы можете заметить, большинство запросов в приведенном выше примере – продающие: люди ищут с целью либо заказа товара, либо чтобы почитать информацию о товаре (тоже хотят заказать, но еще сомневаются). Таким образом, трафик идет весьма целевой, что также положительным образом отображается на конверсии.

В итоге получаются вот такие сайтики, созданные автоматом: http://india-jewels.ru

Сайты многостраничные. Каждая страница оптимизирована под 1 ключ. Перелинковка между страницами реализована с помощью HTML карты сайта. В данном примере ключи взяты по городам и карта сайта замаскирована под выбор города.

Также я делал сайты по ключам – в карте на таких сайтах уже обычные поисковые запросы.

Итак, надеюсь, теперь вам стало более или менее понятно, какие сайты получаются. Теперь разберем как делать такие сайты самим, загонять их в индекс и получать трафик.

Как выбрать оффер

Итак, вы уже поняли, что мы будем генерировать каждую пачку сайтов под конкретный товарный оффер. Рассмотрим весь процесс на примере партнерки cpagetti.com

Весь список доступных офферов находится на странице «Программы»: http://cpagetti.com/offer/default

В общей таблице видно географию каждого оффера по странам и показатель EPC (сколько в среднем приносит 1 уникальный посетитель).

Для начала нужно выбрать несколько офферов для более детальной оценки. Здесь все просто: чем выше EPC – тем лучше, чем больше стран принимается – тем лучше.

Поскольку трафик мы будем получать поисковый, также необходимо проверить, как часто ищут по названию оффера в яндексе. Для этого идем в вордстат (wordstat.yandex.ru) и вбиваем название оффера без кавычек:

Отлично, сколько трафика было по офферу в прошлом месяце, мы узнали. Однако этих данных для анализа нам недостаточно. Офферы достаточно быстро теряют спрос и заявки по ним идут на спад со временем. Пока мы сделаем сайты и загоним их в индекс, пройдет 1-1,5 месяца (до полной индексации и выхода на максимальный доход). За это время тенденция по офферу может пойти на спад, поэтому динамику нужно прогнозировать наперед.

Сделать это можно все в том же вордстате на вкладке «История запросов».

Просто смотрите по графику, идет ли трафик на спад за последние 2 месяца или показывает положительную динамику. В данном примере по офферу «Жидкий каштан» трафик растет, но уже не такими высокими темпами, как раньше.

Также учтите при анализе истории запроса, что последний месяц показывается предыдущий и данные, таким образом, устаревшие на 1-1,5 месяца.

Другой пример: оффер «Монастырский чай».

Как видим, по нему динамика трафика идет на спад, и сейчас работать с этим оффером уже поздно.

Таким образом, оффер не должен быть слишком новым – по нему просто не будут искать в яндексе. Для начала на оффер должны полить трафик арбитражники с непоисковых источников трафика (тизерные сети, контекст, таргетки соц сетей и т.д.). После чего оффер примелькается в интернете и по нему станут искать уже в поиске. С другой стороны, оффер не должен быть старым, т.к. он уже достаточно выжат и много подтвержденных заявок по нему вы не получите.

Проведя такую небольшую аналитику, вы должны выбрать 3-4 подходящих оффера. Напоминаю, что для уверенного старта

начинать я советую не меньше, чем с 3 пачек сайтов по 3 разным офферам.

Подбор ключей

Сайты я делал двух типов: по городам и по ключам. В самом начале кейса я приводил примеры карт сайта на скринах, где и были видны ключи по обоим схемам. Разберем детальнее, где и как собрать такие ключи.

Ключи по офферу

Процесс подбора ключей по названию оффера сводится к парсингу вордстата с учетом минусслов. Расскажу, как это делаю я с помощью кейколлектора. Если у вас нет кейколлектора, можете использовать любые другие бесплатные аналоги: сервис мутаген, программа словоеб (парсит вордстат) и словодер (парсит поисковые подсказки), или любая другая программа для парсинга wordstat и поисковых подсказок.

Итак, вбиваем основной ключ в вордстат в кейколлекторе. Он же – название нашего оффера.

И жмем «Начать сбор».

После того как ключи соберутся, определяем частотности.

И жмем «Получить данные».

В итоге у вас будет таблица с ключами и частотой показов. Сразу удаляем все ключи, у которых точная частотность «!» равна нулю. Для этого делаем фильтрацию в колонке «Частотность «!»». Кликаем на синюю иконку.

Появится окно с фильтром. Выбираем «больше или равно» > «1» и жмем «Применить».

Теперь полученный список нужно отфильтровать по стоп словам. Сразу скажу, что большинство ключей, даже набираемых не с целью заказа (со словами «заказать», «купить», «цена», «отзывы»), конвертятся достаточно хорошо и дают заявки. Но иногда по разным офферам встречаются совсем неподходящие по смыслу фразы.

Чтобы их удалить, просмотрите бегло весь список фраз (обычно их не больше 500-800) вручную и запомните, какие слова встречаются в неподходящих ключах. Если ключей с такими словами немного, их можно достаточно быстро удалить руками. Если, наоборот, много, то можно воспользоваться фильтрацией по фразам.

Также для получения большего списка ключей можно собрать поисковые подсказки с яндекса.

Делаем новую группу (окно справа).

Прежде чем парсить подсказки, нужно настроить глубину их поиска. Заходим в настройки.

Здесь выбираем вкладку «Подсказки» и в значение поля «Глубина парсинга» ставим «2».

Также убедитесь, что включена галка «Собирать только ТОП подсказок без перебора…».

Теперь кликаем на созданную группу – откроется новая пустая вкладка. Жмем иконку сбора поисковых подсказок.

Включаем галку «Не добавлять фразу, если она уже есть в любой другой группе», чтобы потом не было дублей ключей. Выбираем парсить с Yandex. В поле фраз вводим наш основной ключ по названию оффера.

После сбора фраз делаем то же самое, что и при парсинге вордстата: снимаем частотности, убираем неподходящие по смыслу фразы и фразы, где частотность «!» равна нулю.

Сбор ключей с сайтов конкурентов

Пару слов о том, как расширить ваше семантическое ядро за счет сайтов конкурентов.

Для начала нужно найти такие сайты. Если оффер относительно старый, то обычно можно найти несколько уже существующих многостраничных сайтов в сети. Просто вбиваете в яндексе или гугле последовательно ваши ключи, которые вы напарсили с вордстата и в выдаче ищете такие сайты.

После чего, смотрите, есть ли на сайте XML карта сайта. Я смотрю с помощью плагина RDS bar для Chrome (есть также для Firefox).

Если карта есть – жмем «Да» рядом с надписью Sitemap – откроется ссылка на карту сайта.

К кейсу идет скрипт для парсинга тайтлов с XML карт сайта. Указываете ссылку на карту и получите список тайтлов всех страниц. Поскольку тайтлы чаще всего состоят из ключей – у вас будут все ключи конкурента.

После данных манипуляций я советую объединить ваши базы (с вордстата, поисковых подсказок, базу ключей конкурентов) в одну и почистить на дубли. Для этих целей я пользуюсь программой KeyWordKeeper.

В программе выбираем функцию «Удаление повторов», в папку с программой кидаем txt файл с ключами и жмем «Добавить все txt файлы».

И жмем «Удалить». Результат будет в папке с программой, по умолчанию «Output_Repeater».

Ключи по городам

Если по выбранному вами офферу широкое ГЕО и принимаются страны СНГ (Казахстан, Беларусь, Украина), то настоятельно рекомендую помимо ключей делать сайты под запросы по городам. Люди достаточно часто формируют поисковые запросы о покупке товаров в своем городе, генерируя достаточно много платежеспособного трафика по ним.

В данном способе формирования семантического ядра не нужно заморачиваться с подбором ключей. К кейсу идет база городов по странам, которую использую лично. Города выбраны популярные и неконкурентные и идут в родительном падеже, так, как их чаще всего употребляют пользователи в запросах («купить жидкий каштан в гомеле»).

Важно! Настоятельно рекомендую ключи по офферу и по городам не смешивать и не использовать в рамках одного сайта обе базы. Лучше делать по каждому офферу 2 пачки по разным базам: одну – по городам, другую – по ключам оффера. По моему опыту, такие сайты живут дольше.

Регистрация доменов

Сайты делаем на дропах – освободившихся доменах, на которых ранее были размещены сайты. Регистрация доменов происходит в 3 этапа:

  1. Парсим свежий список освобожденных доменов.
  2. Массово определяем параметры дропов и отсеиваем те, которые не подходят нам по определенным критериям.
  3. Непосредственно регистрируем домены.

Парсинг доменов

Для парсинга доменов будем использовать мою авторскую программу RegruDomainFinder. Программа собирает свежий список освобожденных доменов в зоне RU за вчерашнюю дату отсюда https://www.reg.ru/domain/new/freeing_domains Домены я советую использовать именно в зоне ru. С доменами РФ возникает много проблем из-за кириллицы, а SU – дорогие. Рушек в списке более 90%, так что потерь не будет.

Здесь нужно понимать, что дропы регистрируем не только мы, но и другие вебмастера для своих целей. Домены освобождаются со среды по субботу ночью, примерно с 3.00 до 10.00 МСК. В данном промежутке времени нужно периодически мониторить список по ссылке выше и как только домены появляются, запускать программу для сбора.

Обычно достаточно 1 раз «поймать» время освобождения доменов и дальше они будут выкладываться 2-3 недели примерно в то же время. Но при постоянной работе с доменами случаются бессонные ночи, когда вплоть до 10-11 утра списки не обновляются. К этому также нужно быть готовым.

Фильтрация доменов

После того как программа спарсила домены, мы получим список на несколько тысяч дропов. Теперь нужно отфильтровать полученный список рушек по SEO-показателям. Для этого используем программу RDS API. Нужно будет зарегистрироваться по ссылке, скачать десктопное приложение и пополнить баланс на 3-5$ в личном кабинете.

Открываем программу, и первым делом настраиваем отображение нужных нам параметров, а именно:

  • ТИЦ
  • PR главной
  • Индекс яндекса
  • Linkpad In

Переходим на первую вкладку и добавляем список рушек.

Внимание! Прежде чем переходить к следующим шагам, убедитесь, что у вас на балансе есть минимум 2$. Баланс можно посмотреть прямо в программе в самом низу.

Теперь нужно проверить список сайтов на ТИЦ, чтобы отсеять домены под АГС.

Поскольку проверка параметров в программе платная, а домены под АГС мы точно использовать не будем, то их надо исключить из списка. Для этого переходим на 3-ю вкладку и в левое поле «ТИЦ» пишем «0». Таким образом, в таблице останутся только домены с числовыми показателями ТИЦ, а домены под АГС скроются. Жмем «Фильтр».

Теперь нужно чекнуть оставшиеся домены на индексацию в яндексе.

Для данной схемы желательно регать домены с индексом, т.к. они быстрее заходят в индекс и дольше в нем держатся. Индекс, отличный от нуля, также свидетельствует о том, что домен не в бане. По опыту, чем больше индекс – тем дольше сайт просидит в нем (яндекс дольше будет выкидывать старые страницы, одновременно индексируя новые).

Оптимальное значение «Индекс Я» от 10 страниц. Так что дополняем наш фильтр данным значением и жмем «Фильтр».

Оставшийся список необходимо проверить на входящие ссылки (Linkpad In), а затем на PR.

Рекомендую регистрировать домены с количеством входящих ссылок от 10, либо с PR от 1.

В итоге получится список на несколько десятков доменов. Теперь по каждому домену надо бегло посмотреть, какие страницы на нем проиндексированы в яндексе. Для этого кликаем правой кнопкой мыши по домену в таблице и в открывшемся контекстном меню выбираем «Копировать только адрес».

Теперь открываем сайт в браузере и используем плагин RDS бар, чтобы посмотреть проиндексированные страницы.

Либо можно в строке поиска Яндекса напрямую набрать следующую конструкцию: url:www.site.ru* | url: site.ru*

Вместо site.ru пишете домен, который надо проверить.

В выдаче бегло смотрим, какой сайт был размещен раньше на дропе. Настоятельно не рекомендую использовать дропы, на которых были порно сайты, варезы, сайты даунлоад тематик, кино, смс платники и т.п. Все эти тематики монетизируются достаточно жестко и домены могут быть зафильтрованы.

Также при анализе страниц в выдаче обратите внимание, по какому протоколу проиндексированы страницы: http или https. На дропах с https очень плохо индексируются страницы с http, которые будут у вас на ваших сайтах, и регать их я не советую.

Где регистрировать домены для создания сайтов под CPA

Т.к. сайтов мы делаем много, советую регистрировать домены в 2domains.ru. Здесь дают хорошие скидки за опт.

После того как вы отобрали домены, их можно массово проверить на занятость и тут же зарегистрировать свободные.

Советую также всегда держать на балансе рублей 500-600, чтобы не тратить время на пополнение.

Домены можно регистрировать как на свои, так и на «левые» данные, все равно продавать вы их не будете – сайты проживут всего несколько месяцев.

В заключение данной главы хотелось бы подчеркнуть, что весь процесс нужно делать быстро, т.к. кроме вас есть и другие желающие зарегистрировать домены. Для этого нужно:

  1. Следить за балансом в RDS и 2domains, чтобы не тратить время на пополнение.
  2. Как можно быстрее определить, когда выложили домены. Напомню, что домены всегда выкладываются со среды по субботу. Причем, в среду выкладывается список за 3 предыдущих дня (воскресенье, понедельник и вторник). Ваша задача – определить тенденцию, во сколько выкладываются домены, т.к. диапазон может быть разный, примерно с 3 ночи до 10 утра и периодически меняется.
  3. В целом делать все быстро, без перерывов на кофе и перекур.

Когда набьете руку, весь процесс будет занимать не больше 20 минут.

Также, иногда бывают дни, когда освобождается один шлак. Если вас домены не устраивают, лучше не регистрируйте их в этот день – зарегаете завтра или послезавтра. Потратите копейки на анализ параметров в RDS впустую, зато будет уверенность, что домены нашли подходящие.

Выбор заготовки шаблона для создания сайтов под CPA

В качестве дизайна сайтов мы берем готовые лендинги, которые дают партнерки. После того как вы выбрали оффер для работы, переходим на его описание во всех 3 партнерках. Офферы обычно во всех партнерках одинаковые, но лендинги часто попадаются уникальные.

К каждому лендингу в статистике партнерки обычно идет информация по EPC и CR (коэффициент конверсии). Пример по офферу «Жидкий каштан» в cpagetti.com:

Рамкой на скрине я отметил лендинг с наивысшими показателями EPC и CR, который и нужно брать для работы. Не забываем также смотреть лендинги и в других партнерках и анализировать их эффективность по данным показателям.

Подготовка шаблона

После того как вы выбрали лендинг, его надо скачать себе для использования в качестве основы для шаблона. Легко и быстро это делается с помощью программы Teleport Pro. Программа платная, но есть триал версия с ограничением на 40 запусков, впрочем, есть и крякнутая версия на отечественных торрентах.

Открываем Teleport, сразу же всплывет окошко (если не появилось – жмем File > New Project Wizard):

Ничего не меняем и жмем «Далее». В появившемся окне вбиваем адрес лендинга, в окне ниже ставим 0 и жмем «Далее»:

Дальше все оставляем по умолчанию и снова жмем «Далее»:

Теперь жмем «Готово».

И выбираем папку куда сохранить проект.

После этого окно закроется, и мы перейдем в основной интерфейс программы. Здесь выделяем мышкой проект слева (1) и жмем кнопку запуска проекта (2).

Сайт начнет скачиваться и сохранится в директорию созданного нами проекта.

Теперь открываем папку, находим .html файл и переименовываем его в main.tpl.

Структура папок шаблона

Для шаблона сайтов используются следующие файлы:

  1. main.tpl – HTML шаблон, в котором мы меняем текст на свой и вставляем макросы.
  2. sitemap.tpl – HTML карта сайта.
  3. .htaccess – файл с конфигом сервера.
  4. tpl – папка, в которой лежат все файлы сайта: стили, изображения, скрипты, шрифты и т.д.

Файлы main.tpl, sitemap.tpl, .htaccess, а также папка tpl должны лежать на одном уровне:

Из папки с рипнутым лендингом нужно скопировать все файлы, кроме main.tpl в папку tpl шаблона. Файл main.tpl кладем в корень как на скрине выше.

Создание шаблона для сайтов

В данной главе разберем, как сделать шаблон, используя макросы. Для начала советую почитать инструкцию к программе CPA LEADer, в частности ознакомиться с макросами для шаблонов.

Наша задача примерно из такого лендинга http://ml.monasterytea.com сделать примерно такой шаблон http://india-jewels.ru

Если вы сравните их, то увидите следующие отличия:

  1. На сайте блоков меньше, чем в лендинге. Я специально убираю избыточные блоки с отзывами, советами врачей, данными по оплате и доставке. Это нужно делать для того, чтобы не синонимизировать кучу текста, что достаточно трудозатратно. Достаточный объем текста на каждой странице 2500-3000 знаков.
  2. Внизу страницы стоит другая форма заказа. Вместо типовой формы в шаблон мы ставим свою форму заказа, код которой получаем в партнерке.
  3. Тексты в шаблоне синонимизированы. За основу берется текст на лендинге партнерки и с помощью макросов генератора сайтов синонимизируется. Обратите внимание, что на выходе тексты читабельные и осмысленные.
  4. Шаблон сайта многостраничный, в отличие от лендинга. Под каждый ключ у нас генерируется отдельная страница для полного охвата семантического ядра. Тексты на каждой странице уникальные, тайтлы и заголовки оптимизированы под ключи.

Удаление блоков

Итак, открываем наш шаблон main.tpl, который мы предварительно рипали с лендинга в предыдущей главе. В нем обычный HTML код, с которым мы будем работать.

Для начала удаляем все ненужные блоки. Удобно это делать, открыв шаблон в браузере Chrome. Далее, кликаете правой кнопкой мыши по блоку, который хотите удалить, и выбираете «Просмотр кода элемента». Внизу страницы откроется консоль, в которой будет код выбранного элемента.

Если на div навести мышкой, соответствующая часть сайта над консолью подсветится синим. После этого кликаем на данный элемент и жмем Delete. Если удалился данный блок в консоли, значит удаляем его непосредственно в коде страницы в редакторе кода.

Удаляем по аналогии остальные блоки.

Создание потока трафика и замена формы

Теперь нужно поменять форму на нашу. Код формы мы получаем в партнерке. Расскажу как получить код в партнерке cpagetti, в других партнерках все действия аналогичны.

Переходим на вкладку «Потоки» и жмем «Добавить поток».

Вводим любое понятное вам название на латинице и выбираем ваш оффер в списке программ.

После выбора программы ниже откроется список всех доступных лендингов. Прокручиваем страницу вниз и ищем Iframe лендинг с двумя полями и кнопкой заказа.

Остальные поля не трогаем и сохраняем.

Нас перебрасывает обратно на вкладку «Потоки», где появился новый поток.

Можете открыть ссылку из правого поля в браузере – должна отобразиться форма.

Теперь данную форму нужно вставить в шаблон фреймом, заменив имеющуюся на лендинге.

Код формы:

<iframe src=»http://cpagetti.ru/ВАШ_ПОТОК» frameborder=»0″></iframe>

Разметка шаблона

В шаблоне используется всего несколько макросов, которых хватает для создания разных сайтов с разными текстами и ключами в рамках одной пачки. Рассмотрим весь процесс разметки шаблона на моем примере.

В первую очередь, нужно определиться, куда мы будем вставлять ключи. Для того чтобы страница была оптимизирована под запрос, нужно вставить ключ в тайтл и употребить его 1-2 раза в контенте страницы.

Если у вас ключи по названию оффера, то целесообразно в тайтле писать просто макрос ключа:

[BKEY] – заменится на ключ, пример: «Монастырский чай от алкоголизма цена».

Если у вас вместо ключей список городов, то нужно составить конструкцию:

[Название оффера] купить в [BKEY] – заменится, например, на «Монастырский чай купить в Бобруйске».

Однако страниц в рамках одного сайта у нас много, и самих сайтов в рамках пачки несколько. Чтобы еще больше уникализировать тайтл, я советую разбавлять его тематическим предложением, которое нужно синонимизировать.

С тайтлами разобрались. Теперь нужно определиться, куда вставить ключ на самой странице. Поскольку у нас шаблон сделан на основе лендинга, который состоит из нескольких экранов, то целесообразно вставить ключ в 1-2 заголовка блоков.

В моей пачке по монастырскому чаю с городами я вставил ключ в заголовок нижнего блока прямо над формой.

Обязательно в футере выводим ссылку на карту сайта.

Подготовка контента

Весь контент нужно синонимизировать. Это делается макросами:

{Слово|Другое слово|Третье слово}

При генерации каждой страницы из такой конструкции будет браться одна из фраз между вертикальными чертами рандомно.

Также поддерживаются вложенные конструкции. Пример:

{{бодрое|позитивное|улучшенное} состояние|{бодрый|позитивный|улучшенный} настрой}

Пропуск слов:

{ваш |}выбор – заменится на: «ваш выбор» или «выбор».

Здесь, думаю, все ясно – процедура синонимизации используется много где и многим знаком принцип. Рассмотрим нюансы именно по работе с данной схемой.

  1. Объем контента на странице должен быть примерно 2000- 2500 знаков. Об этом я упоминал ранее в разделе по удалению блоков.
  2. К синонимизайзу нужно подходить очень тщательно. К каждому слову стараться подбирать как можно больше синонимов (по возможности 4-5 на каждое слово).
  3. Чтобы еще больше уникализировать тексты на выходе – используйте вложенные макросы синонимизации.

Готовый шаблон по моей пачке сайтов из кейса приложен к методике. Советую внимательно изучить структуру синонимизации текста в нем, и сразу все станет понятно.

Важно! Шаблон должен быть в кодировке Windows-1251. Поэтому обязательно переведите кодировку в данный формат, прежде чем использовать шаблон для генерации.

В Sublime Text 2 кодировка меняется так:

File > Save with Encoding > Cyrillic (Windows 1251)

Также кодировку желательно указать явно в хедере шаблона.

 

Шаблон карты сайта

HTML карту сайта, через которую происходит перелинковка страниц, также можно шаблонизировать. Здесь используется всего 2 макроса:

  • [SITEMAP_LIST] – выводит ссылки на страницы.
  • [SITEMAP_PAGE] – выводит пагинацию.

Шаблон карты сайта идет в комплекте с программой, и она будет работать как есть. Однако я советую уникализировать ее для каждой пачки. Как минимум, поменяйте классы на свои.

Также поставьте свой тайтл. И не забудьте указать кодировку в хедере строкой

Генерация сайтов

В предыдущих главах мы прошли все подготовительные этапы: собрали ключи, зарегистрировали домены, рипнули лендинг, на основе которого сделали шаблон. Теперь можно приступать непосредственно к генерации сайтов.

Итак, открываем программу. На вкладке «Настройки» необходимо указать пути к файлам и папкам:

  • Путь к папке с шаблоном, где лежат файлы main.tpl, sitemap.tpl, .htaccess и папка tpl с элементами верстки шаблона.
  • Путь к папке с результатами, куда будут сгенерированы сайты.
  • Путь к файлу с доменами (каждый домен с новой строки).
  • Путь к txt файлу с ключами (ключи с новой строки, кодировка файла Windows 1251).

Другие настройки:

  • Название карты сайта – чтобы уникализировать пачку сайтов, можно переименовать карту сайта (site.ru/sitemap.html, site.ru/map.html и т.д.). Указываете только название, без расширения страницы (пример: sitemap).
  • Ссылок в карте сайта – сколько будет ссылок на каждой странице пагинации. Опция также сделана для того, чтобы уникализировать сайты.
  • Расширение страниц – можно генерировать страницы с любым расширением в ЧПУ: .html, .htm, .php и т.д. Также полезно для уникализации сайтов. Формат: .html.

Переходим на вкладку «Настройки публикации». Здесь остановимся поподробнее. На сайтах есть возможность генерировать страницы с отложенной публикацией. Т.е. часть страниц будет сгенерирована сразу, а оставшиеся страницы будут публиковаться постепенно, с данным интервалом времени. Отложенная публикация очень важна как для начальной индексации, так и для удержания сайтов в индексе.

Технически все страницы генерируются сразу и будут доступны физически на сервере. Просто страницы в статусе отложенной публикации добавляются в карту сайта по времени. Из карты сайта боты поисковиков уже будут узнавать о новых страницах.

Рассмотрим настройки публикации в программе.

  • Стартовое наполнение – диапазон страниц, которые будут добавлены в карту сайта и доступны сразу. Если указать, например, от 200 до 300 страниц, то на каждый сайт будет сгенерировано рандомное число стартовых страниц в данном диапазоне: 200, 245, 278, 300 и т.д. В остальных настройках значения также берутся из заданного диапазона по аналогии.
  • Конечное наполнение – максимально возможное количество страниц (в диапазоне от и до), с учетом стартовых страниц и страниц в отложке.
  • Отложенная публикация – через сколько времени в минутах будет публиковаться в карту сайта каждая новая страница (в заданном диапазоне от и до минут).

Рекомендуемые настройки публикации

Опытным путем было установлено, что, во-первых, яндекс в среднем не индексирует больше 100 страниц за один апдейт. Во- вторых, оптимальное количество страниц, публикуемых изначально – 200-300. Мои пачки сайтов, на которых сразу было добавлено по 1000 и больше страниц очень плохо индексировались и быстро вылетали.

Поэтому здесь важно не спешить, и растянуть процесс публикации хотя бы на месяц. Обязательно используйте диапазоны публикации новых страниц и разные диапазоны генерации страниц на старте и конечные. Тем самым, вы даете яндексу меньше поводов для вычисления ваших сеток и быстрого бана.

Как рассчитать, сколько страниц публиковать сразу, и через какое время публиковать новые? Здесь все просто. Смотрите, сколько у вас ключей – это и будет конечное количество страниц. Сразу можно выложить 20-30% страниц (20% от, 30% до).

Для отложенной публикации нужно ориентироваться на динамику апдейтов яндекса. В среднем яндекс проводит апы 4 раза в месяц. 20-30% страниц у нас опубликовано сразу. За месяц нужно добавить 100% страниц, или (100% – 20-30% опубликованных сразу) / 4 апа = 17-20% за ап.

Рассмотрим на примере. Допустим, у нас 700 ключей. На старте добавляем 20-30% от 700: 140-210 страниц. В конечной публикации указываем диапазон с разбросом в районе 100 страниц: получится 600700 страниц в итоге.

Рассчитаем, сколько добавлять страниц в отложенной публикации в течение месяца. Выше мы уже рассчитали, что за 1 ап, или за 1 неделю нужно добавлять по 17-20% страниц, от 700 страниц 17- 20% – это 129-140 страниц. Возьмем за среднее 135 страниц в неделю. 135 страниц в неделю – это примерно 20 страниц в день. В сутках 24 часа, т.е. каждый час нужно публиковать по 1 странице. Значит, диапазон можно задать где-то 60-90 минут.

Естественно, на практике ничего скурпулезно высчитывать не надо. Плюс минус несколько десятков страниц туда-сюда никакой роли не играют. Можете брать прямо эти данные из расчетов и корректировать примерно под свое количество ключей в большую или меньшую сторону.

После заполнения всех полей, введенные настройки нужно сохранить.

После чего жмем «Начать генерацию» и, по желанию, переходим на вкладку «Результаты», где можно посмотреть логи выполнения процесса.

Заливка на FTP

После завершения процесса генерации программа сохранит сгенерированные страницы в папку с результатами. Для каждого домена создается своя папка с названием домена.

Папки с доменами – рабочие, в них уже будут созданы все файлы стилей шаблона, сгенерированы все страницы, создана карта сайта HTML, карта сайта XML и файл robots.txt. Просто копируете все из папки результата на фтп в директорию ваших сайтов, и на хостинге будут рабочие сайты.

Выбор хостинга. Безопасность

Буквально в двух словах коснемся вопроса о том, где держать сайты и немного поговорим о безопасности наших сеток. Сайты по моей схеме получаются не ресурсоемкие – обычная HTML статика. Так что подойдет любой хостинг с поддержкой PHP.

Однако на перспективу я сразу рекомендую брать VDS с анлимом на сайты и возможностью покупать выделенные IP адреса. Выделенные IP нужны для того, чтобы разносить по ним по 5-7 сайтов. Все же сайты держать на одном IP я категорически не рекомендую – яндекс вычислит всю сетку и отправит ее в бан.

Если вы все-таки берете обычный хостинг, обязательно проверьте, какие сайты размещены на вашем IP. Делается это запросом в Bing.com:

ip:IP_вашего_хостинга

Если вы видите множество варезников, адалт сайтов, доров и прочий шлак – такой хостинг лучше не брать. В случае с VDS IP адреса все выделенные, однако, и это тоже не панацея. Были случаи, когда яндекс банил целые подсети IP адресов по признаку принадлежности к определенному хостинг провайдеру. И в этом случае сайты просто не входили в индекс.

Для тех, кому не охота искать, рекомендую VDS сервера, которыми пользуюсь сам: firstvds.ru Для работы вполне хватит тарифа «VDS Разгон». Вместе с ISP Manager будет стоить примерно 500р в месяц.

Важно! Если берете VDS у фёстов, либо любой другой VPS/VDS с ISPManager, понадобится дополнительно настроить приоритетный домен. Что это такое?

Если открыть домен в браузере, то должен грузиться сайт, который лежит в папке по названию домена на FTP. Но если на FTP сайт не залит, а домен привязан, то грузиться может совершенно левый сайт, размещенный на вашем IP. То есть вы нарегали дропов, настроили DNS на ваш IP, и, по идее, на сайтах не должно ничего открываться, т.к. сами файлы сайта вы еще не заливали. Но по факту на новом домене может грузиться другой ваш сайт, что очень нехорошо для SEO: яндекс зайдет на сайт, если успеет, и проиндексирует совершенно ненужный клон.

Такое происходит не всегда, но происходит. Чтобы избежать этого, нужно для каждого IP создавать приоритетный домен.

Для этого заходим в ISPManager на вкладку «WWW домены» и жмем «Создать».

В поле «Имя» (1) пишем абсолютно любой домен, какой заблагорассудится, он может даже физически не существовать.

Жмем «Источник IP адреса» (2) и выбираем «Указать вручную». Появится поле «IP адрес» (3) ниже. Выбираем ваш IP. Жмем галку «Приоритетный» (4) и сохраняем.

Теперь заходим на FTP. Должна появиться папка с созданным доменом, а в ней – файл index.html. Удаляем этот файл.

После данных манипуляций, если на домен не залит сайт, то на домене будет показываться содержимое папки приоритетного домена. Но поскольку в папке приоритетного домена ничего нет, то будет выдаваться стандартная 403 ошибка, что нас вполне устраивает.

Повторюсь, приоритетный домен надо создавать для каждого вашего IP адреса.

Индексация сайтов

После того как вы сделали сайты и разместили их на доменах, можно сразу приступать к добавлению их в индекс яндекса. Почему только «яндекс»? Дело в том, что домены у нас не свежереги, а дропы, о которых гугл и так знает и достаточно часто переиндексирует их. Поэтому специально предпринимать действия для индексации в гугле не надо. А вот яндекс частотой обхода даже старых доменов не радует, и здесь требуются определенные телодвижения.

Сама схема индексации сайтов основана на моем личном опыте, оттестирована и всегда работает. Забегая вперед, скажу, что это лишь мой способ, которым я лично пользовался и пользуюсь. Но также есть и другие схемы загона сайтов в индекс: твиттер фермы, сервисы пингования (getbot, fastbot), покупка ссылок с новостных морд. Я тестировал все вышеперечисленное, и не только это, но результаты меня не устроили – одни методы не работали, другие были слишком трудозатратными, третьи – непредсказуемыми.

Если же вы знаете как загонять сайты в индекс и любите экспериментировать – пожалуйста, загоняйте по своей схеме. Но в этом случае учитывайте, что от способа загона в индекс зависит не только вхождение в индекс, но и нахождение в нем.

Моя же схема заключается в добавлении сайтов в аддурилку яндекса. Как ни странно, данный простой способ прекрасно работает, хоть и не быстро. И сайты достаточно долго держатся в индексе.

Данная схема хоть и простая, но в ней есть свои нюансы. Во-первых, яндекс недавно запаролил аддурилку, и для того, чтобы добавить сайт, нужно авторизоваться в аккаунте. Во-вторых, чтобы не спалить сетку, нужны прокси и разные акки. Хорошо, когда у вас 1-2 сайта – здесь можно сидеть с VPN и зарегать пару акков вручную. Но когда сайтов несколько десятков, то добавлять их таким макаром становится вовсе не весело.

Для данной задачи был написан софт YaAddUReL.

Для работы с ним нужно купить акки яндекса и проксей.

Акки яндекса рекомендую покупать здесь: https://buyaccs.com Берете обычные Yandex.ru

Прокси можно взять здесь: https://buy.fineproxy.org/small.html Берете тариф «Российские 70 штук» на месяц за $8 – их хватит за глаза.

Также нужен аккаунт в antigate.com для разгадывания капчи яндекса. Баланс можно пополнить на $1, хватит на несколько месяцев, или на 700-1000 каптч.

В программу вбиваете список доменов, акки яндекса, выбираете файл с проксями, вбиваете ключ антигейта и жмете «Приступить».

Программа будет авторизовываться последовательно под каждым акком под проксями и добавлять каждый домен в аддурилку. Справа от кнопки «Приступить» есть кнопка, по которой открывается встроенный браузер, где видно процесс добавления сайтов в аддурилку.

Если не получилось добавить сайт, значит, он уже был добавлен ранее предыдущим владельцем дропа. В этом случае можно

повторно прогнать сайты, но не главные страницы, а ссылки на карты сайтов.

http://site.ru/sitemap.html

В среднем, время индексации стартовых страниц на сайтах по данной схеме загона занимает 2-3 апдейта.

Аналитика для сайтов

Вполне логично, что после индексации сайтов, нас будет интересовать не только доход, но и такие параметры, влияющие на заработок, как: посещаемость, количество страниц в индексе. Это нужно для анализа эффективности всего процесса. Сколько сайтов находится в индексе? Сколько страниц в индексе? Сколько трафика приносят сайты в индексе? Откуда идет трафик? Как быстро сайты индексируются и попадают в бан? Для ответов на эти вопросы нужно постоянно мониторить параметры индексации и трафика.

Вся проблема в том, что сайтов реально много, несколько десятков. И обычные подходы ведения статистики, как счетчики посещаемости, здесь не подходят. Нужна собственная система учета интересующих нас параметров с показом динамики изменения данных показателей. Для этих целей я советую десктопный софт XSEOChecker.

Сразу после установки программы, необходимо настроить конфиг. Это делается в файле params.ini, который лежит в папке программы. Настроек немного, и к ним идут текстовые комментарии.

В первую очередь укажите ключ антигейт, а также придумайте пароль для счетчика Liveinternet (строка «li_password_common»), он понадобится позже.

В программе очень удобно добавлять сайты по пачкам в разные группы и для каждой группы настраивать свои параметры. Пример пачки из группы на скрине, где собирается только статистика по индексации в яндексе и гугле.

При наведении на ячейку в таблице показывается история изменений параметра по данному сайту.

Софт также может собирать значения посещаемости со счетчика Liveinternet. Однако для этого ко всем сайтам нужно указать одинаковый пароль от счетчика в файле params.ini.

Что касается добавления сайтов в Liventernet, тут есть два варианта:

  1. Добавить каждый сайт отдельно. В этом случае у вас будут данные по трафику с каждого сайта.
  2. Зарегистрировать групповой счетчик. В этом случае данные будут общие, по всем сайтам, на которых размещен код счетчика.

По первому способу добавляем каждый сайт последовательно здесь: http://www.liveinternet.ru/add Не забудьте указывать один и тот же пароль для каждого сайта, тот, который стоит в настройках XSEOChecker.

Поскольку для работы мы используем дропы, а Liveinternet достаточно популярный счетчик, то иногда при попытке добавить сайт выдается ошибка: «Данный сайт уже зарегистрирован». В этом случае нужно перейти по адресу

http://www.liveinternet.ru/stat/?what=reminder и вбить в форме адрес сайта.

После этого откроется такая страница:

Создаем txt файл, который подчеркнут на скрине, и пишем в него свою почту. После чего заливаем этот файл в папку с доменом на FTP и кликаем на ссылку с картинки. В форму должен подставиться ваш email. Жмем «получить пароль по почте».

Теперь авторизуемся в статистике с новым паролем, полученным на email. И в самом низу в сайтбаре жмем «изменение описания».

Вбиваем свой email и пароль и сохраняем.

Для того чтобы зарегистрировать групповой счетчик, переходим по ссылке http://www.liveinternet.ru/add?type=account.

В поле «Имя» пишем любой уникальный идентификатор. Можно использовать буквы латиницы и цифры. По этому идентификатору вы будете позже авторизовываться в статистике ливинтернета.

В поле «Адрес» вбиваем адрес любого из сайтов в вашей пачке. Указываем ваш email и пароль и жмем «Дальше».

Полученный код размещаем в шаблоне на любых сайтах. В отличие от обычного счетчика, который будет работать только на зарегистрированном в ливинтернете сайте, групповой счетчик будет собирать данные с любых сайтов, где он размещен.

Помимо ливинтернета, я пробовал вешать яндекс метрику. Не так давно и яндекс, и гугл начали шифровать поисковые запросы на сайты, и теперь они показываются только в яндекс метрике (по яндексу) и в Google Analytics (для гугла). По этой причине метрику я ставил (кстати, на пачку сайтов из кейса), чтобы собрать поисковые запросы и использовать их в качестве ключей для новых сайтов по офферу.

Однако эксперимент провалился по нескольким причинам. Во-первых, оффер не прожил достаточно долго, чтобы успеть и собрать статистику с первых сайтов, и загнать в индекс новые сайты. На момент индексации новой пачки оффер окончательно загнулся, и нормальной прибыли новые сайты не дали.

Во-вторых, по моим подозрениям, яндекс вычислил сетку из-за метрики – сайты ушли в бан сразу все в один день.

В-третьих, самих поисковых запросов, по которым были не единичные заходы было очень немного – что-то в районе сотни-двух.

Вывод: смысл ставить метрику есть только тогда, если вы хотите собрать живые ключи. Но в рамках данной схемы это не имеет особого смысла. Сайты живут недолго, чтобы собрать достаточную статистику, офферы также быстро загибаются, и новую пачку на живых ключах вы вряд ли успеете нормально монетизировать. Кроме того, есть подозрения, что по метрике вычисляется ваша сетка, что дает моментальный бан всей пачки.

Заключение

Что же, теперь вы знаете всю схему создания сайтов под офферы товарных CPA партнерок. Данной информации вполне хватит для уверенной работы большинству из вас. Однако в заключение хотелось бы еще немного расширить кейс для тех, кто хочет работать по данной теме всерьез и надолго.

Это именно кейс, полностью основанный на моем личном опыте. И какие-то моменты, которые я не тестировал в своей работе и в которых я полностью не уверен, были сознательно обойдены стороной. Это касается, в частности, самих партнерских программ, которых в последнее время на рынке появляется достаточно много, и с которыми поработать я еще не успел.

Не забывайте мониторить рынок на предмет появления новых CPA. Часто со старта такие партнерки предлагают эксклюзивные офферы, которых вы нигде больше не найдете, и повышенные отчисления, либо лучший аппрув по паблик офферам.

Сама же схема создания сайтов достаточно долго не менялась и будет жить в ближайшее время. Сами подумайте: на дворе 2015-й год, есть множество фильтров поисковых систем, а сайты на обычном синонимайзе не только заходят в индекс, но и дают НЧ траф.

Однако же нюансы по работе с темой будут меняться: количество текста на страницах, количество страниц на старте, динамика публикации новых страниц. В данный момент и в обозримом будущем все будет работать согласно рекомендаций из кейса. Но в дальнейшем вам придется самостоятельно тестировать эти моменты и подстраиваться под алгоритмы яндекса.

Наконец, хотелось бы посчитать, сколько можете заработать по данной схеме непосредственно вы. В начале кейса я уже писал, что для уверенного старта желательно делать 3 пачки сайтов под разные офферы, суммарно не менее, чем на 20 сайтов. Если вы правильно выберете офферы, ключи, сделаете шаблоны и зарегистрируете домены, трафик будет давать больше половины, что в денежном эквиваленте в среднем даст 1 подтвержденную заявку в день, примерно на 500-600р.

Несложно посчитать, что сделав 100 сайтов, у вас будет уже в среднем 5 заявок в день, или 2500-3600р ежедневно. На такие объемы вполне можно выйти после 2-х месяцев работы по теме.

Желаю вам лояльности со стороны яндекса, отсутствия лени и больших заработков!

Скачать софт, прилагаемый к кейсу по автоматизированному созданию сайтов под CPA вы можете по ссылке ниже. За софт находящийся в архиве администрация сайта отвественности не несет.

Скачать

Александр Артюшкин

Интернет-предприниматель и создатель этого блога. Закончил университет в 2002м году, работаю удаленно и развиваю бизнес в интернете с 2015-го года. Основные способы заработка: сайты, СЕО, арбитраж трафика, партнерские программы, фриланс, криптовалюты, оффлайн-работа. Увлекаюсь инвестированием, автомобилями, гаджетами, фотосъемкой.

Оцените автора
( Пока оценок нет )
zonecash.ru
Отзывы и комментарии

  1. Александр

    Здравствуйте! Очень заинтересовал данный кейс, решил попробовать реализовать на практике. Возникла небольшая проблема — программа создает пустой sitemap.html. С чем это может быть связано?

    Ответить