Referrals в интернет маркетинге что это




Содержание страницы

Кукистафинг и фродящий ретаргетинг: мошеннические схемы в интернет-маркетинге

Руководитель отдела мониторинга компании Admon Алексей Фиошкин — о новых мошеннических схемах в интернет-рекламе и способах борьбы с ними.

Многие компании, которые предлагают пользователям оплачивать услуги и продукты в онлайне, сталкиваются с фродом (от английского fraud — «мошенничество»). Фрод как болезнь электронной коммерции существовал всегда, но в последнее время вышел на новый уровень реализации и распространился на рекламу. Появляются гениальные методы мошенничества, и выявить их становится всё сложнее.

Откуда берётся фрод

Фрод любого типа — это желание недобросовестного подрядчика заработать. Если десять лет назад фрод использовали для мошеннических действий с платёжными данными пользователей, сегодня он стал проблемой для отделов маркетинга и рекламы.

Есть несколько основных типов фрода, с которым сталкиваются рекламодатели. Например, подмена меток с помощью мошеннических расширений и вирусов. Этим пользуются недобросовестные подрядчики, которые работают с компанией по модели CPA (cost per action).

Другой тип — скручивание показов в работе по CPM-модели (cost per mille) — тоже встречается часто. Там же, где эффективность оценивается по модели CPC (cost per click), рекламу до сих пор могут «скликивать».

Фрод нового поколения более опасен потому, что его источником становится сам сайт рекламодателя: мошеннические скрипты ставятся напрямую в код сайта или взаимодействуют с интегрированными сервисами рекламы.

Рекламодатель подключает, например, систему ретаргетинга, а та в свою очередь подключает тех, кто фродит. Видов недобросовестных рекламных схем существует много. Наверняка некоторые из них прямо сейчас работают на вашем сайте.

Встреча с фродом лицом к лицу

Недавно мы начали работу с крупным интернет-магазином. Наша задача состояла в том, чтобы оценить качество рекламы и отследить фрод. Поначалу уровень фрода для магазина такого масштаба был вполне «обычным».

Однако перед майскими праздниками он начал расти. Ничего странного: те, кто зарабатывают на фроде, специально активизируются перед выходными и праздничными днями.

Рекламодатель видит изменения в статистике, но делает при этом неправильные выводы и не замечает фрод. Например, CPA вырос, CPC упал, а рекламодатель списывает такие изменения на праздники: просто все уехали на природу, и трафик изменился.

В этом случае мы столкнулись с классическим кукистафингом: через две-три секунды после перехода на сайт с рекламы пользователи видели редирект на ту же страницу, но уже с партнёрскими CPA-метками. Мы обнаружили сотни таких переходов с CPC-рекламы и из органики. То есть каждый пришедший пользователь в этом случае присваивается партнёру, а рекламодатель платит за него в лучшем случае дважды.

Собрав данные о веб-мастерах CPA-сетей и переходах на сайт из устройств с низким уровнем кукистафинга, мы пришли к выводу, что причина спрятана в коде сайта, а не, например, во фродящих плагинах к браузеру. Оказалось, что сайт использует код ретаргетинга с последующим появлением цепочки переходов и вызовов через код веб-мастера. Иными словами, обычный код ничего не подозревающего ретаргетинга вызывает замаскированный вражеский код недобросовестного веб-мастера.

Вторая причина фрода, которую мы обнаружили, — сайт подключает код оптимизирующего CPA-канал агентства. Более того, это агентство также оказывает антифрод-услуги. Парадокс в том, что агентство само внедрило в структуру сайта вызывающий фрод скрипт. Так агентство создаёт проблему самому себе и, возможно, даже зарабатывает на этом, потому что получает процент с канала.

Рекламодатель в это время теряет деньги, так как оплачивает органический трафик, уже оплаченные посещения и. работу агентства. Конкретно в этом примере за время майских праздников магазин мог потерять порядка 300 тысяч рублей.

Таких рекламодателей большинство. Они отдают управление в руки недобросовестных подрядчиков и не всегда понимают, насколько это опасно. В свою очередь мошеннические схемы становится всё более сложными, и трудно представить, сколько денег рекламодатели потеряют завтра.

Можно ли найти фрод самостоятельно

Чтобы обнаружить признаки фрода, можно использовать SimilarWeb. В отчёте Referrals рекламодатель может увидеть, откуда трафик пришёл на сайт и куда уходит с него. Затем стоит обратить внимание на незнакомые домены и проверить по SimilarWeb источники трафика для них.

Например, в нашем случае подозрение вызвал домен retag.pw. Мы видим, что его входящий трафик идёт с сайта pult.ru, а в исходящем — реферальные ссылки. Есть над чем задуматься.

SimilarWeb не является универсальным решением для работы с фродом и позволяет лишь обнаружить наличие проблемы. Рекламодатель не получает информацию об источнике фрода, не понимает, какие веб-мастера фродят, и не может оценить масштаб потерь. Кроме того, обнаружить подозрительный трафик с помощью SimilarWeb могут только владельцы больших сайтов (более 200 тысяч уникальных посетителей в месяц).

Как избежать ловушки с фродом

  1. Скептически относиться к подрядчикам, которые одновременно выступают в роли рекламного агентства и антифродовой компании. Конфликт интересов очевиден, и найти кристально чистую и принципиальную в вопросах дополнительной прибыли компанию сложно.
  2. Разрешить ставить сторонние скрипты ограниченному числу проверенных сотрудников. Сайт не должен превратиться в кладбище скриптов. Мы постоянно сталкиваемся с тем, что у рекламодателя в коде сайта «пылятся» скрипты, когда-либо использовавшихся сервисов. И в этом случае речь идёт не только о фроде, но и о возможной утечке данных, которые после разрыва отношений с третьей стороной по-прежнему ей передаются.
  3. Ещё лучше — минимизировать количество сторонних скриптов на сайте за счёт работы с данными через одно окно. Таких решений на рынке немного, но они есть. Например, платформа DigitalDataManager, которую рекламодатель интегрирует один раз и затем использует как безопасное окно для подключения всех маркетинговых и аналитических сервисов. Фрод здесь не пройдёт.
  4. Использовать на сайте content security policy (CSP), X-Frame-Options, X-Content-Type-Options, X-XSS-Protection и другие инструменты, которые защитят сайт от запускаемого через код сайта фрода. При этом их эффективность в борьбе с другими источниками фрода составляет всего 20%.
  5. Анализировать сообщения об ошибках в консоли самого сайта, которые могут быть косвенными признаками фрода. Это позволит вовремя заметить признаки кукистафинга и противодействовать ему, сохраняя рекламный бюджет.
  6. Следить за кодом самостоятельно. Проверять источники трафика по SimilarWeb и куда трафик уходит с сайта. В сложных случаях и для большей точности обратиться к профессионалам, у которых есть собственные системы для мониторинга фрода.

Экспертное мнение

С фродом в партнёрских сетях я столкнулся несколько лет назад. Наивно полагая, что этой напасти подвержены только очень крупные проекты, я не уделил проблеме должного внимания. Разобравшись детально и подсчитав ущерб в сотнях тысяч рублей, понял, как сильно ошибался.

Вне всякого сомнения, с теми или иными видами фрода сталкивается практически 100% рекламодателей, которые используют в маркетинге CPA-схемы. Отказываясь от борьбы или доверяя защиту от фрода сомнительным компаниям, они оплачивают комфортную жизнь мошенников.

О том, как бороться с этим безобразием собственными силами, я подробно рассказал в книге «Ваш интернет-магазин от А до Я». Там же описаны и другие неприятности, которые могут подстерегать рекламодателей в работе с партнёрскими сетями, и способы борьбы с ними.

Кроме фрода есть и другие причины внимательно относиться к подключению сторонних скриптов. Чаще всего рекламодатели сталкиваются с кражей статистических данных или открывают возможность конкурентам таргетировать рекламу на своих посетителей и клиентов. Этим особенно «грешат» бесплатные сервисы. Но это уже совсем другая история.

Установка сторонних скриптов в код сайта — всегда риски: снижение скорости загрузки, фрод, JavaScript-ошибки. С этим сталкивается каждый рекламодатель. Проблема обострилась, потому что число желающих оказаться в коде сайта выросло в разы. Риск есть, даже если рекламодатель осторожен и работает только с проверенными сервисами. Никогда не знаешь, какой скрипт загрузится следом.

На мой взгляд, времена, когда маркетинговые сервисы подключались напрямую к сайту, уходят в прошлое. И не только из-за фрода. Компании хотят управлять интеграциями и потоками данных через одно окно. Это удобно, быстро и, как правило, безопасно. Захотел начать работу с сервисом — подключил его одним нажатием кнопки, захотел отключить — так же легко отключил.

Когда мы интегрируем клиенту DigitalDataManager, часто видим в коде сайта скрипты сервисов, с которыми компания уже много лет не работает, но которым данные до сих пор отдаёт.

Денежные потери из-за подобной утечки сегодня могут быть не менее значимыми, чем от фрода. И они суммируются с потерями от плохого качества трекинга и от низкой скорости загрузки сайта.

гендиректор, сооснователь Driveback (DigitialDataManager)

Работа с компаниями, использующими ретаргетинг по CPA в плане контроля, ничем не отличается от работы с купонным или кэшбек-трафиком. Партнёрская программа подразумевает вовлечение рекламодателя, и если пускать процесс на самотёк, результат работы будет неудовлетворительным.

Некоторые ретаргетинговые компании каннибализируют другие источники трафика и вызывают фрод. Другие качественно таргетируют рекламные предложения, приводят трафик с высоким средним чеком, хорошей конверсией и низким CPO.

Ещё одна проблема также вызывает у нас беспокойство — засилье всевозможных кодов рекламных сетей на сайте. Оно приводит к ошибкам в срабатывании трекинговых кодов партнёрских сетей. В результате веб-мастера с качественным трафиком недополучают свои заказы и направляют трафик на других рекламодателей.

Материал опубликован пользователем. Нажмите кнопку «Написать», чтобы поделиться мнением или рассказать о своём проекте.

Как исключить спам в Google Analytics, или кто портит ваши данные?

Что делать, если вы столкнулись со спамом в отчетах Google Analytics? Значит ли это, что кто-то имеет доступ к вашему аккаунту, или что кто-то специально влияет на данные сайта в GA? Как они это делают? И как исключить подобные данные из отчетов?

Когда в источниках реферального трафика появляются нетематические ресурсы, или когда вы открываете «Поведение → События → Обзор», и видите событие, которое точно не настраивали самостоятельно, самое время разобраться, в чем же тут дело. Спам в событиях от event-tracking.com

Зачем спамить в Google Analytics?

Google Analytics — самый популярный инструмент веб-аналитики, его используют миллионы пользователей. Спамеры рассчитывают на переходы любопытных владельцев сайтов, а что уже делать с этими переходами — монетизировать через баннеры, перенаправлять в магазин или использовать любым другим способом — каждый решает сам. Даже если принять процент любопытства за 10%, в соотношении с миллионами пользователей Google Analytics это получится значительная цифра.

Как они это делают? Метод спама Google Analytics #1: Ghost spam

Как же данные попадают в Google Analytics? GA использует протокол для передачи данных — Measurement Protocol, который позволяет разработчикам отправлять данные напрямую на сервера Google Analytics. Measurement Protocol сам по себе — хорошая вещь, он позволяет использовать возможности Google Analytics для сбора данных практически из любой среды. Таким образом, становится возможным использовать инструменты аналитики GA, к примеру, в сети магазинов розничной торговли. Данные по продажам или любым другим взаимодействиям с покупателями магазинов будут собраны в Google Analytics подобно данным с веб-сайтов. Однако, тот же Measurement Protocol можно использовать и для передачи спама.

Для доступа к аккаунту GA достаточно знать ID аккаунта. Спамерам ничего не нужно узнавать — ID можно генерировать автоматически в больших количествах. Остальное они вводят сами — рефералов, страницы, имена хостов, ключевые слова и так далее. Автоматизированный скрипт отправляет ложные данные в разные аккаунты GA.

Так как непосредственного взаимодействия с сайтом нет, то нельзя отсечь спамные данные на уровне сервера, используя .htaccess. Данные можно исключить из отчетов только с помощью фильтров Google Analytics.

Пример Ghost spam: спам в событиях GA от www.event-tracking.com

Вы, конечно же, знаете, какие именно события настроены на сайте, и что хотите отслеживать. Поэтому идентифицировать спам в событиях очень просто. Если в событиях вы обнаружили чужое сообщение, к примеру, «to use this feature visit: www.event-tracking.com» — это спам. Чтобы отсеять ложные данные по несуществующему событию, нужно настроить отдельный фильтр — подробные инструкции, как это сделать, смотрите в конце поста.

Метод спама Google Analytics #2: Crawler Referrer Spam

Есть роботы, которые совершают обход сайтов с целью привлечь трафик на определенный портал. Данные, которые такие роботы оставляют в Google Analytics, не несут никакой полезной информации, а сфабрикованные показатели искажают статистику. Такие роботы игнорируют директивы robots.txt, поэтому блокировать их там нет смысла. Хорошая новость в том, что здесь есть обращение к сайту. Это значит, что можно заблокировать робота-спамера не только в настройках Google Analytics, но и в .htaccess на уровне сервера.

Как определить реферальный спам в отчетах?

Зайдите в свой аккаунт Google Analytics, вкладка «Отчеты», «Источники трафика → Весь трафик → Рефералы». К отчету добавьте дополнительный параметр «Поведение → “Имя хоста”» и отсортируйте по имени хоста. Увидите много интересного 🙂 Поиск реферального спама в отчетах Если рефералов много, для удобства работы лучше выгрузить все данные в таблицу, и там отобрать те источники, которые необходимо исключить. Экспорт данных из Google Analytics

Какие параметры нужно проанализировать для идентификации спамера?

  1. Источник — неестественный или нетематический адрес сайта говорит сам за себя.
  2. Новые сеансы и Показатель отказов — в первую очередь обратите внимание на значения 0% или 100%.
  3. Имя хоста — набор символов или «not set».
  4. Дублирование значений в дополнительных параметрах. В нашем случае — данные для «Имя хоста» и «Название экрана» для сайтов erot.co, sanjosestartups.com, непереводимая.рф и так далее частично или полностью совпадают.

Сравнение данных имени хоста и названия экрана для одинаковых источников.

5. Списки спамеров Google Analytics в сети. Если мишенями спамеров становится большое количество людей, то и списки спам-роботов будут совпадать. Понимая это, Вы можете отсеять часть спама заранее. Настройте фильтр по чужому списку спамеров — пример такого списка находится здесь. Или сделайте общий список спамеров для нескольких SEO-проектов и примените к каждому сайту по отдельности.

Как исключить реферальный спам: фильтры Google Analytics

Как мы уже писали выше, оба вида спама — Ghost spam и Crawler Referrer Spam — можно исключить из отчетов внутренними инструментами GA, настроив соответствующие фильтры.

Важно! Не применяйте фильтры к основному представлению Google Analytics, иначе часть данных для вашего сайта не будет собрана. Для фильтрации данных используйте имеющееся дополнительное представление или создайте его (подробнее).

Фильтр по источнику кампании

Любые метрики Google Analytics — количество переходов, длительность сессий, события и все остальное — имеют источник. Чтобы исключить их из отчета, внесите URL определенного сайта как источника кампании в фильтр представления с настройкой «Исключить». В дальнейшем все данные из этого источника не будут добавлены к отчету. Как настроить фильтр:

  1. Войдите в аккаунт Google Analytics.
  2. Перейдите на вкладку «Администратор».
  3. Выберите представление, к которому будет применен фильтр. Основное представление не нужно трогать 🙂

4. В меню сразу под выбранным представлением выберите «Фильтры». 5. Кликните «Фильтры» → «Новый фильтр». 6. Заполните поля, как показано на скринах ниже. Настройка антиспам фильтра по источнику кампании. 7. Сохраните фильтр. Такой фильтр исключит все данные, которые приходят из указанного источника, в том числе и спам в разделе «События».

Фильтр по имени хоста или по любому другому параметру

Как настроить фильтр: пункты 1-5 те же — перейдите на вкладку «Администратор», выберите представление и откройте вкладку создания нового фильтра. Далее так же заполняем фильтр, только вместо «Источник кампании» выбираем «Имя хоста».

Аналогичным образом можно отфильтровать спамные данные и по другим параметрам. Главное, определить параметр, который однозначно определит нежелательный источник.

Важно! Обязательно проверяйте фильтр перед применением. К примеру, вы можете указать адрес сайта, имя хоста которого нужно исключить. Предположим, что для сайта в качестве имени хоста указан домен вашего ресурса. Но этот домен автоматически указывается в имени хоста и для всех естественных рефералов. Таким образом, если вы примените «не глядя» этот фильтр, данные из естественных источников также будут исключены.

Исключение обращений роботов

Исключить Crawler Referrer Spam можно в настройках представления. Последовательность та же:

  1. Войдите в аккаунт Google Analytics.
  2. Перейдите на вкладку «Администратор».
  3. Выберите представление.
  4. Войдите в «Настройки представления».

Как настроить представление Google Analytics 5. Отметьте пункт «Исключение обращений роботов и пауков». Исключение обращений роботов из данных представления Google Analytics Теперь Google Analytics на основании собственного алгоритма будет определять обращения роботов и отсеивать их.

А нужно ли заморачиваться?

Мы решили поинтересоваться у Middle SEO специалиста агентства Netpeak Алексея Данилина о том, как он фильтрует данные по своим проектам. По мнению Алексея, все зависит от ситуации. Прежде чем тратить время на отслеживание спамеров и настройку фильтров, стоит оценить, нужно ли это конкретному проекту. Если спам составляет незначительную часть всей аналитики, или если вам важно отследить отдельную тенденцию среди пользователей (например, распределение мобильных и десктоп посещений) — можно отфильтровать данные, просмотрев это соотношение только для посетителей из органического поиска, или для всех посещений, кроме реферального трафика.

Чтобы избежать путаницы в событиях, можно заранее отнести каждое настроенное событие к отдельной группе, при этом все возможные внешние события будут оставаться в общем списке и никак не попадут в какую-то из групп. Когда вы создаете отдельное представление, безусловно стоит отсеять из статистики обращения роботов и пауков. Настраивать ли дополнительно фильтры от спама — нужно смотреть для каждого проекта индивидуально.

Краткие выводы

Хорошие новости: полную картину по своему сайту видите только вы, никто не имеет доступа в ваш Google Analytics. Плохие новости: отослать ложные данные в ваш GA можно практически всегда. Определить ID — тоже. Хорошие новости: как правило, ID именно Вашего аккаунта никому не нужен. Чаще всего ложные данные попадают в GA после генерации случайных чисел и с целью рекламы другого ресурса. Больше хороших новостей: спам можно исключить из отчетов с помощью фильтров и настроек. Или, если он не мешает жить, можно просто не обращать на него внимания. Остались вопросы? Будем рады ответить на них в комментариях.

Обнаружили ошибку? Выделите ее и нажмите Ctrl + Enter.

SimilarWeb – лучший онлайн инструмент для конкурентной разведки.

Не секрет, что одной из основных задач Интернет маркетолога является исследование конкурентов. Я считаю, что разработка любой стратегии должна начинаться с анализа индустрии, конкурентов, а также их методов продвижения. К счастью, на сегодняшний день существует достаточное количество инструментов, которые помогают нам, маркетологам, проводить качественные исследования рынка. В этой статье я хочу рассказать о самом мощном на мой взгляд онлайн инструменте конкурентной разведки – сервисе SimilarWeb. Тут вы можете узнать, почему SimilarWeb превосходит конкурентов.

SimilarWeb – это онлайн сервис, который позволяет анализировать Интернет трафик в разрезе регионов и тематик, определять основных игроков в той или иной сфере деятельности, а также каналы их продвижения. Все данные предоставляются в виде доступных диаграмм и графиков с возможностью детализации и выгрузки данных. Сервис позволяет оценивать как веб-сайты, так и мобильные приложения.
Давайте взглянем, какие данные можно получить с помощью сервиса SimilarWeb. Начнем с самого общего – анализа индустрии. Такого рода анализ очень помогает на этапе формирования стратегии продвижения в случае выхода на рынок, или же в проведении регулярных маркетинговых исследований и определении трендов в случае, если у Вас есть действующий Интернет проект. Анализ индустрии(Industry Analysis) позволяет сделать выводы об объеме трафика в индустрии, определить основных игроков и их методы продвижения в разрезе конкретных географических регионов.
В SimilarWeb есть своя отраслевая классификация – список, из которого Вы можете выбрать интересующую Вас сферу. Разумеется, если Вы работаете в какой-то достаточно узкой специализации, Вы можете не найти своей сферы деятельности в этом классификаторе, однако в таком случае Вы можете выбрать сферу, которая включает в себя Вашу область деятельности или приближенную к ней. Впрочем, перечень индустрий в SimilarWeb достаточно широкий. Помимо этого Вы можете выбрать регион, в котором Вы работаете (по умолчанию будет отображена статистика по всему миру).

В результате Вы получите обзор индустрии со следующим набором данных – общий объем трафика в индустрии с учетом выбранного Вами региона, доля трафика в выбранной Вами индустрии от общего объема трафика по региону, основные источники трафика в индустрии и др.

Если Вы анализируете показатели индустрии во всем мире, то в разделе География, Вы сможете увидеть, какие страны генерят наибольшее количество трафика в выбранной Вами индустрии. Таким образом, если у Вас – международный проект, Вы можете определить наиболее приоритетные регионы для развития Вашего бизнеса.

В разделе Анализ Индустрии – Источники Трафика(Industry Analysis – Traffic Sources) Вы можете увидеть перечень реферальных сайтов и социальных сетей, которые приносят наибольшее количество трафика на сайты в анализируемой индустрии, а также, какие ключевые слова генерят наибольшее количество трафика в индустрии.В разделе Лидеры Категории Вы можете увидеть сайты, которые получают наибольшее количество трафика в выбранной Вами индустрии, отранжированные по доле трафика.

Это очень интересный отчет, т.к. тут Вы можете найти сайты конкурентов, о которых Вы возможно даже и не подозревали. Высокий уровень детализации позволяет Вам проанализировать любой из сайтов конкурентов более серьезно, но об этом чуть позже.

После того, как Вы проанализировали индустрию в целом и определили своих основных конкурентов, Вы можете приступать непосредственно к конкурентной разведке. В этом Вам поможет раздел SimilarWeb WebSite Analysis. Тут Вы можете определить основные источники трафика, которые используют Ваши конкуренты, количество посетителей Ваших конкурентов, оценить другие важные показатели сайтов конкурентов, такие, как время проведенное на сайте, количество просмотренных страниц за один визит и показатель отказов.
Для того, чтобы проанализировать сайт конкурента, Вам необходимо перейти в отчет WebSite Analysis программы SimilarWeb и ввести название интересующего сайта в окно поиска.
В общем отчете по аудитории сайта (WebSite Audience) Вы сможете увидеть общее количество посещений анализируемого сайта за последние полгода, график изменений количества посещений помесячно и описанные выше метрики для выбранного Вами сайта, а также основные источники трафика. Тут важно понимать, что в обзоре указан только десктопный трафик, для анализа мобильного трафика нужно использовать отдельную закладку Mobile Web Traffic.

С целью получения более подробной информации об источниках трафика Вам необходимо перейти в раздел Traffic Sources (это можно сделать как из главного меню слева, так и кликнув по любому из источников трафика на диаграмме Источники Трафика(Traffic Sources) в общем обзоре).

Кроме того, в SimilarWeb есть уникальная новая опция — возможность посмотреть количество мобильного трафика и его соотношение с десктопным трафиком.



В подразделе Referrals отчета Источники Трафика вы можете увидеть список сайтов, которые приводят наибольшее количество трафика на сайт Вашего конкурента. Это однозначно очень поможет Вам в определении сайтов для размещения рекламы или для привлечения ссылок.

В подразделе Search Вы можете увидеть список основных ключевых слов, которые генерируют трафик на сайт конкурента.

В этом отчете есть отдельные закладки для поискового и рекламного трафика. И здесь, в отчете по органическим ключевым запросам скрыта одна из основных уникальных «фишек» SimilarWeb. Дело в том, что в отчете по поисковым запросам Вы можете увидеть те данные, которые не видит даже сам конкурент, сайт которого Вы анализируете, а именно – список запросов, по которым пользователи переходят на сайт конкурента из органической выдачи Google. Напомню, что уже в течение нескольких лет Google скрывает в отчетах Google Analytics ключевые слова, по которым пользователи переходят на сайт из органической выдачи, помечая их как not provided. А в SimilarWeb ЕСТЬ возможность посмотреть эти слова и использовать полученные данные в дальнейшем для SEO продвижения Вашего сайта. Подозреваю, что у Вас возник вопрос о том, откуда SimilarWeb берет эту информацию, если даже Google ее скрывает. Что ж, я обязательно расскажу Вам об этом в конце статьи 🙂
Также в отчетах SimilarWeb по источникам трафика Вы можете посмотреть, использует ли Ваш конкурент социальные сети и медийную рекламу, и какие именно площадки он использует. Эти данные также очень сильно помогут Вам в формировании стратегии продвижения Вашего сайта.
Кстати, раз я упомянул о стратегии продвижения, хочу рассказать еще про один очень интересный и полезный отчет с точки зрения продвижения сайта Интересы Аудитории(Audience Interests).

В этом отчете указан список сайтов, которые также посещали те пользователи, которые были на Вашем сайте или сайте Вашего конкурента. Как можно использовать эту информацию? Ее вполне можно использовать при настройке рекламы в контекстно-медийной сети Google. В этом отчете напротив каждого площадки есть колонка Adsense, которая показывает, размещает ли сайт у себя медийную рекламу от Google. Можно сформировать такой отчет для Вашего сайта (это же очевидно, что с помощью SimilarWeb вы можете анализировать не только сайты конкурентов, но и Ваш собственный сайт), отобрать площадки, которые размещают у себя блоки рекламы от Google, и разместить на них медийную рекламу своего ресурса. В ближайшее время я планирую провести эксперимент c использованием данного отчета, результатами которого обязательно поделюсь с Вами.
Еще один очень интересный отчет из раздела Анализ Веб-сайтов SimilarWeb, это – Популярные Страницы(Popular Pages).

Этот отчет будет полезен блогерам и владельцам контентных ресурсов, которые заинтересованы в привлечении большого количества поискового трафика и трафика из социальных сетей. Благодаря этому отчету Вы можете узнать, какие из статей Ваших конкурентов были наиболее популярны, а затем написать статьи на подобную тематику, добавив дополнительную ценность в свою статью. Думаю, что по этому кейсу я также проведу в ближайшее время эксперимент, результатами которого поделюсь с Вами.
Не менее полезен отчет о популярных страницах и для е-сommerce проектов. В частности, благодаря SimilarWeb Вы можете установить процент достижений корзины, определить сезонность тех или иных товарных групп и спрогнозировать покупательскую динамику.
Раздел сервиса Конкуренты(Competitors) позволяет определить Ваших основных конкурентов исходя из схожести ключевых запросов и других показателей. Это отличный источник для отбора релевантных сайтов в Вашей тематике для последующего их анализа.

Возвращаясь к вопросу, откуда SimilarWeb получает данные, хочу привести слайд из презентации одного из представителей компании. По словам сотрудников SimilarWeb, основными источниками данных являются собственная панель Интернет пользователей(крупнейшая в Интернете), а также данные собственного робота-краулера и данные партнеров(Интернет-провайдеров). Исходя из этого, думаю, что есть все основания доверять информации полученной благодаря SimilarWeb.

Думаю, Вы убедились в том, что SimilarWeb позволяет получить множество информации о Ваших конкурентах, которая после обработки ее опытным аналитиком может перевоплотиться в мощную стратегию развития Интернет ресурса. Теперь немного слов о стоимости сервиса. SimilarWeb предоставляется пользователям по модели ежемесячной подписки, стоимость которой стартует от 199 долларов в месяц, в принципе это – разумные деньги, учитывая те возможности, которые предоставляет софт.
Программа SimilarWeb может быть полезна в первую очередь владельцам крупных и средних Интернет проектов в высококонкурентных нишах, крупным агентствам Интернет рекламы, стартапам, онлайн маркетологам различных специализаций, блогерам. В целом, если перед Вами стоит задача построить стратегию развития Интернет проекта или провести конкурентный анализ в Вашей нише, обязательно воспользуйтесь SimilarWeb, этот сервис однозначно принесет Вам пользу.

7 инструментов, которые позволят вам узнать многое о сайтах конкурентов

Есть два основных способа учиться – на своих ошибках и на чужих успехах. Согласитесь, второй вариант явно более предпочтительный, так как позволяет сэкономить время и деньги. А эти два ресурса в дефиците у всех.

Анализ конкурентов в интернет-маркетинге в полной мере соответствует заявленному принципу, так как дает возможность понять, что работает, а что нет, перенять успешные практики и приложить усилия в тех направлениях, которые потенциально могут обеспечить наибольшую отдачу.

В наше время достаточное количество инструментов, которые дают возможность узнать о сайтах конкурентов если не все, то очень многое. Причем большая часть из них еще и совершенно бесплатны.

И вот 7 полезных лайфхаков, как применять их на практике.

Смотрим посещаемость чужих сайтов

Пожалуй, один из самых популярных инструментов, которые используются для решения этой задачи – Similarweb.com . Анализировать интересный вам домен можно как на главной странице самого сервиса, так и через плагин для Chrome . Второй вариант просто удобнее, так как получить данные можно буквально одним кликом, никуда не уходя с сайта.

Но в последнее время сервис перестал показывать цифру посещаемости для сайтов со сравнительно небольшим количеством трафика, примерно от 10 тыс. посетителей в месяц и ниже. А для многих коммерческих проектов это вполне себе нормальный показатель, и данные в итоге не отображаются.

Поэтому рекомендуем обратить внимание на еще один интересный сервис – Be1.ru . Это комплексный анализатор сайтов по большому числу параметров, но данные относительно посещаемости он подтягивает с того же Similarweb.

Правда в отличие от последнего показывает цифру посещаемости, даже если у анализируемого сайта она на уровне всего нескольких посетителей в месяц:

Только имейте в виду, что это приблизительные цифры. Очень часто они бывают завышены на 30–50%. Например, для сайта, который в апреле месяце посетило 11 628 пользователей, сервис показывает следующие цифры:

Проверяя через данный анализатор список основных конкурентов, можно отобрать тех из них, у кого больше всего трафика, а значит их анализу стоит уделить особое внимание.

Ищем самые трафиковые страницы

Сегодня, когда ссылки отошли на второй план, контенту уделяется особое внимание. Но далеко не все тексты одинаково полезны. И ситуация, когда большую часть трафика на сайте генерирует 5–10% страниц от общего числа, совсем не редкость.

Если изначально грамотно подходить к составлению контент-плана и стратегии, хороший трафик может давать как минимум каждая вторая статья или страница. Это в разы увеличивает эффективность работы и ускоряет возврат инвестиций от сайта, так как посетителей вы получаете и быстрее, и больше.

Как этого добиться? Есть проверенный способ: проанализировать сайты конкурентов, найти страницы/темы с наибольшей видимостью и создать такие же на своем ресурсе.

В этом деле поможет Serpstat.com , а сам алгоритм работы состоит из следующих шагов:

1. Берем интересный нам сайт, вводим его адрес в строку для анализа на главной Serpstat, выбираем поисковую систему актуальную для целевого региона и жмем «Поиск»:

2. Теперь открываем меню «Анализ ключевых фраз», затем «SEO-анализ» и переходим к пункту «Страницы лидеры». Теперь вы можете видеть страницы сайта, отсортированные по такому показателю, как количество фраз в поиске:

3. Можно экспортировать весь список страниц для дальнейшего анализа или скачать отчет со списком запросов по наиболее трафиковым. Для этого нужно просто нажать на число в колонке «Фраз в поиске» возле конкретного URL, а затем в правом верхнем углу нажать на кнопку «Экспорт» и выбрать нужный формат сохранения данных:

Для того чтобы использовать возможности Serpstat в полной мере, нужно перейти на платный тариф. Но и на бесплатном аккаунте вполне можно собрать хороший набор тем для старта.

Анализируем тексты

Чтобы найти закономерности между эффективным контентом на разных сайтах, можно использовать специальные анализаторы, которые выдают сводку по различным характеристикам исследуемого текста. Один из них, на который стоит обратить внимание, – Istio.com . Сервис удобный и полностью бесплатный.

Просто копируем нужный фрагмент статьи в поле и жмем кнопку «Анализ текста»:

Через несколько секунд получаем результаты анализа со сводной статистикой по таким параметрам, как:

  • количество символов с пробелами и без;
  • количество слов и список тех из них, которые встречаются наиболее часто;
  • тошнота и «водность»;
  • количество вхождений конкретного слова и значение в процентах.

Ниже можно переключаться между вкладками с проверкой орфографии, картой с выделением наиболее популярных слов. Также здесь есть такая интересная возможность, как копирование текста с указанного URL с фильтрацией всего лишнего:

Эта опция – удобный способ проверять страницы чужих сайтов прямо на лету, изучая различные показатели. Например, можно понять, что общего у страниц из ТОПа по конкретному запросу.

Изучаем, откуда идут переходы

Анализ реферальных переходов позволяет найти интересные источники получения посетителей в дополнение к органическому трафику. Для контентных проектов это возможность задействовать дополнительные каналы привлечения аудитории, а для коммерческих – увеличить продажи и получить дополнительные лиды.

Чтобы узнать, откуда идут переходы на чужой сайт, используем также Similarweb. Просто переходим на вкладку Referrals в отчете и смотрим колонку слева – Top Referring Sites:

Бесплатная версия сервиса показывает только ТОП 5 источников, с которых идут переходы, но даже этого вполне достаточно, чтобы собрать хорошую базу для работы. Если работать с внешними площадками регулярно, можно привлекать неплохой дополнительный трафик:

Также стоит обратить внимание на вкладку Social. Здесь выводятся данные по социальным сетям, из которых идут переходы на сайт, с сортировкой источников от большего к меньшему:

Где у них проставлены ссылки

Как уже упоминалось выше, ссылки уже нельзя назвать первоочередным фактором ранжирования, но к списку основных их все еще можно отнести. Даже для информационного сайта они будут полезны, так как придают определенный «траст» при оценке алгоритмами поисковиков. А для коммерческих проектов хороший ссылочный профиль может стать той самой золотой акцией, которая поможет дойти до ТОПа.

Проблема в том, что получать действительно хорошие ссылки становится все сложнее, хороших доноров в биржах мало и стоят они дорого. В Рунете начинают набирать популярности те же методы линкбилдинга, что и за рубежом – крауд-маркетинг и контент-маркетинг на внешних ресурсах.

Проще всего собрать базу для линкбилдинга путем анализа сайтов-конкурентов через такие сервисы, как Ahrefs.com и Megaindex.com. Пример отчета, полученного через Ahrefs:

И отчет по тому же сайту, но уже через Megaindex.com (модуль «Внешние ссылки»):

Конечно, Ahrefs мощнее и его база более актуальна, но и разница в цене существенная – $99 против $49, что делает Megaindex явно более предпочтительным вариантом.

Разница в объеме данных небольшая по сравнению с переплатой почти в два раза.

И что пользуется популярностью в соцсетях

Если анализ видимости страниц чужих сайтов в поиске является одной из наиболее распространенных задач при анализе конкурентов, то о виральности контента большинство специалистов совершенно не задумываются. А ведь это не менее важно, так как вирусное распространение в соцсетях может привести на сайт тысячи посетителей за короткое время и с минимальными вложениями на старте.

Существует множество медиапроектов и в Рунете, и за рубежом, которые ориентированы именно на социальные сети (преимущественно Facebook) как основной источник получения трафика. Просто взгляните на пример ниже:

Для такой аналитики можно посоветовать только один действительно мощный инструмент – сервис Buzzsumo.com . Он умеет как выдавать наиболее популярный в социальных сетях контент по искомой фразе/ключевому слову, так и показывать самые расшариваемые страницы на конкретном сайте:

Как видно по скриншоту, по умолчанию сортировка осуществляется по общему числу расшариваний, но также выводится и счетчик отдельно по конкретной социальной сети (Facebook, LinkedIn, Twitter, Pinterest). При желании можно сортировать результаты по нужной платформе.

Бесплатный аккаунт показывает список из 5 самых популярных страниц за последний год. Негусто, но, если есть большой список ресурсов для анализа, этого будет достаточно, чтобы составить хорошую подборку потенциально виральных тем.

Подведем итоги

Анализ конкурентов поможет получить достаточный объем информации для составления грамотной стратегии продвижения, которая позволит добиться большего с меньшими затратами времени и денег. Полученные данные можно использовать как для оценки ниши при запуске сайта, так и для «подтягивания» в ТОП важных посадочных страниц даже в тематиках с действительно высокой конкуренцией.

Многие инструменты, которые пригодятся в этом деле, доступны для использования совершенно бесплатно. Другие же предлагают ограниченные возможности для триал-аккаунтов, которыми можно воспользоваться на старте, а затем уже переходить на платные тарифы.

Надеемся, перечисленный в этой статье джентельменский набор инструментов, пригодится вам в работе не раз. Неважно – для своих или для клиентских проектов – они будут одинаково полезны, позволяя получать больше результатов с меньшими усилиями.

Нестандартные способы продвижения в интернете (2018)

Для начала подпишитесь на наш Telegram-канал, чтобы первыми получать самые свежие сливы курсов, бизнес идей и схем заработка.

Как получать трафик на сайт, используя чужие ресурсы?

Одно из ключевых преимуществ продвижения в интернете в том, что он уравнивает возможности крупных игроков и малого бизнеса. Если в офлайне размер и ресурсы часто имеют решающее значение, то в сети всегда можно найти другие пути для достижения поставленных целей.

Я хочу акцентировать внимание именно на поиске нестандартных решений. Продвижение сайта стандартными методами, такими как контекстная реклама и «правильное» SEO, скорее всего, просто приведет вас к гонке бюджетов, в которой у небольшого бизнеса или начинающего предпринимателя будут заранее проигрышные позиции.

Поэтому нужно искать дополнительные способы привлечения посетителей, чтобы обойти конкурентов, не вступая в прямое противостояние. Особенно если вы работаете в нише, где уже есть крупные игроки.

Идите туда, где есть ваша аудитория

Есть два основных способа получить на сайт больше трафика — привлечь пользователей на свой сайт с поиска/платной рекламы или пойти туда, где эта самая аудитория «обитает». Второй метод позволяет получить трафик быстрее, не дожидаясь пока вам начнут давать его с органической выдачи сами поисковые системы. Вы просто можете использовать для этого чужие ресурсы.

В контент-маркетинге это называется «посев» — этап работы, на котором созданные ранее статьи и другой контент (видео, инфографика) распространяется за пределами сайта с целью увеличения охвата и привлечения новых посетителей. А так как работа с контентом постепенно становится неотъемлемой составляющей любой грамотной SEO-стратегии, удачные практики можно и нужно использовать при работе над самыми разными проектами.

В основе той схемы работы, которую я опишу далее, лежит именно хороший контент. Привлекать посетителей путем распространения интересных для целевой аудитории статей — гораздо проще и эффективнее, чем пытаться продвигать ссылки на главную страницу сайта или страницы услуг. Это сразу будет воспринято как прямая реклама и реакция будет соответствующая.

С теорией мы разобрались, а теперь перейдем к практике.

Изучаем аналитику (и конкурентов тоже)

Если ваш сайт добавлен в сервисы веб-аналитики, вы можете отслеживать, по каким каналам идут переходы на сайт. Даже если вы не занимаетесь активным SEO-продвижением, основным источником трафика обычно является органический поиск. В Google Analytics данный отчет выглядит примерно так (контентный проект):

Для коммерческих проектов, например, интернет-магазинов, здесь могут отображаться еще и платные источники трафика (контекстная реклама):

А вот как выглядит распределение посещаемости по каналам для проекта, который активно привлекает переходы еще и с других сайтов:

Обратите внимание на пункт «Referral», в этом отчете можно посмотреть переходы, которые идут на ваш сайт с чужих ресурсов, и найти таким образом интересные источники трафика. Например, на один из моих проектов за месяц было более двухсот переходов с комментариев Disqus:

И вряд ли бы я догадался, что можно использовать эту систему для получения трафика, если бы не изучение данных по реферальным переходам в аналитике.

Если же с аналитикой вы не очень дружите или просто хотите получать статистику по трафику в более удобном и не перегруженном информацией виде, можно воспользоваться сторонними сервисами, например, SEO-Reports. Здесь отчеты более наглядные и простые для восприятия, а ненужную статистику можно просто отключать:

Еще одна интересная вещь — изучение источников реферального трафика на сайтах конкурентов. Получить такую информацию можно при помощи сервиса Similarweb. Просто вбейте URL нужного сайта в поле для анализа (или воспользуйтесь плагином для Chrome) и переключитесь на вкладку «Referrals». Здесь слева и отображается список основных переходов:

Так что можно собрать список основных конкурентов и просто посещаемых контентных проектов в своей нише, заваривать кофе, усаживаться поудобнее и отправляться в увлекательное путешествие с целью сбора базы для будущей обработки.

А теперь давайте пройдемся конкретно по наиболее эффективным в плане отдачи ресурсам.

Сообщества в социальных сетях

Большинство владельцев сайтов чаще всего ограничиваются созданием страницы-представительства компании и дальше этого не идут. Некоторые тестирует таргетированную рекламу для своих публикаций, но многие разочаровываются в ее эффективности и тоже забрасывают дело.

Но Facebook и ВК могут стать отличным источником трафика, если подойти к этому делу с умом. Причем трафика совершенно бесплатного — вложить придется только свое время или время сотрудников, которым эта задача будет делегироваться в будущем.

Суть в том, что в социальных сетях есть немало сообществ по интересам, которые релевантны той тематике, в которой вы работаете. И если присоединиться к ним в качестве участника, а затем аккуратно делиться там своими публикациями, можно получать хорошую отдачу:

Есть группы с десятками тысяч участников, так что количество переходов может быть очень хорошим. Ну и это все бесплатно, о чем точно не стоит забывать.

Тематические форумы и сообщества

Форумы «хоронят» уже не первый год, но они живее всех живых. И могут давать трафик долго и успешно. Причем он хорошо конвертируется и в B2C- и B2B-нишах.

Наиболее очевидный метод работы с такими площадками — по технологии крауд-маркетинга. То есть «партизанский» посев контента в виде упоминаний и рекомендаций в тематических ветках и обсуждениях — как тематических, так и инициированных лично вами.

Также стоит обратить внимание на UGC-сообщества и сервисы вопросов и ответов, которых хоть и существует меньше, но для некоторых тематик можно найти парочку интересных.

Если дело пошло, и вы становитесь активным участником определенного форума, стоит обратить внимание на такую интересную опцию, как возможность добавления ссылки на свой сайт в подписи, которая обычно становится доступной после набора определенного количества сообщений.

Здесь можно указать ссылку на главную страницу сайта и саму подпись оформить как призыв к действию, что тоже будет давать положительный эффект.

Гостевые публикации

Наверное, я не буду преувеличивать, если назову это направление одним из самым эффективных методов работы по внешним ресурсам. Оно же относится и к самым сложным, долгим в плане отдачи и затратным по временным ресурсам. Хотя все перечисленные пункты смело можно отнести к порогу входа, который защитит вас от конкурентов на этом поле.

Суть довольно проста: находить качественные и посещаемые сайты в своей нише (контентные проекты и медиа), контактировать с их администрацией и писать им относительно размещения публикаций от своего имени. Работа по модели Win-Win: владельцы сайта получают качественный контент, а вы — узнаваемость, переходы и качественные ссылки.

Сложности лежат в плоскости реализации. Нужно найти хорошего автора, который бы отлично разбирался в теме (или писать самому), тратить время на поиски, договоренности, создание контента, а главное — делать все это придется регулярно. И через несколько месяцев такой работы вы сможете ощутить действительно хорошую отдачу.

Несколько примеров моих статей на других сайтах:

Просто взгляните на счетчик просмотров и поймете, что игра стоит свеч. А представьте себе, что таких статей у вас будут десятки? Определенно, потраченное время окупится, или как минимум это стоит того, чтобы попробовать.

Если систематически работать по направлению внешнего контент-маркетинга, создавая качественный контент для других ресурсов, можно получать постоянные переходы действительно высокого качества на свой сайт.

Эффект множества ручейков

Я недаром дал именно такое название заключительному пункту этой статьи. Привлечение трафика по множеству каналов можно сравнить с тем, как большое количество небольших горных источников соединяются друг с другом по пути, превращаясь в полноводный ручей или самую настоящую реку.

Грамотная работа по всем перечисленным выше направлениям может обеспечить постоянный приток трафика, иногда сравнимый по объему с переходами с органического поиска. Такая посещаемость часто отличается хорошим показателем конверсии, а главное — вы сможете снизить зависимость от колебаний алгоритмов поисковиков и получать хороший трафик даже в довольно узких нишах.

Секрет успеха здесь такой же, как и во многих других вещах: работать, ставить эксперименты и делать выводы. Но главное — перестать откладывать и просто начать.