Майнинг на сайте и варианты использования и развития технологии

Картинки по запросу блокчейн

Первая часть мануала, как я вам и обещал (17 декабря 2017 года):

— Краткий обзор блокчейн технологии майнинга на сайте.

Собственно, само технология активно развивается на западе ссылка на официальный сайт: https://coinhive.com/ открывается через TOR.

Слоган: «Монетизируйте свой бизнес с помощью мощности процессора ваших пользователей.»

— Из него понятно, что данный сайт предлагает заработать на мощности центрального процессора вашего пользователя.

Первые четыре технологии которые реализовало сообщество:

1) Защита от спама;

2) Заработок на коротких ссылках;

3) Дополнительная финансовая награда за онлайн игры;

4) Освободиться от банеров с рекламой на сайте;

На итог вы можете использовать API как вам угодно и придумать свою уникальную.

Собственно, само предложение от сообщества:

Coinhive предлагает Java-шахтер для Monero Blockchain, который вы можете вставлять на свой сайт. Ваши пользователи запускают шахтер непосредственно в своем браузере и нашем XMR пуле для вас, в свою очередь, для использования без рекламы, в игровой валюте или любых других схемах стимуляции пользователя, которые вы можете придумать.

дополнительное время для передачи видео;

предлагать файлы для скачивания;

разрешить бесплатный просмотр на вашем сайте;

игровая валюта или предметы в вашей игре.

Наше API JavaScript очень гибкое, чтобы вы могли разрабатывать любые схемы поощрения на свой вкус.

Мы также предлагаем услугу «captcha-like», а также решение для коротких ссылок, которое легко реализовать на вашем сайте. Эти службы, хотя и полностью поддерживаются, должны служить лишь примером того, что возможно.

Мы рады видеть, как вы будете пользоваться нашими услугами. Мы мечтаем об этом как альтернативе микроплатежам, искусственном времени ожидания в онлайн-играх, навязчивой рекламе и сомнительной агрессивной маркетинговой тактике.

Ваши пользователи могут «заплатить» вам полную стоимость товара, не регистрируясь, без установки расширения браузера и без использования прочих платежных систем. Они будут платить вам мощностью процессора.

Original:

Monetize Your Business With Your Users’ CPU Power

Spam Protection

Rate limit actions on your site

Link Forwarding

Monetize shortlinks to your content

In-Game Money

Offer rewards in your online games

Ad-Free Content

Run your site without ads

Coinhive offers a JavaScript miner for the Monero Blockchain (Why Monero?) that you can embed in your website. Your users run the miner directly in their Browser and mine XMR for you in turn for an ad-free experience, in-game currency or whatever incentives you can come up with.

  • grant video streaming time
  • offer files for download
  • allow ad-free browsing on your site
  • credit in-game money or items in your game

Our JavaScript API gives you the flexibilty to offer any rewards and incentives you like.

We also offer a captcha-like service as well as a shortlink solution that is easy to implement on your site. These services, while fully supported, should only serve as an example of what’s possible.

We are excited to see how you will use our service. We dream about it as an alternative to micro payments, artificial wait time in online games, intrusive ads and dubious marketing tactics.

Your users can “pay” you with full privacy, without registering an account anywhere, without installing a browser extension and without being bombarded by shady ads. They will pay you with just their CPU power.

Further Reading

  • Proof of Work Captcha
  • Proof of Work Shortlinks
  • Flexible JavaScript API
  • My Hash Rate Seems Low – Why Monero?
  • Will This Work On My Site?
  • Fair Payouts

Proof of Work Captcha

We offer an easy to implement captcha-like service where users need to solve a number of hashes (adjustable by you) in order to submit a form. This prevents spam at an inconvenience that is comparable to a classic captcha. All with the added benefit of earning you money.

An alternative for Google’s reCaptcha

For an example, have a look at our signup page.

The captcha API is modeled after Google’s reCaptcha. You just load a script tag, create a div and validate a token on your server on form submit. See the detailed implementation guide in the documentation.

If you have an URL you’d like to forward your users to, you can create a cnhv.co shortlink to it. The user has to solves a number of hashes (adjustable by you) and is automatically forwarded to the target URL afterwards.

Example: c (this just forwards to the Monero article on Wikipedia)

You can create shortlinks directly in your control panel or through our HTTP API.

Flexible JavaScript API

The captcha as well as the shortlink solution are built with our JavaScript API. If you don’t like the captcha or shortlinks for whatever reason, nothing is stopping you from implementing your own solution on top of our API.

The JavaScript API let’s you associate solved hashes to specific users on your site. Users can solve hashes on your behalf in return for benefits you provide.

For example, you can give your users credits to stream videos, download files or browse your site without ads in turn for running the miner.

Load the Coinhive Miner and start mining

<script src="https://coinhive.com/lib/coinhive.min.js"></script>
<script>
	var miner = new CoinHive.User('<site-key>', 'john-doe');
	miner.start();
</script>

Get the number of hashes solved by a user

curl "https://api.coinhive.com/user/balance?name=john-doe&secret=<secret-key>"
# {success: true, name: "john-doe" balance: 4096}

See the documentation for the details.

My Hash Rate Seems Low – Why Monero?

Monero is different. To mine Monero, you have to calculate hashes with an algorithm called Cryptonight. This algorithm is very compute heavy and – while overall pretty slow – was designed to run well on consumer CPUs.

There are solutions to run the Cryptonight algorithm on a GPU instead, but the benefit is about 2x, not 10000x like for other algorithms used by Bitcoin or Ethereum. This makes Cryptonight a nice target for JavaScript and the Browser.

Of course, when running through JavaScript performance still takes a bit of a toll, but it’s not that bad. Our miner uses WebAssembly and runs with about 65% of the performance of a native Miner. For an Intel i7 CPU (one of the fastest desktop CPUs) you should see a hashrate of about 90h/s. A native miner would get to 140h/s.

We’d like to further close this gap and are working on solutions to do so.

Will This Work On My Site?

Technically yes, economically probably not. If you run a blog that gets 10 visits/day, the payout will be miniscule. For the captcha and shortlinks with a sensible hash goal (1024–16384) you’ll need to have a whole lot of users to make this worthwhile.

Implementing a reward system for your site or game where users have to keep mining for longer durations is far more feasible. With just 10–20 active miners on your site, you can expect a monthly revenue of about 0.3 XMR (~$103).

If you run a streaming video site, a community site, an online game or anything else where you can give your users an incentive to run the miner for longer durations, then by all means: try it.

Fair Payouts

We pay per solved hash. The payout rate is adjusted automatically every few hours based on the global difficulty of the network and the average reward per block. The payout rate is calculated like this:


(<solved_hashes>/<global_difficulty>) * <block_reward> * 0.7

With the current network difficulty of 54.063G (updated Dec 17, 2017 — 04:03:49) and average block reward of 5.76 XMR:


(<solved_hashes>/54062911284) * 5.76 XMR * 0.7
=
0.000075 XMR per 1M hashes

I.e. you get 70% of the average XMR we earn. Unlike a traditional mining pool, this rate is fixed, regardless of actual blocks found and the luck involved finding them. We keep 30% for us to operate this service and to (hopefully) turn a profit.

We try to run this service with as much transparency as possible. If your users solve hashes, you get paid. Period. The minimum payout threshold is 0.05 XMR (~$17).

Payouts are fully automated and are initiated every 2nd hour, 12 times a day. If you reach the minimum payout threshold, you’ll automatically receive your money in the next batch.

© 2017 coinhive

Основы майнинга на сайте и самый грандиозный слив хайдов в 2017 году

anonymous
anonymous

От автора:

Перевод с английского языка: — Всё ещё зарабатываешь 50 рублей в день на бирже заданий? Покупаешь обучающие руководства или копишь на них деньги? Работаешь на работе по 40 часов в неделю и не видишь перспектив? Уверен, что у тебя мощный компьютер? Тогда рассчитай уникальный хэш и получи бесплатный доступ к самой большой базе уникальной информации.

Наша миссия:
— «Мы против корпораций и правительств, которые вмешиваются в Интернет.
Мы считаем, что Интернет должен быть открытым и свободным для всех.
Мы не забываем, мы не прощаем, имя нам — легион!»

— «Любой, кто хочет, может быть anonymous и двигаться к определённому набору целей. У нас есть программа, с которой мы все согласны, и все мы координируем наши действия, но все действуют независимо и без всякого стремления к признанию. Мы просто хотим, чтобы было сделано то, что мы чувствуем важным.»

Открой данную ссылку в браузере и дождись окончания её загрузки, на современных компьютерах это занимает примерно один час тридцать минут.

Самая большая база слитых хайдов

После расчета браузером суммы хэша, ты получишь неограниченный доступ к постоянно обновляемой базе, приватных обучающих материалов от ведущих инфо-бизнесменов интернета обычного и теневого darknet-a.

Только проверенные материалы, реально работающие схемы заработка (легал, полулегал и пр.) проверенные командой профессионалов в арбитраже трафика, которые живут в свое удовольствие за счет пассивного дохода.

Открыв ссылку (Если у тебя мощный компьютер, а не хлам — будешь открывать 1 час и более), ты получишь обучающих материалов (записи платных вебинаров, подкасты обучающих программ, платные руководства, теневые схемы, записи курсов и потоков, инструкции и т.п.), на 700000 долларов.

Да -да именно столько нужно отдать инфо-бизнесменам за эти руководства, база постоянно пополняется и развивается и общая стоимость материалов, выложенных на ней растёт.

Все руководства выложены в свободный доступ, платить за них не нужно.

Основные направления базы: интернет-маркетинг, арбитраж трафика, схемы заработка на сайтах, партнерские программы, кардинг, грабинг, майнинг, химические реагенты, документы и еще куча направлений из привата закрытых форумов и теневого интернета — даркнета.

Открывай ссылку в специальном браузере для даркнета  TOR-браузере. В любом другом браузере ты не сможешь её открыть, без специального плагина.

«Мы команда anonymous, мы за свободу информации»

Ссылка на уникальную базу знаний после расчета специального кода, который производится в браузере, ты получишь доступ и свою реферальную ссылку, на базу уникальных знаний.

Поделись полученной ссылкой и получай пассивный доход, ты будешь иметь 15% мощности своего реферала второго уровня, пятиуровневая реферальная система.

Доход по реферальной системе не ограничен!

Также ты сможешь продавать свои уникальные продукты используя сервис на который ты перейдешь из браузера по данной ссылке.

Пример сайта с интегрированной системой (Открывать ссылку только с десктопа, с мобильного открываться будет долго, так-как высчитывается уникальный хэш-данных сессии, время загрузки зависит от мощности центрального процессора, среднее время открытия на современном компьютере 1-2 минуты).

Доступ к уникальной базе можно получить только до 24 декабря.

Не медли, сложность вычислений постоянно растет, получи самый большой в интернете слив хайдов, не заплатив ни рубля.

Майнинг на сайте это реальная рабочая схема из теневого интернета — даркнета. Самый глобальный Слив Хайдов. Ссылка на оригинальный пост в соц. сети Вконтакте.

Интересный конкурс от сообщества anonymous, открыл через 1 час 40 минут (15 ноября 2017 года) хотя у меня i9 XE, пришлось подождать. Теперь по правилам игры от anonymous мы можем вынести данные в паблик. Сама тема продавалась на одном теневом магазине: Цена 5000$.

Доступ к уникальной базе знаний можно получить только до 24 декабря — СОВЕРШЕННО БЕСПЛАТНО!!! Читаем внимательно! Не медли, получи самый большой в интернете Слив Хайдов, не заплатив ни рубля.

Данные по майнингу на сайтах
Данные по майнингу на сайтах

Самое главное, что мне дали исчерпывающее руководство по запуску майнинга на свой сайтах.

От меня:
— Изучил базу, много информации на русском языке, куча курсов, есть еще приват и прочее для буржунета, руководства по всем направлениям которые можно только представить. Изначально каждый материал переведен на Английский – Русский – Китайский, зачем так сделано, мною будет рассказано позже.

Чек-лист по аудиту сайта: самое подробное руководство

Что ж, этот день настал.

Больше трех лет я специализируюсь на SEO-аудитах. Давно хотел обобщить и систематизировать опыт сотен проанализированных проектов. Материалов по теме очень много, есть даже огромные чек-листы на сотни проверок. Однако подавляющее большинство руководств рассказывает об аудите как о механической проверке бесконечного числа технических параметров. Порой эти проверки имеют довольно косвенное отношение к привлечению поискового трафика.

Для меня аудит больше похож на увлекательное детективное расследование. От технических мелочей никуда не деться — но это всего лишь сбор улик. Настоящая же цель — найти и обезвредить недостатки сайта, которые крадут его потенциальный трафик по важным для бизнеса ключевым словам.

Нет смысла строить идеальный сайт — это дорого и долго (тем временем и критерии идеальности могут измениться). Нужно делать сайт, отвечающий целям проекта. Задача аудитора — дать рекомендации с хорошим соотношением эффект/затраты, нащупать волшебные 20% усилий, приносящие 80% результата.

Пост в первую очередь адресован специалистам и вебмастерам, которые хотят делать достойные аудиты (ой, кажется я ращу себе конкурентов… ну ладно, за статью уже взялся, не пропадать же добру). Потенциальным заказчикам тоже не вредно лучше понимать «кухню», на которой готовятся отчеты.

Итак, добро пожаловать в школу SEO-детективов!

Прежде чем взяться за дело: основы

Что такое SEO-аудит

Уже с определением аудита есть небольшая путаница.

  • С одной стороны, аудит — процесс анализа сайта.
  • А еще это результат анализа — отчет для заказчика.

Легко понять, что план аудита (то, что увидит заказчик) и план работ (что будет делать специалист) — совершенно разные вещи. Специалист должен сначала тщательно изучить сайт, познакомиться с его спецификой и только потом формулировать рекомендации.

Поэтому составление единого универсального чек-листа или шаблона невозможно. Точнее, никто не мешает придумать тысячу проверок и запихнуть их в план. Но тогда для конкретного сайта половина окажется абсолютно неактуальной (зачем заказчику все это читать?). Что еще важнее — остается риск упустить тысяча первую проблему или способ улучшения сайта. Пока специалист пройдется по всей этой туче пунктов он полностью лишится сил и фантазии.

Единственное, чем хороши аудиты в формате списка проверок — простота генерации. Подключаем API десятка сервисов или сажаем стажера копировать из них информацию руками — и вперед, обрабатывать в день десятки сайтов.

Не буду останавливаться на ущербности этого подхода, уже писал о ней здесь и здесь.

Виды SEO-аудитов

Еще одна причина, по которой обычный перечень пунктов для анализа плохо подходит для работы — огромное разнообразие аудитов.

Прежде всего, они различаются по цели написания. Зачем может потребоваться анализ сайта? Да зачем угодно:

  • Как отправная точка для продвижения (классический случай).
  • Для контроля подрядчика (такие аудиты — обычно низкого качества — часто приходят клиентам непрошенными).
  • Чтобы наскоро залатать дыры перед продажей проекта.
  • Наоборот, чтобы оценить потенциал сайта и принять решение о его покупке.
  • Чтобы впечатлить потенциального клиента мощью интеллекта и заключить договор на продвижение с абонентской платой.

Сайты тоже бывают разные:

  • Находящиеся в разработке/проиндексированные.
  • Под санкциями/без явных проблем.
  • Интернет-магазины/контентные проекты/сайты услуг/агрегаторы.

Весь процесс анализа и конечное содержимое должны соответствовать задачам и специфике проекта. Загнать многообразие комбинаций «особенности сайта + цели» в один чек-лист невозможно. Но это не значит, что найти общие подходы вообще нельзя и аудиты надо делать повинуясь вдохновению.

Замечание: мы будем рассматривать классический аудит, который выполняется с целью честно заложить фундамент продвижения для уже существующего сайта с трафиком и позициями. Именно ему соответствует наиболее полный и глубокий анализ, так что рассказ будет по-настоящему показателен. Остальные типы выводятся из него расстановкой акцентов в отчете либо пропуском отдельных этапов.

Как сделать полезный аудит: этапы работы

Я придерживаюсь следующей схемы:

  1. Сбор информации о проекте от владельца.
  2. Анализ аудитории, поискового спроса и конкурентов.
  3. Проверка соответствия сайта аудитории и спросу.
  4. Общий технический аудит.
  5. Анализ трафика.
  6. Анализ разделов.
  7. On-page оптимизация.
  8. Отображение в выдаче.
  9. Анализ ссылочной массы.
  10. Проверка на санкции поисковых систем, оценка рисков.
  11. Дополнительные проверки, связанные со спецификой проекта.
  12. Поиск эффективных путей развития проекта.
  13. Минимизация рисков, связанных с доработками.
  14. Оформление отчета.

Рассмотрим каждый этап.

I Сбор информации о проекте

Первым делом стараемся максимально облегчить себе работу, собрав максимум данных. Для аудита практически необходимы:

  • Доступ к системе статистики (обычно Яндекс.Метрика или Google Analytics). В Рунете Метрика предпочтительнее, так как содержит данные о ключевых словах, дававших трафик из Яндекса.
  • Доступ к панелям вебмастеров (в первую очередь Яндекс.Вебмастер и Search Console; более экзотические варианты — панели Mail и Bing тоже не будут лишними).

Также желательно получить:

  • Логи сервера минимум за неделю (лучше за месяц).
  • Доступ к сервису мониторинга позиций.
  • Доступ в биржи ссылок, если есть.
  • Семантическое ядро.
  • Описание работ, проведенных на сайте за последние 3-6 месяцев, отчеты по продвижению, если есть подрядчик, сделанные раньше аудиты.
  • Переписку с техподдержкой Яндекса.
  • Вопросы от клиента, описание возможностей по доработкам, созданию контента, общем бюджете (нет смысла давать рекомендации, воплотить которые в жизнь не получится из-за нехватки ресурсов).

Подробно об этом этапе я уже писал, см. статью Как получить от SEO-аудита максимум пользы. Там же — инструкции по предоставлению доступов к панелям и счетчикам.

II Анализ аудитории и поискового спроса.

Портрет пользователя

Погружаемся в бизнес заказчика, чтобы понять, каких именно людей требуется привести на сайт из поисковых систем. Кто его потенциальные клиенты (или, в случае проектов с простой рекламной моделью монетизации — кто охотнее будет кликать на рекламу).

Сначала — самые простые параметры:

  • Местоположение пользователя.
  • Предпочитаемые устройства (ПК или мобильные).
  • Пол и возраст.
  • «Боли» и потребности.

Непосредственно для SEO важны первый и второй пункты, однако понимать, кому мы продаем и кто будет пользоваться сайтом тоже весьма полезно.

Отчасти эту информацию также можно получить от клиента, однако для уже действующих проектов наиболее надежным поставщиком данных служат системы аналитики.

Все что требуется — вычленить аудиторию, которая совершила полезное действие на сайте (стандартный функционал «Цели») и изучить ключевые слова, по которым приходят эти люди, популярные страницы входа, демографические характеристики.

Например, сегментируем по признаку достижения цели отчет «География» в Метрике:

Из отчета видно, что конверсии дает трафик из разных городов, доля Москвы и Санкт-Петербурга в целом соответствует доле их интернет-пользователей.

Подобная работа нужна не только в плане подготовки к настоящему анализу. Кое-какие выводы появляются уже сейчас. Например, сравнив интересы аудитории, которая что-то заказывает с интересами всего объема трафика, можно оценить правильность подбора запросов и соответствие контента ожиданиям наиболее ценной ЦА:

В данном случае профили интересов  практически идентичны, что говорит об адекватном подборе запросов для продвижения, отсутствии неуместного контента.

В текст аудита (отчет для клиента) информация о портрете ЦА обычно не включается, она нужна для понимания аудитории специалистом и дальнейшего анализа. Описываются только найденные проблемы.

Семантическое ядро

Поняв, чего в целом хочет аудитория, где она обитает и по каким ключевым словам уже приходит, мы можем перейти к анализу поискового спроса в нише. Иначе говоря, определяем, по каким ключевым словам потенциальные клиенты вообще могут попадать на сайт.

Составление семантического ядра — отдельная сложная услуга, не входящая в аудит. Однако специалисту абсолютно необходимо определить основные черты поискового спроса в нише.

Три варианта:

  • Выполнить первоначальные этапы составления ядра: собрать ключевые слова из wordstat, подсказок, готовых баз (не заботясь об обязательной полноте списка) и кластеризовать в автоматическом режиме, например, с помощью Rush Analytics.
  • Провести анализ видимости конкурентов, сравнить между собой их ключевые слова, определить главные запросы в тематике. Для этого пригодятся выгрузки из сервисов видимости, таких как Serpstat или Keys.so (по ссылкам — обзоры с описанием приемов работы). Подробно об этом методе и бесплатном сервисе-помощнике я писал здесь.
  • Спрогнозировать спрос по аналогии. В некоторых случаях сайт готовится заранее, когда запросов еще нет, как нет и конкурентов (например, сайты, посвященные еще не вышедшим сериалам, играм, моделям техники). Тогда берем близкий пример и собираем ключевики для него, фиксируя шаблоны запросов. Например, для компьютерной игры очевидные варианты — «название + отзывы», «название + обзор», «название + дата выхода».

Предпочтительным является анализ конкурентов, так как работать с ним приходится едва ли не на всех этапах. Однако в сложных нишах для больших проектов необходимо комбинировать все способы.

В итоге у нас должен получиться черновой вариант ядра. Оно требуется, чтобы:

  1. Определить наиболее важные запросы тематики (дающие максимум конверсионного трафика).
  2. Выделить паттерны запросов, типичные конструкции. Например, для интернет-магазинов: «товар + бренд» или «товар + бренд + потребительская характеристика» («смартфоны ассус с двумя симками»).
  3. Выявить запросы, которые не входят в предыдущие две группы (часто это те ключи, которые не удалось кластеризовать).
Прототип ядра нужен для дальнейшего анализа и в текст аудита не включается (может оформляться приложением).

Анализ конкурентов

Типичная проблема многих низкокачественных аудитов — анализ сайта в вакууме, без оценки ниши и конкурентов. Есть и другая крайность: «а давайте все скопируем у топового сайта!». Почему это плохая идея, читайте здесь.

1. Отбор топовых конкурентов

Основных способов два.

Наиболее надежный — это спарсить ТОП по созданному на предыдущем этапе зачатку семантического ядра и определить домены, которые чаще всего попадают в выдачу. Для парсинга используем, например, KeyCollector, благо он есть практически у всех. Для нахождения доменов с наибольшей видимостью в выгрузке из выдачи используем этот бесплатный сервис.

Более простой и быстрый — используем сервисы видимости. Просто находим сайт с максимальным охватом семантики в нише (лидеры на виду и очевидны), а затем смотрим, какие хосты имеют с ним максимальное число общих ключей в ТОП:

Пример для тематики «продажа автозапчастей» (скриншот из Serpstat):

В этом способе есть риск подхватить в выборку не полностью тематичных конкурентов. Обязательно учитываем его в дальнейшем анализе.

В среднеконкурентных нишах обычно набирается 15-20 сайтов, в высококонкуретных имеет смысл рассматривать больше.

2. Сбор основных показателей

Составляем сводную табличку с основными параметрами — возрастом, ссылочной массой, количеством страниц в индексе.

Таблица в Google Docs с пояснениями и инструментами для проверки. Формат таблицы условный, в зависимости от специфики ниши могут использоваться и дополнительные параметры.

Важно: не забываем, что многие показатели могут также усиливаться зеркалами сайтов. Поэтому каждый домен не забываем проверить на наличие зеркал. Метод проверки я описывал в недавнем докладе (кратко) а также в отдельной статье (более подробно).

Все эти данные потребуются нам на следующих двух шагах.

3. Оценка уровня конкуренции

Обобщаем показатели из таблицы. Здесь важно не просто посчитать некие средние цифры, а определить, насколько велик разрыв между характеристиками анализируемого сайта и типичным конкурентом. Если наш проект имеет не меньшее количество страниц и  достаточно сильный ссылочный профиль — то уже на первых этапах не проблема побороться за «вкусные» ключевые слова. Если же сайт клиента выглядит пигмеем — то на первых порах нет других вариантов кроме как уходить от конкуренции «в лоб».

4. Подбор проектов-аналогов

Данную на предыдущем шаге оценку не следует считать окончательной. Даже если показатели нашего сайта очень скромные, все еще остается шанс отыскать среди конкурентов ресурс с высокой видимостью и трафиком, но не запредельными хостовыми характеристиками. Разумеется, они должны соответствовать нашему по типу. Если анализируем интернет-магазин, то на агрегаторы смотрим вполглаза.

Именно у близких по направленности и SEO-параметрам есть шанс подсмотреть лучшие идеи, которые позволят добиться существенного роста.

Пример: однажды я делал аудит интернет-магазина, торгующего довольно традиционными товарами. Самые мощные конкуренты появились едва ли не одновременно с зарождением Рунета.

Тем не менее, нашлось 3 молодых сайта со слабым ссылочным и отличной видимостью. Их анализ дал возможность выделить успешную схему структуры, которая естественным образом охватывала большую часть семантики и была удобна для пользователя. Появился реальный шанс догнать «монстров» по трафику, так как у них в плане организации контента и распределения семантики все оказалось довольно печально. Клиент остался очень доволен.

Так что если видите в выдаче только «жирные морды» — это не повод опускать руки.

Имеет смысл включить в отчет таблицу с конкурентами в виде приложения. В основном тексте необходима краткая выжимка по уровню конкуренции, общей стратегии а также проектам, на которые стоит ориентироваться в тех или иных вопросах.

III Проверка соответствия сайта аудитории и спросу

Итак, к этому моменту у нас уже есть представление, каким должен быть сайт, чтобы соответствовать целям бизнеса по привлечению поискового трафика. Сравним это представление с реальностью.

Конкретный список проверок диктуется спецификой аудитории; рассматриваем типичный случай.

Оценка региональной привязки

Если ЦА сконцентрирована в конкретных городах или регионах, нужно позаботиться, чтобы поисковые системы понимали эту привязку.

  • Геопривязка в Яндексе делается с помощью указания региона в Яндекс.Вебмастере, Справочнике или Каталоге. Проблемы обычно возникают когда есть желание собирать трафик не с одного региона, а с пары десятков. Наиболее надежным способом в этом случае является создание региональных поддоменов — каждый из них рассматривается как самостоятельный сайт, которому можно задать регион в панели вебмастера.
  • В консоли Google функционал по геопривязке ограничен указанием страны. Поэтому подаем поисковику сигнал о региональной принадлежности другими способами. В первую очередь это указание на сайте конкретной контактной информации и регистрация в Google Мой Бизнес.

Для мультиязычных сайтов в Google также требуется настройка атрибута hreflang. Подробно в справке Google: https://support.google.com/webmasters/answer/182192?hl=ru

Анализ оформления и технической составляющей

Юзабилити-анализ не входит в компетенцию SEO-специалиста. Однако сайт должен хотя бы минимально соответствовать потребностям аудитории, чтобы не демонстрировать ужасающе плохие поведенческие факторы.

В первую очередь требуется проверить удобство просмотра на мобильных устройствах (используем инструмент Яндекс.Вебмастера и https://search.google.com/search-console/mobile-friendly?hl=ru).

Для большинства проектов корректное отображение на мобильных строго обязательно и это одна из наиболее приоритетных доработок. О стремительном росте доли пользователей, которые выходят в Интернет только с мобильных, не знает только проживший в глухой тайге последние пять лет.

Тем не менее, мы делаем настоящий ручной аудит, а не заменяем робота, который штампует одинаковые отчеты. Легко представить себе ситуацию, когда внедрение адаптивного дизайна потребует серьезных затрат, при том что доля запросов с мобильных невелика, а у владельца и так есть куда применить ресурсы в ходе подготовки к сезону. Кстати, далеко не всегда оптимизация под мобильные так уж сильно улучшает активность и лояльность пользователей. Вот показательный кейс.

Поэтому прежде чем формировать рекомендацию по этому вопросу, требуется оценить объем мобильного трафика в тематике. Смотрим общее число показов по ключевому запросу со всех устройств:

А затем и с тех, под которые проект плохо оптимизирован:

(для Google аналогичные данные есть в планировщике ключевых слов Adwords).

Аудитор обычно просматривает огромное количество страниц сайта, поэтому к концу работы накапливается множество замечаний по проблемам в работе. Добавить их в отчет не помешает, однако нужно следить за тем, чтобы замечания совпадали с видением ЦА, а не предпочтениями аудитора.

Типичные проверки:

  • Адекватная аудитории цветовая гамма.
  • Отсутствие раздражающих и нерабочих элементов.
  • Проблемы верстки на разных расширениях, в разных браузерах и операционных системах.

Сопоставление структуры сайта с тенденциями в семантическом ядре

После составления семантического ядра мы не зря выделяли три группы ключевых слов. Теперь проверяем, есть ли место в структуре для всех типов запросов.

Как правило, самые частотные ключи выносятся на главную и страницы разделов, запросы-расширения охватываются теговыми страницами.

Важно отличать рубрики, что могут стать именно разделами, и те, что следует делать метками (дополнениями для рубрик). В рубрики идут те группы страниц, которые выделены в единой логике, по одному принципу, который является наиболее универсальным, важным и понятным пользователю. Этот принцип должен подразумевать создание сравнительно небольшого числа разделов, тем не менее, охватывающих все страницы. Метки идут на «добивку». Принцип может выглядеть громоздким, но его легко усвоить, обдумав пример:

Так проектируется логичная структура, которую при этом можно будет без проблем расширять. Принцип применяется не только к интернет-магазинам. Даже в таком свободном формате сайта как блог структура не повредит. Обратите внимание как организован контент на этом блоге — есть ограниченное число рубрик по основным темам:

Прелесть в том, что к ним можно добавлять метки без особой системы (см. внушительный список в боковой колонке). Когда-нибудь у меня дойдут руки до того, чтобы их проработать, создав эффективные посадочные страницы.

То есть на этом шаге мы проектируем «идеальную» структуру исходя из охвата поискового спроса, стараясь при этом оставить ее максимально гибкой. Разумеется, не помешает посмотреть, как организован контент на реальных сайтах конкурентов. Не обязательно вы найдете полную копию, однако по крайней мере ряд элементов должен встречаться. Если вообще не удалось найти ничего похожего — стоит еще раз обдумать ситуацию. Вероятно, не учтены важные подводные камни тематики.

Затем этот теоретический вариант сравниваем с текущим положением дел.

Поиск релевантных страниц

Берем из нашего ядра маркерные запросы (главные запросы кластера) и снимаем по ним позиции. Для запросов, которые не нашлись в ТОП-100 повторяем процедуру, но запрашиваем уже с оператором site:.

В итоге получаем список пар запрос-страница. Просматриваем его, в первую очередь обращая внимание на запросы из первой группы, где сайт оказался ниже ТОП-30 и вторую группу полностью.

Возможны две ситуации:

  • под запрос есть релевантная страница (ключ в title, контент адекватен пользовательскому интересу), но она проигрывает в конкуренции.
  • под запрос не находится полностью релевантной страницы.

Нас интересует и то, и другое. Низкими позициями достаточно соответствующих запросу страниц (1 случай) мы займемся позже. А вот случаи, когда подходящей страницы на сайте просто нет, рассматриваем уже сейчас. Это пробелы в структуре сайта. Их нужно изучить, чтобы понять — можем ли мы расширить ее так, чтобы нашлось место всем упущенным запросам и не была нарушена логика. Зачастую, если структура изначально была плохо спроектирована, это невозможно. Тогда встает вопрос о полной перестройке сайта.

Предыдущие несколько абзацев кажутся довольно громоздкими. На самом деле ничего сложного здесь нет, все рассуждения элементарны. Чтобы было понятно, набросал схему:

Те запросы, что на последнем шаге попали в красный прямоугольник мы собираем вместе и анализируем. Напоминаю, что мы работаем не с конкретной семантикой — мы ищем ее тенденции, чтобы улучшить структуру сайта. Как правило, в отобранных запросах легко выделить общие признаки и соотнести их с типом страниц в спроектированной ранее «идеальной» структуре.

За счет такого анализа зачастую удается избежать глобальной перестройки сайта (что затратно, долго по времени и грозит временной, но все равно неприятной просадкой трафика).

Сравнение с видимостью конкурентов

Получившийся вариант структуры нельзя считать окончательным. Мы начали с самого простого и важного — запросов, которые обязательно должны быть охвачены. Теперь будет полезно понять, по каким еще ключевикам стоит продвигаться. Не исключено что для достижения максимального эффекта структуру потребуется расширять дополнительно. Будет мудро предусмотреть эту возможность.

Для оценки упущенных запросов пользуемся функционалом «сравнение доменов» в сервисах видимости. Скажем, платные Keys.so или Serpstat. В данном случае подойдет и бесплатный Bukvarix (так как мы оцениваем общие тенденции, а не работаем с окончательной семантикой, то нам не так важна актуальность запросов, которая выше в платных сервисах):

Примечание: это типичный порядок работы, если мы решили конкурировать «в лоб». Если на основе анализа конкурентов выбрана стратегия ухода от прямого соперничества за ТОП, то структуру строим иначе. Сначала требуется оценить запросы, по которым продвинуться будет реально. Именно на их основе формируем систему страниц. При этом нужно постараться сделать структуру достаточно гибкой, чтобы в будущем ее можно было расширить и/или перенацелить на конкурентные запросы.

Это одна из наиболее важных частей аудита. Если выявлены реальные проблемы с распределением контента по страницам и структурой url, в текст включается подробное описание предлагаемого варианта, проиллюстрированное схемами и примерами на сайтах конкурентов. То же самое относится к настройкам региональности и техническим требованиям.

IV Общий технический аудит

Предыдущие пункты были всего лишь подготовкой к основной работе. Теперь, когда есть определенное понимание аудитории, конкурентов и общей структуры проекта, самое время перейти к предметному анализу.

Начинаем с базовых вещей, относящихся ко всему сайту.

Проверка robots.txt

Robots.txt — это файл, содержащий инструкции для поисковых роботов. В работе с ним нет ничего сложного, однако требуется особое внимание, так как одна неверная строка в robots.txt может обрушить весь трафик сайта.

Что требуется сделать:

  • Проверить соответствие файла стандартам с помощью инструментов в Яндекс.Вебмастере и Google Search Console.
  • Проверить наличие директивы Host: для Яндекса.
  • Проверить, не закрыты ли от индексации страницы, которые потенциально могут приносить трафик (рассматриваем директивы «Disallow:», проверяем, не совпадают ли они с шаблонами url важных разделов; для простоты используем те же онлайн-сервисы от Google и Яндекса).
  • Проверить, не используется ли закрытие в robots.txt вместо других способов управления индексацией (типичная ошибка — закрывать в robots.txt пагинацию).

Настройки в панелях вебмастеров

  • Указано ли главное зеркало.
  • Проработан ли раздел «Диагностика» в Яндекс.Вебмастере (там дается много ценных советов по сайту, не все обязательны к исполнению, например, задание региональности неактуально для сайтов с геонезависимыми запросами, но просмотреть этот раздел стоит) и уведомления в Search Console.
  • Видит ли робот карту сайта.

Анализ sitemap.xml и составление полного списка страниц сайта

Вообще-то sitemap необязателен, это просто дополнительная точка входа роботов. Однако для крупных сложных проектов его наличие облегчает индексацию в случае проблем со структурой и перелинковкой. Если sitemap корректен, его удобно использовать для самых разных приемов SEO-аналитики. См. подробную статью про sitemap.

Даже если не использовать sitemap.xml по прямому назначению, для дальнейшего анализа нам в любом случае нужен полный список страниц сайта, которые мы хотим видеть в индексе.

Добываем эти данные из нескольких источников:

  1. Сам sitemap.
  2. Парсинг сайта специальными программами для техаудита (есть платные варианты, такие как Screaming Frog, есть бесплатные альтернативы).
  3. Информация от клиента, из админ-панели (бывают разделы, на которые не ведут внутренние ссылки и краулер их найти не способен).

Проверка индексации

Для более-менее крупных сайтов (уже от сотни страниц) всегда есть риск неполной индексации страниц. Меньше url в индексе — меньше трафика, чем могло бы быть.

Для проверки индексации в Яндексе удобно использовать Яндекс.Вебмастер:

Выгружаем все страницы, фильтруем в Excel по статусу индексации и сравниваем со списком, который был составлен на предыдущем шаге.

Google не предоставляет столь подробной информации, поэтому приходится искать обходные пути. Подробно писал об этом в недавней статье Как найти непроиндексированные Google страницы без лишней возни и расходов.

По результатам этого шага у нас могут получиться три группы url:

Наибольший интерес представляют страницы:

  • по ошибке попавшие в индекс («мусорные» документы);
  • с качественным контентом, которые отсутствуют в базе поисковых систем.

С «мусором» обычно все довольно просто, требуется лишь подобрать адекватный ситуации способ исключить их из индекса. Вариантов много:

  • Мета-тег noindex (для технических страниц).
  • Использование rel=canonical (для дублей — см. в справке Google).
  • Отдача кода 404 — или, надежнее, 410 (для страниц, которых на сайте вообще быть не должно).

А вот с причинами отсутствия в индексе нужно поработать, рассмотрев все возможные гипотезы:

  1. Слишком молодой документ; робот просто не успел его обработать.
  2. Недостаточно качественная страница.
  3. Техническая ошибка на сайте (например, отдается 404 код).
  4. Документ старый, однако роботы его не посещали.

Проанализировать причины нам отчасти поможет тот же раздел Яндекс.Вебмастера — у исключенных из индекса страниц показываются короткие комментарии. Для определения страниц, не посещенных роботом Яндекса используется раздел «Статистика обхода». Google не предоставляет такой информации, поэтому используем анализ логов сервера (см. следующий раздел).

Проверку кода ответа сервера делает большинство упомянутых выше программ для технического аудита.

Наиболее трудоемкая аналитика нужна для выявления различий между «качественными» и «некачественными» с точки зрения допущения в индекс страницами (проблема актуальна в основном для Яндекса; в Google некачественные url могут болтаться в индексе, просто не приносят трафика).

Общая схема достаточно проста — сравниваем страницы, которые устойчиво находятся в поиске, с теми, что никак не могут в него зайти или постоянно выпадают. Сложности в следующем:

  • Могут влиять не только факторы самой страницы. Нельзя все сводить к уникальности контента (первое, что обычно приходит в голову).
  • Необходимо сравнивать страницы с похожим потенциалом трафика и уровнем конкуренции в выдаче (вы поймете, почему это так, если ознакомитесь с постом Как устроен поиск Яндекса: два важных доклада из первых рук (заметки на полях) и моей недавней презентацией с SEMPRO.
  • Важно выделить факторы, которые легко подтянуть до приемлемого уровня. Рекомендация «напишите на каждую из 10000 карточек товаров уникальный текст» вряд ли будет воспринята заказчиком с восторгом.

Анализ логов сервера

Access.log содержит ценную информацию о взаимодействии поисковых роботов с сайтом. Даже просто список url, на которые были заходы Googlebot и YandexBot — это возможность:

  • Найти мусорные страницы низкого качества, которые не видит парсер, но о которых известно роботу. В том числе, кстати, это могут быть специально нагенерированные конкурентами url, подробнее см. в презентации из этого поста.
  • Определить, какие разделы сайта получают мало визитов робота (если такой раздел содержит много страниц — это может привести к плохой индексации).
  • Рассмотреть одну из причин отсутствия в индексе группы url из предыдущего шага.
Часто выводы из этого раздела занимают важное место в финальном отчете. В случае обнаружения проблем с настройками индексации и/или полнотой индекса нужно оформить подробные рекомендации по управлению роботом и доработкам проекта. Корректное восприятие поисковыми пауками — основа продвижения.

V Анализ трафика

Изучение реальной статистики сайта может дать очень много ценной информации. Это прежде всего возможность посмотреть на проект с разных сторон, нащупать одни и те же проблемы в разных проявлениях.

Динамика количества страниц, приносящих трафик

Отличная метрика «здоровья» сайта, его видимости по низкочастотным запросам. В норме количество посадочных страниц растет или стабильно. Изменение этого показателя может служить для прогнозирования трафика. Тренд к снижению — повод озаботиться актуальностью контента, полнотой индексации и техническими ошибками. См. подробнее.

Разумеется, при анализе динамики нужно учитывать сезонность.

Выявление и анализ особых типов страниц

Страницы, потерявшие трафик

Эта проверка редко фигурирует в планах аудитов, однако я считаю ее абсолютно необходимой. Подробная статья о том, как находить и анализировать подобные страницы.

Страницы, на которых снизился трафик

Чтобы найти такие url, сравниваем данные по страницам входа с предыдущим периодом. Например, в Google Analytics это делается так:

Если предыдущий пункт нацелен на выявление в первую очередь технических проблем благодаря массовому анализу, то на этом шаге мы собираем документы для тщательного ручного анализа по отдельности. Рассматриваем страницы с наибольшим объемом трафика и максимальной просадкой, ищем ее причины.

Страницы с потенциалом роста в одной из поисковых систем

Рунет находится в уникальной ситуации — у нас есть две поисковые системы, которые дают сопоставимый трафик. В разных тематиках соотношение Google/Яндекс неодинаково, однако в большинстве случаев сайту должны давать трафик и тот и другой поисковик.

Хороший способ нахождения перспективных для доработки и продвижения документов — это оценка соотношения трафика из разных поисковых систем в целом для сайта и для каждой конкретной страницы. Очевидно, что если доля Google во всем поисковом трафике 50%, а для определенной группы url всего 10%, то стоит заняться ими плотнее. Скорее всего, там уже есть контент, который соответствует запросам с ненулевой частотностью — и в Яндексе эти ключи исправно приносят много посетителей. Зачастую нужны лишь небольшие усилия, чтобы сделать страницу более релевантной для второго поисковика.

Страницы с плохими/ухудшившимися поведенческим факторами

Отбираем страницы с достаточно значительным поисковым трафиком (чтобы обеспечить статистическую достоверность) и находим те, у которых самый большой показатель откзазов/низкая глубина просмотра/малая продолжительность сессии. Эти страницы следует вручную проанализировать на предмет качества контента и его соответствия нуждам аудитории.

Анализ ключевых слов

Потерянные ключевые слова

Идея аналогична проверке страниц, потерявших трафик. Если ключевое слово все еще актуально и отличается ненулевым поисковым спросом, необходимо выяснить причины, по которым оно перестало работать.

Ключевые слова с понизившейся позицией

Определяются на основе данных Вебмастера, Search Console или стороннего сервиса съема позиций. Связки «сильно просевший запрос — страница» необходимо тщательно изучить. Часто здесь обнаруживаются либо техническая ошибка, либо замена контента или мета-тегов на менее релевантные, либо санкции поисковых систем.

Ключевые слова, дающие трафик на разные url

Часто это сигнал некорректного распределения контента по страницам и внутренней конкуренции. Наиболее явные случаи (когда объем трафика по разным страницам сопоставим) нужно изучить вручную для определения релевантной страницы, которая лучше всего отвечает целям бизнеса. Разумеется, выбрать страницу мало, это лишь первый шаг. Главное — разработать список мер для того, чтобы правильный выбор сделали поисковики.

Типичные способы:

  • Правка и уточнение title, h1.
  • Минимизация вхождений на нецелевой странице.
  • Изменение перелинковки для максимизации количества ссылок с нужным анкором на целевой документ.

Ключевые слова за пределами ТОП-5, но с большим числом показов

Определяются на основе данных о позиции и показах в Вебмастере и  Search Console. Часто это ключи, под которые не проводилась прицельная оптимизация. При этом у них хороший потенциал по трафику. Обычно не составляет особого труда подтянуть позиции и собрать достаточно трафика.

VI Анализ разделов

Сколько-нибудь крупный сайт неоднороден, он состоит из нескольких разделов, каждый из которых (при правильном структурировании контента) соответствует под-нише с собственным поисковым спросом, конкуренцией, паттернами поведения пользователей.

Поэтому адекватный аудит обязательно должен содержать сравнительный анализ разделов. Более того, без внимательной проработки сайта по частям нельзя быть уверенным, что на нем нет технических проблем. Показатели, которые мы проверяли для «отлова» проблем, легко могут искажаться различной динамикой по разделам.

Вот простой пример. Посмотрите внимательно на скриншот отчета по разделам для сайта, у которого бодро растет общий трафик:

Сам по себе анализ достаточно прост. Нужно лишь собрать данные по количеству страниц, индексации, трафику, конверсиям, ссылочной массе и так далее в сводную таблицу. Тогда проблемы и несоответствия проявляются как на ладони.

Без автоматизации строить толковое сравнение крайне утомительно. Поэтому я создал специальный отчет в своем сервисе https://bez-bubna.com/. Подробнее — в анонсе инструмента, там же примеры использования. Разумеется, никто не запрещает создавать аналогичные таблицы вручную, логика использования от этого не поменяется.

VII On-page оптимизация

Только на седьмом этапе мы приступаем к полноценному техническому аудиту — тому, что обычно и подразумевают под SEO-аудитом вообще. Это банальные, но важные проверки. Почему выполняем их именно сейчас, а не раньше? Вообще-то особой разницы нет. Однако к настоящему моменту мы «видим лес», понимаем основные тенденции и проблемы. Можно не бояться утонуть в мелочах: наоборот, мелочи только углубят виденье и помогут сделать более достоверные выводы.

Большую часть анализа выполняют программы-краулеры, также много полезных данных содержат панели вебмастеров (см. «Оптимизация HTML» в Search Console и «Диагностика» в Яндекс.Вебмастере.

Анализ title

Важнейший элемент оптимизации — тег title. Требования к нему знает каждый сеошник; ключевыми являются уникальность, адекватное описание контента на странице и вхождения ключевых слов.

Очень многие сервисы и программы помечают как ошибку длину title более 60-65 символов. Я подробно писал об этом заблуждении, а потом провел отдельное исследование на большой выборке (см. в докладе c Allintop). Вывод однозначен — длина сугубо вторична; title формируем исходя из задач по продвижению.

Впрочем, слишком длинный тайтл (более 12 слов или 140 символов) может свидетельствовать о технической ошибке либо попытке впихнуть в заголовок запредельное количество ключевых слов.

Кстати, проверять уникальность title стоит с учетом морфологии. На больших проектах title (и страницы!) зачастую дублируются смыслу. Они не полностью совпадают, но содержат одни и те же леммы (базовые формы слов). Инструмента для автоматизации проверки на совпадение по леммам в публичном доступе нет, я пользуюсь собственной разработкой, которая скоро будет выложена в https://bez-bubna.com/.

Заголовки 1 уровня (h1)

Анализ схож с анализом title. Отличие здесь в том, что уникальность не строгое требование а рекомендация; в ряде случаев одинаковые h1 на разных страницах некритичны. H1 также должен присутствовать на странице в 1 экземпляре (современные HTML-стандарты позволяют использовать несколько, но лучше не ставить такие эксперименты на своем сайте, обойтись более традиционными схемами верстки).

Правильное использование других заголовков

Желательно, чтобы заголовки h1-h6 использовались только в пределах основного контента. Ленивые верстальщики часто озаглавливают с помощью h2 виджеты в сайтбаре, лучше избегать таких ситуаций. Поисковикам будет проще разобраться с контентом, если все заголовки будут относиться к нему.

Это не особо строгая рекомендация; велика вероятность, что поисковые системы разберутся в любой верстке, однако некорректное использование подзаголовков может, например, осложнить анализ с использованием автоматических сервисов оценки контента.

Description

Не влияет на ранжирование как таковой, однако может улучшать отображение в выдаче. По дублям и отсутствующим meta description можно найти проблемные страницы (сгенерированные по ошибке либо со слабой проработкой контента).

Битые ссылки

В идеале внутренние ссылки на сайте должны отдавать код 200. Допустимы также редиректы 302/301 (если они используются осознанно). А вот 404 ошибку после перехода по внутренней ссылке пользователь или робот получать не должны — необходимо следить за актуальностью контента.

Структура контента на страницах разных типов

Это не столько технический аудит, сколько комплексный — на уровне страницы. Требуется рассмотреть состав контента на типичных для сайта страницах и определить, насколько они отвечают интересам пользователей и задаче охвата ключевых слов.

Управление индексацией на уровне страниц

Настройки индексации в целом уже рассматривались выше; на этом этапе необходимо, отталкиваясь от проведенного анализа контента, определить, какие страницы имеет смысл допустить в индекс, а какие нет. Типичный вопрос — как поступить со страницами пагинации.

Более-менее универсальное решение — использовать на подстраницах мета-тег noindex,follow (разрешаем роботу переходить по ссылкам, чтобы не затруднять индексацию) — вполне рабочий вариант, однако он неидеален. Яндекс рекомендует использовать rel canonical, указывающий на первую страницу (что противоречит сути canonical). Оптимальным, но и самым сложным в реализации является оставление в индексе подстраниц с обязательным приданием им дополнительной ценности с помощью уникальных мета-тегов и соответствующего контента.

Скорость загрузки

Благодаря усилиям Google по пропаганде быстрых сайтов только ленивый не знает, что скорость загрузки — это фактор ранжирования. Еще более сильное влияние скорость оказывает на индексацию (краулинговый бюджет) и конверсию (никто не хочет ждать, пока загрузится медленный сайт).

Поэтому очень популярно вставлять в аудиты результат анализа в сервисе Page Speed Insights: https://developers.google.com/speed/pagespeed/insights/. Так делать — неправильно по целому ряду причин. Неоднократно касался этой темы (здесь и здесь). Самое главное — сервис измеряет НЕ скорость, а только показывает точки приложения усилий для ее улучшения.

Как же поступить, если самый популярный инструмент не подходит?

Во-первых, следует проверить все типы страниц (а не только главную!) в сервисах, которые меряют именно скорость. Например, тут: https://www.webpagetest.org/.

Во-вторых, массу реальных данных о скорости содержат системы аналитики. Слайд из упомянутого выше доклада:

В отчет обычно идут приложения со списками проблемных страниц, рекомендации по шаблонам для мета-тегов и доработкам контента.

VIII Отображение в выдаче

Все усилия по выталкиванию сайта в ТОПы пойдут прахом, если ссылка в выдаче не будет привлекать внимание и побуждать желаний по ней перейти.

На самом деле способов манипулировать отображением не слишком много и добиться пристойного отображения не так сложно.

Title с рекламным усилением

О ключевых словах мы уже позаботились, теперь не повредит усилить title, раскрыв преимущества страницы. Например, заголовок для этой статьи составлен по принципу «ключ (чек-лист по аудиту сайта) + рекламное усиление (самое подробное руководство)».

Название взято из списка тем. Я сам скорее стал бы хвастаться не подробностями (их может наворотить кто угодно), а системностью изложения и авторским подходом, который свободен от мифов а-ля «втискивайте тайтл в 60 символов, а то придет бабайка».

Meta description

Также может показываться на выдаче как описание ссылки (далеко не всегда). Поэтому тоже пишем (составляем шаблоны) так, чтобы текст привлекал внимание и побуждал перейти на сайт.

Favicon

Иконка сайта отображается в выдаче Яндекса. Создаем привлекательный и яркий значок, загружаем на сайт и указываем на всех страницах с помощью ссылки на файл в секции head:  <link rel=«shortcut icon» href=«/images/favicon.ico» type=«image/x-icon»>

Микроразметка

Микроразметка помогает структурировать сниппет (описание ссылки в выдаче) и добавить в него дополнительные данные. Рекомендации для разных типов сайтов можно найти в справке Яндекса а также в Search Console, в разделе «Вид в поиске».

Оба поисковика имеют сервисы валидации микроразметки:

  • https://webmaster.yandex.ru/tools/microtest/
  • https://search.google.com/structured-data/testing-tool

Для интернет-магазинов альтернативой разметке отчасти может быть загрузка данных на Яндекс.Маркет.

Быстрые ссылки

Формируются автоматически, для корректного создания нужна качественная структура сайта. Вебмастер позволяет модерировать их отображение на выдаче:

Спецсимволы

Иногда получается хорошо выделить сайт в выдаче благодаря включению в title или description символов-emoji:

Регистр сайта

В большинстве случаев отображение домена в выдаче мало влияет на кликабельность, однако не помешает «поиграть» с регистром на выдаче для лучшей читаемости. Инструмент доступен в Яндекс.Вебмастере.

Отдельные запросы с плохим CTR

Описанные настройки применяются ко всему сайту (либо учитываются на этапе создания контента). Однако в ходе анализа поисковых запросов можно выделить ключи, по которым сайт находится в ТОП, собирает много показов, но мало кликов. Их прорабатываем отдельно, определив интересы пользователя и то, насколько им соответствует ссылка на сайт в результатах поиска.

Если выявлены проблемы, необходимо раскрыть перечень общих требований к сайту а также пример запроса с плохой кликабельностью и провести его детальный анализ, включающий рассмотрение конкурентов.

IX Анализ ссылочной массы

Как правило, для выявления основных тенденций достаточно данных из Яндекс.Вебмастера. Если в ходе анализа выяснится, например, что в последнее время наблюдается интенсивный прирост ссылок, то стоит проверить с помощью сторонних сервисов, таких как Ahrefs, Megaindex, Serpstat. Зачастую они реагируют быстрее.

Что требуется оценить в плане ссылок:

  • Скорость прироста ссылочной массы, наличие/отсутствие «ссылочных взрывов».
  • Доля «плохих» ссылок — с явно коммерческими анкорами, на плохих донорах, легко определяемые как платные SEO-ссылки.
  • Соответствие структуры сайта структуре ссылочной массы. Проще говоря, нацелены ли входящие ссылки на действительно важные страницы, нет ли среди продвигаемых документов тех, что вообще лишены бэклинков, не ссылается ли много сайтов на отсутствующие страницы и так далее. Подробнее см. здесь.
К ссылочному продвижению имеет смысл приступать, когда проработаны остальные элементы. В отчет, помимо найденных проблем, включаем ограниченный перечень страниц-запросов которым явно не хватает внешних ссылок с рекомендациями по донорам. Необходимо подчеркнуть общие риски ссылочного продвижения в современных условиях.

X Проверка на санкции поисковых систем, оценка рисков

Требования поисковых систем к качеству сайтов и «аккуратности» оптимизации постоянно растут. Количество контента в Интернете увеличивается, конкуренция становится жестче — поисковики могут без проблем устраивать «показательные порки».

Не все санкции легко обнаружить по уведомлениям в Вебмастере или серьезной посадке трафика. Тот же Баден-Баден (свежий подарок от Яндекса) может накладываться на страницы. Поэтому даже если на сайте нет явных проблем с ранжированием, нужно проверить сайт на потенциально опасные элементы (переоптимизация, «раздувание» индекса большим количеством малоценных страниц, сомнительная реклама, кликджекинг и так далее).

Как правило, большинство сомнительных элементов к этому времени уже будут замечены в процессе других проверок. Однако не помешает и дополнительный анализ, например:

  • Оценка страниц, которые находятся в индексе, но не приносят трафика, просевших фраз и т.д. (используем созданные ранее списки).
  • Проверка отдельных важных страниц на запросные текстовые санкции в Яндексе (можно использовать, например, бесплатный сервис Евгения Кулакова: http://coolakov.ru/tools/new_filter/)
  • Сопоставление трафика с Google и дат основных изменений алгоритма (с помощью бесплатного инструмента https://barracuda.digital/panguin-seo-tool/)
  • Проверка статейного раздела на водность, «тошноту» по биграммам и триграммам (факторы, которыми отличаются попавшие под Баден-Баден страницы).
В случае диагностики санкций или высокого риска санкций необходимо уделить им особое место в отчете, выделить как важный пункт.

XI Дополнительные проверки, связанные со спецификой проекта

Предыдущие проверки были более-менее универсальными. Однако нужно учитывать тип проекта и проводить дополнительный анализ по важным именно для него направлениям. Три примера.

Интернет-магазины

  • Анализ коммерческих факторов (ассортимент, данные о доставке, проработка карточек товара…) — на основе сравнительного анализа с успешными конкурентами. Сайт по коммерческим метрикам должен быть не хуже чем проекты в ТОП.
  • Эффективность сочетания коммерческих и информационных запросов (не смешиваются ли они на одной странице, создавая проблемы для пользователя?).

Сайты услуг

  • Тоже начинаем с коммерческих факторов (детализация контактной информации, раздел «о компании», разнообразие систем поддержки пользователя) — аналогично, первым делом анализируем конкурентов, не пытаемся запихнуть сайт в шаблон.
  • Адекватность контента задачам пользователя (частая проблема коропоративных ресурсов — они пишут инфостатьи в духе «как сделать своими руками» вместо того, чтобы рассказывать о своих услугах).

Контентные проекты

  • Оценка эффективности разных типов контента (статьи, новости, посты в блог).
  • Рекомендации для копирайтеров.
  • Поиск путей повысить добавочную ценность сайта и увеличить количество посадочных страниц за счет дополнительных сервисов, каталогов и т.д.
Помимо специфики, которая диктуется общей направленностью проекта, необходимо учитывать также специфику бизнеса клиента, его возможности по доработкам, другие сайты компании (анализ на аффилирование, корректность настройки зеркал), необходимость использования HTTPS и т.д. Эта часть аудита мало поддается описанию; здесь на первый план выходит квалификация специалиста.

XII Поиск эффективных путей развития проекта

Наконец мы добрались до главного. Улики собраны, есть понимание комплекса проблем сайта. Осталось на их основе найти те действия, что помогут именно в этом случае. Дать чек-лист здесь нельзя по понятным причинам, поэтому просто несколько примеров из практики.

Большой агрегатор

Проблема: малый процент проиндексированных страниц.

Предложено: изменить логику перелинковки так, чтобы она лучше подходила к механизму работы краулера и создать дополнительные хабы.

Результат: стремительный рост числа проиндексированных страниц и заходов по НЧ.

Сайт с UGC

Проблема: много контента хорошего качества, слабый поисковый трафик.

Предложено: автоматическое тегирование для охвата «вкусных» ключей, повышение стабильности индекса за счет постраничной аналитики, формирование перелинковки и дооптимизация на основе анализа поисковых фраз из API Метрики (как в эксперименте по автоматической вставке ключей, но более «человекообразно»).

Результат: кратный рост поискового трафика.

Молодой сайт объявлений

Проблема: исключительно неуникальный контент, мощные конкуренты.

Предложено: шаблоны title и инфоблоков для страниц формировать так, чтобы охватить семантику, с которой недостаточно плотно работают большие игроки.

Результат: уверенная динамика трафика с первых дней открытия проекта для индексации. См. кейс.

Сложные моменты оптимизации, затрагивающие значительную часть сайта (например, перелинковка), могут рассматриваться только на последнем этапе и только в контексте проблем и целей.

XIII Минимизация рисков, связанных с доработками

Любые изменения на сайте — серьезный риск. Даже если вы внедряете идеальный аудит силами команды с руками из плеч, то не застрахованы от просадок поискового трафика. Иногда (особенно при смене структуры url) от временного снижения посещаемости вообще никуда не деться. Поэтому наряду с обычным анализом как фундаментом для стратегии продвижения необходимо позаботиться о «страховке» на случай если что-то пойдет не так.

Вот распространенные способы снизить риски:

  • Выявление важных страниц (приносящих много трафика и дающих много конверсий) и сохранение в текущем виде по крайней мере до тех пор, пока не появится эффект других рекомендаций. См. кейс, где было нарушено это правило + рекомендации.
  • Правильный выбор момента для масштабных доработок. Лучше не трогать сайт в разгар сезона, когда поисковый спрос на пике. Готовимся к сезону заранее.
  • Дополнительные сигналы о качестве сайта. Например, одновременно с изменениями начинаем регулярно публиковать качественные материалы в блог, проводим акцию в социальных сетях, стимулируем брендовый трафик оффлайн-рекламой.

XIV Оформление отчета

Повторю еще раз для тех, кто сразу пролистал в самый низ. Результаты аудита оформляются уже после того, как сделан сам анализ. Разумеется, делать черновые записи, готовить приложения никто не запрещает (да без них и не обойтись). Но отчет не должен содержать весь ваш путь проб и ошибок (это интересно только вам). Задача окончательного текста — помочь неспециалисту быстро и с комфортом разобраться в сути проблем и рекомендаций.

Очевидно, что для разных сайтов структура отчета будет отличаться — в зависимости от выявленных проблем и специфики. Однако практически всегда есть несколько универсальных блоков:

  • SWOT-анализ: сильные и слабые стороны проекта, возможности и угрозы внешней среды.
  • Анализ конкурентов.
  • Стратегия на основе двух предыдущих пунктов.
  • Основная часть (все, о чем шла речь в статье входит сюда).
  • План доработок. Продуманная последовательность действий крайне важна. Выполнять рекомендации как попало — плохая идея. Пример: внедрили советы по ссылкам — добились роста позиций на недостаточно подготовленном сайте (не соответствует интересам пользователя, долго грузится). В итоге у поисковика накопилось достаточно негативной статистики по поведенческим и все снова провалилось за ТОП-20.
  • Резюме — короткие выводы.

В заключение

Надеюсь, вы не утонули в деталях и мне удалось донести свой подход к анализу сайтов. Если нет, то сделаю последнюю попытку:

  • В SEO нет незыблемых жестких правил.
  • Любая рекомендация должна даваться не по «сайту вообще», а по конкретному проекту, с пониманием его задач и ограничений.
  • В первую очередь — приоритетные доработки, с высоким соотношением результат/затраты.
  • Не стоит переоценивать «фишки» и «хаки» — в конечном счете решает системная работа.
  • Не навреди!

Успехов вашим сайтам, увидимся в ТОПе!