Screaming Frog SEO Spider («Паук», «SEO-Паук») – программа-сканер, предназначенная для проведения технического SEO-аудита сайта с целью проверки его соответствия требованиям поисковых сервисов.
Особенности Screaming Frog SEO Spider
Принцип работы
Программа была разработана компанией из Великобритании в 2010 году. Она совместима с ОС Windows, macOS и Linux. Поддержки русского языка нет, есть английский и четыре других языка. Принцип работы сканера такой:
- «Паук» собирает данные о сайте и ссылках на нем;
- анализирует их;
- подготавливает отчет в удобном для скачивания формате.
В программе предусмотрено более 25 инструментов для проверки сайта.
Стоимость и установка
Screaming Frog SEO Spider доступен бесплатно, но есть и платная версия. В бесплатном модуле можно проверять до полутысячи адресов и использовать 7 основных инструментов парсинга: определение дублей, нерабочих ссылок, проверку ключевых запросов и т.д. В платной версии есть все функции. Возможна синхронизация с Google Analytics, поиск орфографических и грамматических ошибок. Сканировать можно любое количество адресов. В обоих вариантах для использования программу сначала необходимо скачать. Для этого нужно загрузить дистрибутив, открыть его и следовать инструкциям «Мастера установки». Указывать личную информацию не требуется. После установки нужно кликнуть по ярлыку программы на рабочем столе. Далее можно сразу начинать парсить: ввести адрес сайта и нажать Start. Но рекомендуется вначале настроить «Паука».
Настройка Screaming Frog SEO Spider
После открытия программы нужно нажать Configuration, а затем – Spider. В новом окне будет несколько вкладок:
- Basic. Для повышения скорости парсинга можно убрать CSS-стили, JavaScript, SWF. Тогда при работе программа не будет их учитывать и будет меньше нагружаться. Если сайт закрыт в robots.txt, в окне Basic нужно активировать функцию игнорирования этого файла;
- Limits. В настройке Limit Search Depth необходимо указать, до какого уровня вложенности страниц нужно проверять сайт. Это актуально при проверке каталога или другого ресурса, в котором имеется много внутренних папок, расположенных одна в другой. Тогда сильно глубокие страницы проверяться не будут;
- Advanced. Нужно проставить галочки таким образом, чтобы отображалось только то, что видят поисковики. Это упрощает работу, убирая все лишнее и повышая наглядность;
- Preferences. Здесь указываются размеры метатегов, URL, заголовков, атрибутов для картинок и самих изображений. Если важно учесть все страницы, можно ввести большие значения.
Если требуется выполнить анализ отдельных разделов или только один, нужно перейти в Configuration > Include и ввести разделы, которые нужно включить в парсинг. Если нужно, наоборот, исключить какие-то разделы. Это можно сделать через Configuration > Exclude.
Для новых сайтов без админки анализ можно выполнять по логину и паролю, а вместо администраторского доступа можно настроить гостевой.
Как парсить в Screaming Frog SEO Spider
Нужно ввести адрес сайта и нажать Start. Продолжительность анализа зависит от числа страниц на сайте, в среднем проверка выполняется 5–20 минут. Во время работы программы можно настроить скорость «Паука». Внизу рабочего окна можно увидеть среднюю и текущую скорость парсинга. При слишком большой скорости могут возникать сбои. Тогда в настройках нужно указать меньшую скорость.
Возможности Screaming Frog SEO Spider
Для простоты работы в «Скриминг Фрог» предусмотрена возможность выгрузки страниц в Excel. Рассмотрим основные возможности программы и вещи, которые она позволяет редактировать и настраивать.
Кодировка страниц
На страничке Internal нужно найти фильтр HTLM, а точнее столбик Content. Важно, чтобы везде была кодировка UTF-8. При другой кодировке нужно обратить внимание на соседний столбик: каким кодом отвечает сервер. Допустим, если код «301 редирект», то все нормально.
Метатеги
Это один из ключевых инструментов SEO-парсинга. Важно, чтобы везде были прописаны H1, description и title. Оценивается не только их наличие, но и длина. Если страниц много, можно использовать фильтр, который отобразит похожие метатеги. Это упростит работу. Очень важно, чтобы каждый метатег на сайте был уникальным (отличался от других). Поисковые системы это очень любят и всегда располагают такие сайты высоко в поисковых выдачах. Дальше нужно проанализировать размеры страниц, а также длительность их загрузки. Необходимо, чтобы код страницы был не более 200 Кб, а страница загружалась не дольше 5–6 секунд. Если она прогружается долго, нужно открывать код, проверять и исправлять.
Работа с картинками
Чтобы убрать тяжелые изображения, которые замедляют загрузку страницы, нужно открыть вкладку Images, включить фильтр Over 100 kb и удалить все тяжелые картинки. Также важна подпись изображения (атрибут alt). Необходимо, чтобы она была оптимизирована под соответствующие ключевые слова.
Перелинковка
Основные страницы необходимо располагать как можно ближе к главной странице сайта, у них не должна быть глубокая вложенность. Чем выше расположены ключевые страницы, тем лучше. Также на этих страницах должно быть меньше исходящих анкоров и больше входящих, то есть должны быть ссылки на других страницах. Чем их больше, тем больше внутриссылочный вес ключевой страницы.
Поиск незаполненных страниц
С помощью фильтра HTML и столбца Word Count нужно проверить, на каких страницах текста нет совсем или его мало. При этом строчки с кодами 404 и 301 следует игнорировать. Остальные страницы, если они нужны, необходимо дополнить текстовым контентом, а если не нужны – удалить.
Неисправные адреса
Адреса проверяются на вкладке URL. Существует много нюансов, которые нужно учитывать при создании урлов, как технические, так и визуальные. Желательно, чтобы написание было максимально простым, если есть такая возможность.
Анализ внешних ссылок
Чтобы посмотреть все внешние ссылки, нужно открыть вкладку External. Необходимо провести полный анализ, а затем периодически все перепроверять, смотреть на качественные и количественные значения. Нерабочие ссылки удалять или редактировать, чтобы они работали.
Понимая, как пользоваться Screaming Frog SEO Spider, можно провести технический аудит сайта и выполнить основные корректировки. Однако не стоит использовать только одну программу. Гораздо эффективнее применять «Паука» вместе с другими аналитическими средствами.