Хотя есть много разных элементов для успешного SEO миграционная стратегия Для тех, кто изменяет домены или структуру URL, необходим комплексный план перенаправления. Если вам повезет, отображение этих перенаправлений может быть довольно тривиальным. Простые изменения в структуре URL, например, часто могут быть достигнуты с помощью правил перенаправления, но это не всегда возможно.
На многих крупных платформах электронной коммерции, таких как ATG уникальные идентификаторы добавляются к основам URL определенных типов страниц - категорий, продуктов и т. д., что значительно усложняет задачу. Распределение этих идентификаторов в основном определяется порядком, в котором добавляются категории и / или продукты; если вы объединяете или перепроектируете сайты, маловероятно, что они окажутся одинаковыми, а это значит, что вам, вероятно, придется испачкать руки при перенаправлении карт.
В оставшейся части этого руководства я продемонстрирую подход, который я лично использую к этому типу миграции. Предполагается, что мы переносим один домен на одной платформе в другой. Каждая миграция отличается, так что это не будет универсально применимо, но, надеюсь, некоторые из продемонстрированных методов будут работать для вас.
На начальном этапе планирования перенаправлений лучше всего начать с обхода сайта, чтобы получить представление об архитектуре, с которой вы работаете. Если это сайт большего размера, и у вас нет доступа к поисковому роботу масштаба предприятия, не беспокойтесь, достаточно пробного сканирования с Screaming Frog.
Чтобы сохранить это в разумных размерах, снимите флажки Изображения, CSS, JavaScript и SWF (Конфигурация> Spider). Затем подключите свою учетную запись GA (Конфигурация> Доступ к API> Google Analytics); это обеспечит еще одну точку данных, к которой будет происходить поворот при выполнении анализа.
Начните сканирование и дайте ему поработать, пока он не начнет исчерпывать память. Остановите и выполните стандартный экспорт на вкладке «Внутренние».
Я также рекомендую:
Объедините все вышеперечисленное в один файл Excel и начните анализировать данные. В частности, вы хотите искать:
Принимая во внимание эти вопросы, вы получите хорошее представление о страницах, которые вы хотите отобразить вручную, и о тех страницах, которые можно обрабатывать с помощью правил перенаправления. Далее вы можете начать сопоставление полного списка URL-адресов и начать сопоставление.
При принятии решения о том, какие страницы отображать, карты сайта XML обычно являются хорошей отправной точкой. Если вы думаете об этом, то они представляют собой огромный список всех страниц, которые веб-сайт хочет проиндексировать; и если они хотят, чтобы они были проиндексированы, скорее всего, вы захотите отобразить их.
На больших сайтах они должны быть разбиты на несколько частей, чтобы помочь диагностировать проблемы с индексацией и повысить скорость индексации и быть доступным через индексный файл карты сайта, который обычно указывается на сайтах /robots.txt. В противном случае вы можете проверить в консоли поиска или, если у вас нет доступа, попробовать общие расширения, такие как /sitemap.xml и /sitemap-index.xml. Если ничего не помогает, попробуйте выполнить запрос site:; это обычно помечает это для вас.
Чтобы загрузить эти файлы с правильным форматированием, загрузите Excel и выполните импорт XML (Данные> Из других источников> Из импорта данных XML). Затем вставьте ваши XML-файлы, пока они не будут перечислены в вашем документе Excel.
Чтобы собрать информацию о наших существующих URL, мы также хотим сканировать их в Screaming Frog. Большинство машин будут работать с партиями размером более 25 тыс., Поэтому разбивайте их по мере необходимости. Увеличение выделения памяти поможет с этим.
Перейдите в режим списка и убедитесь, что выбран параметр «Всегда следовать перенаправлениям» («Конфигурация»> «Паук»> «Дополнительно»). Загрузите свой список и начните ползать.
Примечание. Если вы работаете с большим сайтом, возможно, вы просматриваете более 20 отдельных сканирований. Сбор этих данных займет некоторое время, поэтому планируйте заранее, а затем просто выполняйте обход в фоновом режиме в течение нескольких дней. Также стоит отметить, что вы можете открывать более одной версии Screaming Frog одновременно; если у вас есть разумный компьютер, то вы сможете обрабатывать два работающих одновременно. Это особенно полезно, если есть какие-либо настройки сервера, ограничивающие скорость, с которой вы можете сканировать.
После этого сохраните обходы где-нибудь и выполните экспорт «Internal - All» для каждого. Мне нравится делать это в отдельном файле Excel, поэтому у меня все еще есть копия необработанных файлов Sitemap. Просмотрите эти обходы в поисках:
Примечание . Количество найденных ошибок будет в значительной степени зависеть от частоты обновления файлов сайта. <Lastmod> даст вам хорошее представление об этом. Если карты сайта обновляются динамически, ошибки, вероятно, будут минимальными.
В дополнение к файлам сайта XML, GA также является отличным источником URL-адресов, которые необходимо перенаправить. Это, конечно, можно получить с помощью Screaming Frog, но только по тем URL-адресам, которые вы уже знаете. В качестве второго шага вы также захотите выполнить экспорт органического трафика по целевой странице - обычно достаточно данных за 1-2 месяца.
Вы можете экспортировать это через саму платформу GA, но она ограничена 5k строками. Вместо этого вы можете использовать Таблица Google Analytics Add On как обозначено Дэном в эта почта , что позволит вам экспортировать 10 тыс. строк одновременно.
При необходимости вы можете получить более 10 тыс. С помощью Excel и Analytics Edge плагин. Для подробных инструкций, проверьте Пост Гленна Гейба ,
Объедините свои очищенные данные Sitemap в своей книге Excel (при необходимости, сгруппировав их по типу страницы) и добавьте экспорт Google Analytics на другой лист. Используйте = CONCATENATE, чтобы добавить ваше доменное имя к существующему URL-адресу, а затем выполните = ВПР чтобы проверить, находится ли URL уже в вашем существующем наборе данных. Для простоты фильтрации вы можете комбинировать это с = IFERROR, например
= IFERROR (ВПР (A2, Лист1 $ 1: $ 1048576,1, FALSE), "Нет")
Выполните любые новые URL через Screaming Frog и добавьте в основной список по мере необходимости.
На больших сайтах, вероятно, у вас будет разделение ссылок на широкий набор URL. Чтобы обеспечить передачу этого капитала, вам необходимо убедиться, что эти URL-адреса перенаправлены, даже если они больше не используются.
Используя Majestic в качестве примера, выполнение экспорта страниц предоставит список из 5000 лучших URL-адресов, а также ссылающихся доменов и обратных ссылок. Используйте другой VLOOKUP, чтобы проверить, есть ли эти URL-адреса уже в списке. Выполните любые новые URL через Screaming Frog и добавьте в основной список по мере необходимости.
К этому моменту у вас должен быть довольно полный список URL-адресов - по крайней мере, тех, которые привлекают большую часть органического трафика на ваш сайт, - но вы все равно можете захотеть выполнить последний обход.
Делайте все возможное, чтобы уменьшить размер, ограничивая его только индексируемыми ресурсами HTML.
При необходимости вы также можете использовать «Конфигурация»> «Исключить / включить», чтобы указать, какие URL-адреса будут добавлены. Например, если у вас есть большое количество продуктов и вы не уверены, что они все включены, то вы можете использовать базовое регулярное выражение. Например:. * Продукты. *
Хотя у нас теперь есть полный список URL-адресов, которые мы должны перенаправить, у нас все еще нет никакой информации о сайте, на который мы переносим. Вышеупомянутый процесс также необходимо будет повторить для этого домена; повторяйте шаги снова, пока не получите оба списка.
Следуя шагам, описанным в предыдущих пунктах, теперь у вас должен быть полный список очищенных URL-адресов для обоих доменов и большое количество связанных данных. Откройте новую книгу и вставьте данные для URL-адресов, которые вы пытаетесь сопоставить, на отдельные листы. Мне нравится делать это по типу страницы - например, файл продуктов, файл категорий - но это чисто личное предпочтение; это просто предотвращает его зависание из-за размера файла. Затем начните составлять карту, используя следующие методы.
На больших сайтах теги и заголовки H1, вероятно, будут сильно шаблонизированы, что делает их превосходными для перенаправления карт. Как правило, мне нравится начинать с H1, поскольку они имеют тенденцию быть короче и с большей вероятностью дают положительное совпадение. Чтобы выполнить наше сопоставление, мы снова собираемся использовать функцию VLOOKUP в Excel.
Начните с перехода на сайт, на который вы переходите, и переместите данные H1 в первый столбец; VLOOKUP всегда ищет крайний левый столбец, чтобы найти значение, так что это необходимо для работы функции.
После этого создайте новый столбец рядом с URL-адресами на другом листе и выполните VLOOKUP, используя свой столбец H1 в качестве значения поиска и номер столбца, в котором расположены ваши URL-адреса. Например
= ВПР ([@ H1], лист $ 1: $ 1048576,2, FALSE)
Обозначив столбец URL как возвращаемый, вы получите соответствующие списки всех URL-адресов, которые вы хотите перенаправить с их эквивалентом на противоположном домене.
Предполагая, что не все ваши страницы соответствуют - очень маловероятно - вы можете повторить вышеописанный процесс для тегов заголовков. Часто это потребует удаления названия бренда в конце тега, что легко сделать, выбрав соответствующий столбец и заменив марку ничем (Ctrl + H).
Если H1 и заголовки не являются опцией или только частично сработали для вас, то вы также можете посмотреть соответствие по основам URL.
На такой платформе, как ATG, ваши начальные URL могут выглядеть примерно так:
Поэтому нам нужно удалить доменное имя, расширения файлов и идентификаторы, прежде чем они могут быть сопоставлены.
Создайте новый столбец рядом с полными URL-адресами и используйте формулу, например, следующую, чтобы удалить доменное имя:
= ЛЕВЫЙ (А1, FIND ( "/", A1,9) -1)
Затем используйте Text to Columns для разделения данных (Data> Text to Columns> Delimited> Other).
Приведенная выше функция будет разбивать ваши основы на разные столбцы каждый раз, когда встречается косая черта в URL, что позволяет вам изолировать текст. Например:
Повторите этот процесс для обоих наборов URL-адресов и добавьте отформатированный стебель в новый столбец на каждом листе. Для соответствия следуйте той же процедуре, что и для тегов заголовка и H1.
Примечание. Текст в столбцы будет пытаться заменить данные в других столбцах. Чтобы предотвратить перезапись любых существующих данных, выполните очистку URL-адреса на другом листе.
Даже если вышеуказанные шаги сработали для вас, на данный момент у вас, скорее всего, останется несколько тысяч URL-адресов, которые просто не соответствуют ни одному из вышеперечисленных методов. В этом случае, если у страниц есть значение ссылки или трафик, вы можете быть вынуждены найти наиболее близкое соответствие вручную. Но если URL / домен, на который вы переходите, уже проиндексированы, вы можете попробовать использовать оператор site: search.
Например, если ваша страница 'boys blue shoes' не соответствует, то поиск по сайту: example.com boys blue shoes должен вернуть наиболее релевантный URL. Это можно легко сделать массово, взяв основы URL страницы, убрав форматирование и используя функцию concatenate в excel для объединения в большой список.
На данный момент вы можете просто перенести список в выбранный вами инструмент проверки ранга; однако, если у вас нет доступа к одному или облачному, и вы не можете позволить себе ждать 24 часа, то я бы предложил использовать Инструмент позиционирования ключевого слова Gdocs Шона Малсида , Это может быть действительно эффективным, если вам нужно выполнить несколько сотен запросов одновременно. Иногда вы можете обнаружить, что инструменты застряли на «Crawling…»; в этих случаях просто удалите ключевые слова с листа и затем отмените, что обновит сканирование.
В заключение стоит отметить, что этот метод будет возвращать только URL-адрес, который Google сочтет наиболее подходящим для вашего конкретного запроса, а не наиболее близкое соответствие. Это может быть проблематично, если ваш сайт имеет плохую архитектуру и / или много проблем каннибализации. По этой причине всегда стоит дать результаты, возвращенные один раз, при необходимости изменив их вручную.
После того как вы наметили все свои перенаправления, вы захотите проверить, что URL-адреса, на которые вы перенаправляете, возвращают соответствующие 200 (ОК) кодов состояния. На живом сайте это просто случай выполнения другого сканирования в режиме списка в Screaming Frog. Если вы находитесь на промежуточном сайте, просто выполните поиск и замену, заменив домен промежуточным адресом.
Copyleft © 2017 . www.prirodnadzor-penza.ru