Автоматизация работы SEO-специалиста
Плотность и расстояние между ключевыми словами являются одними из структурных характеристик веб-страницы. Расположение информации на сайте в общем можно охарактеризовать схемой, приведённой на рисунке 9. В разделе 1 указываются заголовки статей, логотипы, основное меню, контактные телефоны, форма авторизации и прочие элементы. Колонки 3 и 5, как правило, используются как вспомогательное меню… Читать ещё >
Автоматизация работы SEO-специалиста (реферат, курсовая, диплом, контрольная)
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования
«КУБАНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ»
(ФГБОУ ВПО «КубГУ»)
Физико-технический факультет Кафедра теоретической физики и компьютерных технологий Допустить к защите в ГАК Заведующий кафедрой д-р. физ.-мат. наук, профессор В. Н. Тумаев ДИПЛОМАЯ РАБОТА АВТОМАТИЗАЦИЯ РАБОТЫ SEO-СПЕЦИАЛИСТА Работу выполнил _________________ Шевченко Александр Александрович Специальность 230 201 — Информационные системы и технологии Научный руководитель канд. физ.-мат. наук, доцент __________________________ А. А. Мартынов Нормоконтролёр канд. физ.-мат. наук, доцент ___________________________А. А. Мартынов Краснодар 2014
СОДЕРЖАНИЕ ОБОЗНАЧЕНИЯ И СОКРАЩЕНИЯ ВВЕДЕНИЕ
1. SEO и её назначение
1.1 Определение и предмет поисковой оптимизации
1.2 История развития поисковой оптимизации
1.3. Основные элементы оптимизации
2. Виды работ SEO-специалиста
2.1 Работа над ключевыми словами
2.2 Работа над основным текстом
2.3 Работа с мета-тегами
2.3.1 Тег заголовка
2.3.2 Тег описания
2.3.3 Тег ключевых слов
2.4 Технические работы над сайтом
2.4.1 Присваивание сайту понятного пользователю доменного имени
2.4.2 Выделение отдельного IP-адреса
2.4.3 Структурирование разделов сайта
2.4.4 Создание карты сайта sitemap
2.4.5 Управление индексацией с помощью служебного файла «robots»
2.4.6 Оптимизация динамичных страниц и программного кода
2.4.7 Использование каскадных таблиц стилей
3. Существующие инструменты оптимизации веб-страниц
3.1 Системы автоматического продвижения сайтов
3.1.1 Приложение Allsubmitter
3.1.2 Приложение Site-Auditor
3.1.3 Онлайн-инструмент Be1
3.1.4 Приложение Yazzle
3.1.5 Приложение Page Promoter
3.1.6 Приложение SeoRate
3.1.7 Система SeoPult
3.2 Системы анализа поисковой статистики
4. Проект программы автоматизации работы SEO-специалиста ЗАКЛЮЧЕНИЕ СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ ПРИЛОЖЕНИЕ, А ПРИЛОЖЕНИЕ Б ПРИЛОЖЕНИЕ В
ОБОЗНАЧЕНИЯ И СОКРАЩЕНИЯ
SEO (англ. Search Engine Optimization) — поисковая оптимизация
SEM (англ. Search Engine Marketing) — поисковый маркетинг
SMM (англ. Social Media Marketing) — маркетинг в социальных сетях ТИЦ тематический индекс цитирования ВИЦ взвешенный индекс цитирования
PR (англ. Page Rank) — ранг страницы ПМ поисковая машина
CGI (англ. Common Gateway Interface) — общий интерфейс шлюза
CSS (англ. Cascading Style Sheets) — каскадные таблицы стилей
JSON (англ. JavaScript Object Notation) — текстовый формат обмена данными, основанный на языке JavaScript
API (англ. Application Programming Interface) — интерфейс программирования приложений
SOAP (англ. Simple Object Access Protocol) — простой протокол доступа к объектам
ВВЕДЕНИЕ
В условиях развития глобального информационного пространства, когда возникают уникальные возможности в коммуникации и информационном обмене, всё большее значение приобретает сеть Интернет, как средство донесения информации до широких народных масс. При этом главным источником информации в сети выступают веб-сайты, на которые ложится основная информационная нагрузка. Содержа в себе данные различных тематик, веб-ресурсы являют собой хаотически разветвлённую сеть из множества миллионов электронных страниц.
При этом возникают огромные трудности в поиске и ориентировании среди информационных потоков такого объёма. Именно для навигации и успешного обнаружения нужной информации, были созданы поисковые системы. Невозможно представить себе современный Интернет без поисковиков. Храня информацию о миллиардах веб-страниц, эти системы являются наиболее мощным инструментом для поиска информации и распределения пользовательского внимания. Именно привлечение внимания пользователей посредством демонстрации целевой веб-страницы в поисковой системе является целью поисковой оптимизации.
Особую актуальность в данных условиях обретает умение повысить рейтинг сайта в глазах поисковой системы, что автоматически обеспечит ресурсу пользовательское внимание. Отнимая большое количество времени и трудозатрат, меры по поисковой оптимизации неустанно требуют улучшений в процессе их выполнения. В связи с этим остро встаёт вопрос об автоматизации работы специалистов, занятых оптимизацией сайтов с целью сокращения времени и трудозатрат при данных видах работ.
На основании вышеизложенного возможно формирование основной цели данной работы: создание программного продукта, позволяющего автоматизировать часть работ SEO-специалиста.
Непосредственно перед выполнением дипломной работы были поставлены следующие цели:
1. снизить количество времени и трудозатрат на оптимизацию сайтов посредством разработки специализированного приложения;
2. реализовать в данном приложении функционал по работе с ключевыми словами и сбору поисковой статистики запросов пользователей;
3. учесть в приложении региональные особенности поиска пользователей по запросам;
4. включить в состав программного продукта функционал семантического анализа текста для определения его ключевых фраз.
1. SEO и её назначение
1.1 Определение и предмет поисковой оптимизации
Чтобы осознать непосредственно рассматриваемый предмет и его назначение, необходимо изучить его предметную область. Прежде всего, расшифруем саму аббревиатуру «SEO»: Search Engine Optimization (англ. оптимизация под поисковые машины, поисковая оптимизация).
Под поисковой оптимизацией понимают комплекс мер, направленных на повышение позиции сайта в поисковой выдаче по определённым поисковым запросам. При этом соответствие содержания сайта запросу называют релевантностью. Поисковая оптимизация включает в себя как улучшение внутреннего содержания сайта (качества и количества информации, совершенствования внутренних технических аспектов реализации сайта, улучшения его визуальной привлекательности для потенциальных пользователей), так и работу над внешними факторами (ссылки, ведущие на сайт, цитируемость сайта на других ресурсах и прочее).
Согласно исследованиям компании Forrester Research Inc в 2013 году, процент посетителей сайтов распределяется следующим образом:
1. Через поисковые системы — 81%;
2. По ссылке с другого сайта — 59%;
3. Через маркетинговые коммуникации — 56%;
4. Через телевидение — 48%;
5. Посредством онлайн-рекламы — 20%;
6. По радио — 19%;
7. Через рассылку электронной почтой — 10%.
Рисунок 1 — Распределение притока аудитории на сайты
Следовательно, наиважнейшим источником посетителей для сайта являются поисковые системы.
В последнее время всё чаще звучит определение поисковой оптимизации как ветви Интернет-маркетинга. Поисковый маркетинг, как следующий шаг в развитии SEO являет собой ту же поисковую оптимизацию, сместившую свой фокус, однако, в сторону поиска новых путей понравиться пользователю. Данная оптимизация сайта включает в себя не только техническую работу над страницами ресурса, но и анализ рынка поисковых услуг с учётом текущих потребностей в спросе и предложении. Эта новая ступень работы над качеством сайтов породила в наши дни на свет множество удобных для пользователей, сложных в технической реализации и, безусловно, полезных в своей тематической группе сайтов, что в целом благотворно сказалось на общем уровне качества Интернет-ресурсов.
Процесс оптимизации сайта для поисковых систем заключается в определённой работе над контентом сайта и его структурой, а также над внутренними и внешними факторами, позволяющими поисковым машинам, основываясь на текущей версии их алгоритма, присваивать сайту некоторое место в поисковой выдаче среди прочих известных ему страниц. При этом специалист, занимающийся оптимизацией сайта, должен ориентироваться не только в текущей версии поискового алгоритма той или иной поисковой системы, но и знать некоторые психологические аспекты поведения пользователей в сети Интернет.
Согласно исследованию компании Google, проведённому в 2012 году, имеется следующее распределение посетителей сайтов в поисковой выдаче в зависимости от позиции, показанное в таблице 1.
Таблица 1 — Распределение посетителей сайтов
Первая страница выдачи | Вторая страница выдачи | |||
Позиция в выдаче | Процент посетителей | Позиция в выдаче | Процент посетителей | |
1-я позиция | 30% | 1-я позиция | 6% | |
2-я позиция | 15% | 2-я позиция | 4% | |
3-я позиция | 7% | 3-я позиция | 2% | |
4-я позиция | 5% | 4-я позиция и ниже | менее 1% | |
5-я позиция | 4% | |||
6-я позиция | 4% | |||
7-я позиция | 2% | |||
8-я позиция | 2% | |||
9-я позиция | 3% | |||
10-я позиция | 5% | |||
Как видно из таблицы 1, наиболее успешными с точки зрения посетителей являются первые три строчки выдачи. Как правило, перед началом оптимизации ставится задача, на какое место в поисковой выдаче ожидается продвинуть сайт. Учитывая поведенческие факторы, такие, как потеря интереса у пользователей по мере удаления от вершины поисковой выдачи, целью оптимизации является непосредственно первая страница поисковика и три строчки второй страницы.
Следует также отметить, что поисковую оптимизацию также иногда называют «продвижением», имея в виду продвижение определённых страниц сайта как можно ближе к первому месту в поисковой выдаче по определённому запросу.
В целом, поисковая оптимизация делится на два вида: внешнюю и внутреннюю оптимизацию.
Внутренняя поисковая оптимизация — это набор действий и методов, направленных на улучшение внутреннего содержания и структуры сайта. К внутренней оптимизации непосредственно относится:
· создание семантического ядра сайта, то есть подбор тех ключевых слов, по которым сайт будет отображаться в результатах поиска;
· редактирование текстов, исправление орфографических либо логических ошибок;
· техническая работа над структурой сайта, как то: создание карты сайта, присваивание страницам легко запоминающихся и понятных адресов, задание инструкций для поисковых роботов и прочие методы, призванные упростить работу с сайтом как пользователям, так и поисковым машинам;
· работа над дизайном сайта и повышение визуальной привлекательности ресурса;
· устранение технических ошибок, замедляющих или вовсе компрометирующих работу сайта: начиная от несуществующих ссылок и дублей страниц, заканчивая грубыми семантическими и логическими ошибками в коде страниц, действующих на них скриптов, сетевых приложений.
Рисунок 2 — Схема работ SEO-специалиста
К внешней оптимизации относится такие методы, как наращивание ссылочной массы на сайт и анализ работы, произведённой другими оптимизаторами. Наращивание ссылочной массы представляет собой приобретение (как коммерческое, так и добровольное) ссылок на продвигаемый сайт. На заре своего существования, поисковые системы ориентировались в основном на то, сколько ссылок имеет сайт и согласно этому присваивали им место в поисковой выдаче. Сейчас же поисковики научились более тщательно анализировать содержание сайта, что, несомненно, благоприятно отразилось на качестве Интернет-ресурсов.
Не смотря на то, что внутренняя оптимизация сайта стала более важна, нежели внутренняя, последний вид оптимизации также важен для повышения позиции сайта. Внешняя оптимизация влияет на такие показатели, как ТИЦ и PR.
ТИЦ (Тематический Индекс Цитирования) — индекс, разработанный компанией «Яндекс», отражающий, сколько сайтов по схожей тематике ссылаются на определённый ресурс. Данный индекс влияет только на позицию сайта в Yandex-каталогах.
ВИЦ (Взвешенный Индекс Цитирования) — совокупность параметров, учитывающая популярность сайтов, ссылающихся на определённый ресурс.
PR (англ. Page Rank) — «ранг страницы», аналогичный метод компании «Google», определяющий количество и популярность станиц, ссылающихся на тот или иной ресурс. Каждой странице либо объекту в сети присваивается некоторое начальное числовое значение, которое изменяется в зависимости от количества ссылок на него. Суть метода в том, что все объекты, связанные гиперссылками представляются в виде графа и чем больше ссылаются на определённую страницу в сети, тем «важнее» она выглядит для поисковой системы. Примечательная особенность, отличающая этот метод от метода ТИЦ — это то, что ранг может присваиваться как страницам, так и любому объекту, то есть любому графу.
Кроме того, существует определённое деление на типы поисковой оптимизации в зависимости от применяемых методов, так называемые: «белая», «серая» и «чёрная» оптимизация.
Под «белой» оптимизацией подразумевают некий комплекс мер, направленных на повышение позиции сайта в поисковой выдаче, в результате которых не нарушаются какие-либо правила, установленные поисковыми сервисами для индексируемых сайтов. Другими словами, оптимизатор не должен пытаться обмануть поисковую систему, заставляя её, при помощи неких уловок, думать, будто оптимизируемый сайт является лучше (как в плане технического исполнения, так и по содержащейся информации), нежели он есть на самом деле.
«Чёрная» оптимизация же наоборот, ставит своей целью именно обман поисковой системы, что зачастую влечёт за собой соответствующие последствия со стороны поисковой машины. Сайт, уличённый в жульничестве, может быть понижен в общей поисковой выдаче, а то и вовсе исключён из него, не говоря уже о морально-этических аспектах такого рода оптимизации. Ведь специалисты, избирающие такой вид работ по оптимизации, далеко не всегда заботятся об удобстве и информативности их сайта непосредственно для пользователя, что в целом негативно складывается на общей картине Интернета.
Рисунок 3 — Пример «чёрных» методов оптимизации
Что касается «серой» оптимизации, то она не влечёт серьёзных санкций со стороны поисковиков, так как не нарушает напрямую тех правил, которые устанавливают поисковые системы для сайтов при индексации. Данный вид продвижения требует от специалиста хорошего уровня навыков и опыта, а также знаний внутреннего устройства и принципов работы поисковой машины.
Какой бы путь ни выбрал в своей работе оптимизатор, ему необходимо, хотя-бы в общих чертах, представлять себе работу поисковых сервисов. В настоящее время эти сервисы занимают ведущее положение в распределении трафика пользователей сети Интернет. В ней размещены многие миллионы сайтов и найти из них нужные, а тем более, запомнить их адреса рядовому пользователю бывает трудно, а порой и вовсе непосильно. Таким образом, поисковые системы выполняют наиважнейшую функцию: они занимаются распределением внимания пользователей между сайтами, занесёнными в их базу данных.
Поисковая система в целом состоит из пяти основных программных компонентов:
1. «Паук» (англ. Spider) — модуль, скачивающий страницы из сети Интернет. Он воспринимает информацию страницы в режиме исходного кода и именно в таком виде сохраняет её в базе данных.
2. «Краулер» (англ. Crawler), что в переводе с английского означает «ползающий». Этот модуль ответственен за просматривание всех ссылок, имеющихся на странице и занесение их в базу данных. На основе этой информации он формирует путь, по которому будет двигаться «Паук».
3. Индексатор (англ. Indexer) — данный модуль разделяет страницу на составные элементы, такие как: заголовки, подзаголовки, основной текст, жирный и курсивный шрифт, а также прочие информативные элементы. Разделив, таким образом, страницу, он проводит её анализ в зависимости от текущего алгоритма поисковой системы.
4. База данных (англ. Database) — фактическое место хранения всей накопленной информации о веб-сайтах, собранной как «краулером», так и «пауком», а также результатов работы индексатора и прочей информации, необходимой для работы системы.
5. Система выдачи результатов (англ. Search engine results engine) — это программный модуль, просматривающий базу данных и выбирающий наиболее релевантные запросу пользователя страницы.
Рисунок 4 — Схема работы поисковой машины
На заре своего существования работу поисковой машины выполняли живые люди. Они просматривали все найденные ими сайты и сортировали их по каталогам. Позднее, опираясь на эту базу каталогов, поисковые машины стали осуществлять самостоятельный поиск новых страниц. Это происходит следующим образом.
Вначале «краулер» просматривает известные ему ресурсы в поиске новых ссылок. Он совершает регулярные проходы всех известных ему ссылок разыскивая при этом новые. Находя их, он выполняет по ним переход. Стоит отметить, что на каждое доменное имя «краулером» выделяется определённое время для поиска ссылок. После истечения этого времени, «краулер» отправляется дальше по сети, возвращаясь в следующем проходе.
Далее начинает свою работу модуль, называемый «пауком». Он пользуется найденными «краулером» ссылками, как картой, и скачивает содержимое страниц в режиме исходного кода и передаёт её для обработки индексатору. Этот модуль разделяет текст страницы на составные элементы: заголовки, жирный и подчёркнутый текст, выделение абзацев и прочее. Это делается для удобства поиска по проиндексированным документам. Обработанные страницы поступают в базу данных поисковой системы. Следует отметить, что на данный момент поисковые роботы проводят индексацию мультимедийных данных (таких, как аудиои видеофайлы, флеш-анимация и прочие крайне неэффективно. Этот факт оказывает существенное влияние на выбор методов поисковой оптимизации сайта. Ввиду этого многие SEO-специалисты рекомендуют закрывать программный код внутри страницы специальными HTML-тегами для предотвращения индексации.
Рисунок 5 — Схема извлечения данных из поисковой машины
Неверно считать, будто поисковая машина производит поиск заданной пользователем фразы по всей сети Интернет. Скачанные в режиме исходного кода страницы хранятся в базе данных поисковой системы, а затем извлекаются, когда пользователь вводит свой запрос в поисковую строку. Работая с таким огромным объёмом информации, необходимо применять особые алгоритмы, сортирующие результаты поиска. Данные алгоритмы, постоянно обновляющиеся и дорабатывающиеся, составляют основу работы поисковой системы. Именно они определяют, какие страницы попадут на первые страницы поисковой выдачи, какие будут отображаться после десятой страницы, а какие вовсе не отобразятся для пользователя.
Не смотря на то, что поисковые системы стараются как можно чаще обновлять свои базы данных, существует множество сайтов, которые никогда не попадут в поисковую выдачу, будь то:
· ресурсы, доступ к которым защищён паролем;
· не связанные с другими сайтами ресурсы;
· сайты, представляющие из себя так называемый «информационный шум»: брошенные, незавершённые сайты;
1.2 История развития поисковой оптимизации
Период с 1997 по 1999 годы можно считать временем зарождения поисковых систем. Новые сайты добавлялись в базу данных поисковой машины вручную и сортировались по специальным тематическим каталогам. Программы индексации на тот момент были не столь совершенны и применяли лишь малое количество низкоэффективных алгоритмов ранжирования. В таких условиях недобросовестные оптимизаторы пользовались массой различных уловок и ухищрений, чтобы добиться неправомерно высокого рейтинга в глазах поисковой машины. Работа по оптимизации внутреннего содержания страниц сайта практически не проводилась, а мета-информация, заголовки, комментарии страниц, ключевые слова и множество другой служебной информации было переполнено нерелевантными, но пользовавшимися популярностью словами. Сотрудники поисковых компаний были не в силах уследить за безмерным множеством страниц и лишь со временем поисковые машины научились фильтровать недобросовестные методы держателей сайтов.
Так, к середине 1999 года, поисковые машины прибегли к технологиям поискового серфинга. Впервые была представлены технологии, позволяющие отслеживать переходы пользователей по определённым поисковым запросам, а также стало возможным отслеживать количество ресурсов, ссылающихся на ту или иную страницу в сети Интернет. Оставаясь и поныне одним из самых популярных, данный метод был назван ссылочной популярностью.
После спама мета-данных многие оптимизаторы обратились к такому сервису, как ссылочные фермы (англ. link farm). Ввиду того, что поисковая машина оценивает качество и количество ссылок на тот или иной сайт, данные ресурсы предоставляли сайтам большое количество ссылок на требуемые страницы, создавая тем самым ссылочную сеть. Не смотря на заявления, будто данные ресурсы призваны для создания единого ссылочного пространства, настоящая их цель была получить верхние позиции в поисковой выдаче для определённый сайтов. В конечном итоге, поисковики научились объективно оценивать сайт и с учётом этих методов.
Рисунок 6 — Пример ссылочной фермы
К началу 2000;х появляется большое количество редактируемых вручную каталогов сайтов, издаваемых сообществами редакторов и собранных по различным тематикам. Данные каталоги, образовали довольно обширную ссылочную сеть с большим множеством качественных ресурсов, которые позволяют добиться довольно релевантных результатов поиска. С этого момента начинается смещение фокуса в оптимизации сайтов в сторону более качественной работы как над его внутренним содержанием, так и внешними факторами.
В настоящее время алгоритмы работы поисковых систем настолько усложнились, что они способны учитывать многие сотни факторов, влияющих на качество сайта. Если в период 1998 — 99 г. многие оптимизаторы прибегали к таким методам, как большое количество не связанных с темой сайта ключевых слов, что повышало вероятность попадания на первые страницы поисковой выдачи, то сейчас такие манипуляции невозможны. Многие поисковые системы, в том числе Google и Yandex, научились распознавать и пресекать такого рода оптимизацию. Помимо прочего, был введён лимит на длину читаемых мета-тегов и начался их анализ качества и благодаря этому верхние позиции поисковой выдачи стали более релевантными запросам пользователей. Также свою роль сыграл анализ факторов, не связанных с контентом страницы, такие как ссылочная популярность.
Следует помнить, занимаясь оптимизацией страниц сайта, что ресурсы поисковика ограничены. Поисковая система обладает своим внутренним временем, отводящимся на обработку каждой страницы, пределом глубины поиска по сайту, а также рядом других ограничений, накладываемых фактическими аппаратно-программными ресурсами. Также следует помнить, что каждая поисковая машина обладает определённым сводом правил, по которым проводится индексация. Эти правила могут иметь отличия в различных версиях поисковых алгоритмов, а также у различных поисковых систем. В зависимости от текущей версии, поисковая машина проводит индексацию и ранжирование страниц с различными результатами. Но вне зависимости от версий и самих поисковиков, все они стремятся повысить качество и разнообразие предоставляемой пользователям информации. Учитывая данную их особенность, необходимо строить собственную деятельность таким образом, чтобы повысить качество как технической, так и информационной стороны оптимизируемого сайта.
Один из важных аспектов, на которые следует обратить внимание перед тем, как приступить к оптимизации, — это структура сайта. Поисковые машины обрабатывают многие миллионы веб-страниц в день, так что просматривать большое количество вложенных страниц у них просто нет времени. Это означает, что сайты со слишком сложной структурой будут либо индексироваться довольно долго, либо игнорироваться поисковиком вообще. Для того, чтобы этого не произошло, следует прибегать к вложенности не выше трёх. Например: ««.
Рисунок 7 — Пример трёхуровневой структуры сайта
Другой аспект — это написание грамотного кода HTML-страниц. Это также довольно важно, так как экономит время чтения страницы для поисковика. При этом следует учитывать несколько факторов:
· все парные теги должны быть закрыты (например:
)· не следует использовать html-теги, не поддерживаемые популярными браузерами
· не следует использовать устаревших тегов (например:
или· также не стоит использовать элементы кода, которые поисковая машина ещё не умеет обрабатывать (например: некоторые теги XML)
Для того чтобы быть уверенным в качестве своего кода, необходимо следовать стандартам Консорциума Всемирной паутины (Wide Web Consortium, W3C). Приведение страницы к стандартам Консорциума не повлияет на позицию в поисковой выдаче, но облегчит работу непосредственно поисковой машины с сайтом.
1.3. Основные элементы оптимизации
· Тег
· Тег веб-страницы. Отображается в результатах поиска под заголовком как краткое описание страницы. Имеет фиксированную длину, различную у разных поисковых машин и их версий.
· Тег веб-страницы. Отвечает за то, какие ключевые запросы будут присвоены странице. По этим ключевым словам пользователями производится поиск, а поисковиками — ранжирование страниц. В настоящее время считается необязательным, так как многие поисковики научились более тщательно анализировать содержимое страницы.
· Основной текст. При этом важно учитывать плотность ключевых фраз непосредственно в тексте. Также важно, чтобы ключевые слова располагались ближе к началу текста и соответствовали его содержанию.
· Расположение текста. Важно учитывать особенности дизайна сайта и психологические аспекты пользователей для грамотного расположения текста на странице.
· Заголовки h1, h2, h3 и прочие. Указывать правильные заголовки критично, так как современные поисковые машины принимают этот аспект как важный при сканировании и ранжировании страниц.
· Различное выделение текста (полужирный, курсив, подчёркнутый текст и прочее). Данное выделение воспринимается поисковиками как важная информация. Ввиду этого рекомендуется уместное выделение текста без излишнего злоупотребления.
· Понятный URL. Для того, чтобы посетителям было комфортнее ориентироваться на сайте и для лучшего запоминания адресов, следует применять понятные человеку адреса. Например: http://mysite.com/diectory1/page1.php выглядит понятнее и лучше запоминается, чем http://mysite.com/#newwindow=1&q=cfvsq+j%2Csxysq+pgfhjc.
· Веб-дизайн. Наличие своего стиля в оформлении сайта, а также его удобство повышают привлекательность ресурса в глазах пользователя.
· Атрибуты и . Это нужно для того, чтобы при отключенном в браузере отображении изображений пользователь мог ориентироваться в документе, не теряя смысловой линии. Считается устаревшим отношением к времени, когда скорость Интернет-трафика была недостаточной и для её повышения отключались некритичные для информативности элементы. Поисковые системы, всё ж, считают указывание этих тегов хорошим тоном и до сих пор учитывают их при индексации.
2.3.2 Тег описания <description>
Данный тег является невидимым для пользователя и содержит в себе краткое описание страницы. Содержание этого тега не влияет на позицию сайта в итоговой выдаче. Тем не менее, этот тег представляет коммерческую презентацию сайта в поисковой выдаче. Данная презентация составляется поисковой системой непосредственно из самого описания и информации на странице. Наличие грамотно подобранного описания, содержащего релевантные ключевые слова, может убедить пользователя перейти непосредственно на сайт.
Рекомендуемая длина мета-описания ограничивается в среднем 200−250 знаками, включая пробелы и служебные символы. Размер описания колеблется в зависимости от особенностей поисковой машины и текущей версии её алгоритмов. Все символы сверх указанной величины будут проигнорированы поисковиком. Не следует использовать ключевые фразы в описании страницы. Существуют рекомендации по ограничению количества встречаемости ключевых слов в описании до 3−5 раз на страницу.
Описание строится по тому же принципу, что и текст страницы, но оно значительно короче. Это налагает определённые условия на его структуру. Ключевые слова должны располагаться ближе к началу описания, при этом само описание не должно состоять только лишь из ключевых слов.
Добавлять мета-описания необходимо для каждой страницы сайта, при этом они не должны копировать друг друга. Тогда, имея множество связанных описаний, заголовков и основной информации на страницах, можно создать множество точек входа на сайт, по которым пользователи смогут найти интересующую их информацию. Это увеличивает приток посетителей в сравнении с ситуацией, когда вся оптимизация нацелена на главную страницу.
2.3.3 Тег ключевых слов <keywords>
Тег ключевых слов являет собой служебную информацию страницы, в которой указывается краткий набор ключевых фраз, по которым следует характеризовать деятельность сайта. Длина читаемой длины тега для поисковиков в среднем равна 200 символам, включая пробелы и служебные символы.
В начале 90-х, когда поисковые машины только начинали своё становление, они производили ранжирование страниц, опираясь непосредственно на ключевые слова в теге. Это приводило к частым несоответствиям заявленной и фактической информации на сайте. Вследствие этого, большинство поисковиков, в том числе и наиболее крупные, такие, как Google и Яндекс, стали меньше учитывать данный тег при ранжировании результатов поиска.
Таким образом, использовать мета-теги ключевых слов, следует с большой осторожностью, так как большого прироста в рейтинге среди поисковых машин они принесут, но могут навлечь санкции со стороны поисковика. При работе с данным тегом не следует допускать повторения ключевых слов, избегать ключевых слов, не соответствующих содержанию сайта, а также необходимо соблюдать авторские права.
Особенностью данного тега является то, что в нём допускается введение ключевых слов с орфографическими ошибками. Они могут появляться, когда пользователи вводят текст в строку запроса поисковой машины, поэтому поисковики лояльно относятся к данному приёму, так как он направлен на повышение удобства для пользователей.
Как показывает практика, в данный тег следует включать не только непосредственные ключевые слова, по которым ведётся оптимизация, но и связанные с содержанием страницы слова. К ним можно отнести:
· различные варианты ключевых слов (склонения существительных, спряжения глаголов, множественные формы);
· сокращённые формы ключевых слов;
· жаргонизмы и прочие узкоспециальные термины, присущие освещаемой области;
· орфографические ошибки, опечатки и прочие формы неправильного описания.
Ввиду экономии индексируемого пространства тега, а также для того, чтобы ключевые слова индексировались в различных комбинациях, возможно опущение запятых из данного тега. Кроме этого, у поисковиков существует определённая особенность в восприятии всей мета-информации страницы. А именно, они могут объединять рядом стоящие фразы в смысловые блоки.
К примеру, имея в мета-теге ключевых слов две фразы «утюги с отпаривателем» и «тефлоновые утюги», мы можем объединить их во фразу «тефлоновые утюги с отпаривателем». При этом поисковая машина будет учитывать запросы пользователей как по запросу «утюги с отпаривателем», так и по «тефлоновые утюги». Данный приём позволяет избегать повторения слов теле тега, как это приведено в примере со словом «утюг».
Рисунок 10 — Пример объединения ключевых слов
На рисунке 10 представлен пример такого объединения по запросу «тефлоновые утюги с отпаривателем». Красным цветом на рисунке выделена информация, которую поисковая машина посчитала критичной. Жёлтым цветом выделена информация, которая была оценена, как относящаяся к теме страницы. Как видно из данного рисунка, объединение ключевых слов не вносит негативного влияния в результаты ранжирования и не влияет отрицательно на рейтинг страницы.
2.4 Технические работы над сайтом
Технические работы над сайтом включают в себя комплекс мер, направленных на улучшение его функциональных возможностей. К таким мерам относятся:
· присваивание сайту понятного пользователю доменного имени;