Копирайтерские мысли и критика алгоритмов поисковых систем

Приветствую всех читателей данного поста. Хотелось бы немного выговориться и поделиться своими мыслями по поводу копирайтерского дела. Все мы знаем, что уникальный контент в интернете в цене и его очень любят поисковые системы. Сто процентный копирайт это одно из составляющих успешного продвижения сайта и попадания в топ в результате. Но, не буду тут развозить теорию Seo и прочие сущности продвижения сайтов и уникальных текстов.

Суть вот в чем. Я заметил не хорошую тенденцию поисковых алгоритмов. Вся суть в том, что даже если вы написали уникальный контент, это еще не значит, что он понравится поисковой системе. В оценки каждой конкретной целевой страницы сайта помимо определения процента её уникальности еще участвуют множество других алгоритмов, которые оценивают другие показатели «качества» контента. Сюда относятся и общая величина поста, плотность ключевых слов, количество вхождений ключей и их склонения и спряжения (производные), разбивка текста на абзацы, структуризация текста (заголовки, нумерованные и маркированные списки и  др.), грамотность текста, выделение слов (жирный текст, курсивы, подчеркивания) и множество других показателей. В общем, что бы ваш текст понравился поисковику не достаточно просто по человечески написать уникальный пост, надо еще и в SEO показателях разбираться, т.е. таким образом уже на подсознательном уровне хороший копирайтер должен уметь манипулировать алгоритмами поисковых систем, что как бы в корне не верно и не совсем законно и правильно. В следствии всего этого зоопарка в интернете имеются миллионы оптимизированных текстов, которые читать просто противно, где по 100500 раз повторяются различные словосочетания вхождения ключей и множество всяких выделений и просто огромнейшее множество воды.

В общем суть этого поста в том, что я заметил такие явления, что не сложный кусочный копипаст или простенький рерайт гораздо дешевле нежели нормальный уникальный человеческий контент. Т.е. можно просто скопировать чужой текст и изменить в нем каждое 3-10 слово и для поисковика этот текст может показаться гораздо более интересным нежели оригинал. Так же можно просто кусками из разных источников скопировать текст и создать из этих кусков полноценную статью, которая для поисковика окажется лакомым кусочком для вывода в топе. Я много раз наблюдал такую картинку, когда текст просто был сложен из украденных кусков статей с разных источников и поисковики признавали этот массив текста как очень качественный.

А все из-за этих дурацких далеко не совершенных алгоритмов оценки качества текста. Я считаю, что уже давно пора полностью отказаться от подобной практики оценки текста. Да кому какая разница сколько в тексте вхождения ключей, выделений слов жирным и прочих никому не нужных исхищрений.

По моему самыми основными показателями качества текстов должны быть в первую очередь поведенческие факторы, структуризация текста (т.к. читать сплошной монотонный текст просто надоедает), грамотность и главное уникальность, а все остальное это пережитки прошлого, когда страницы в сети ранжировались по мета тегам ключевых слов и описания.

Просто смешно оценивать тексты по количеству в них ключей и тому как они разбросаны по тексту, а так же всяческие выделения их разными способами.