Яндекс внес большие изменения в алгоритм.
Яндекс сделал еще один шаг, который стал для многих оптимизаторов неожиданных. Это включение несколько дополнительных фильтров (есть как минимум 2 фильтра для сеток сателлитов) и конечно же доработка алгоритма.
Как сообщила команда поиска Яндекса первым изменением стало улучшение поиска по запросам, имеющим "витальные" ответы, к примеру по запросу “Студия Лебедева” на первую позицию должен выходить сайт студии Лебедева.
Так же коснулся алгоритм и блокам ссылок, по непроверенным данным, теперь, если ссылку идет за очередной ссылкой, и таким образом, абзац состоит из множества ссылок, то это и есть блок ссылок. Именно такой параметр хотела ввести WebAlta в начале декабря. Но, похоже, Яндекс успел быстрее.
Теперь, если ссылка повторяется больше 5 раз, то это отмечается поисковой машиной, как спам. Выводы стройте из этого сами. Лично у меня все конкуренты из-за этого попадали.
Так же Яндекс, наконец-то, начал оценивать сайт не по одной странице, а брать за основу весь сайт, а после рассматривать отдельную страницу. Это позволит исключить из поиска множество MFA-сайты и сайты, текст которых состоит из 1 предложения, заголовка и title.
Вчера так же было сообщено “дрессировщиком роботов” Александром Садовским, что был расширен функционал для файла robots.txt. С вчерашнего дня робот Яндекса поддерживает в robots.txt директиву Allow, спецсимволы "*" и "$". Подробней об этом написано в
Читать другие похожие записи: