Ежедневное электронное издание о российском Интернете
Количество есть, нужно качество
На сегодня поисковики достаточно далеко отошли от своей первоначальной цели – исключительно поиска и пришли к положению, которое позволяет им диктовать свои условия. Важность поисковиков в привлечении посетителей настолько велика, что они могут определять те правила, по которым будут играть разработчики и владельцы сайтов.
Казалось бы, выгода для рядовых посетителей очевидна. Но к сожалению, спрос возник на контент уникальный, а не на контент качественный. Тот же самый Яндекс не может определить, какая статья написана хорошо и интересно, а какая – нет. Многие SEO-«копирайтеры», прежде всего, ориентируются на частоту и количество ключевых слов, их расположение в тексте, а не качество текста, представляя в качестве своего основного «посетителя» поисковую машину, а отнюдь не человека.
В своё время много писалось о том, что Интернет – огромная помойка, в которой есть всё, но этого не найти. Сейчас на пути к облегчению нахождения того или иного сайта, размеры этой помойки и объемы «мусорного» контента лишь увеличиваются.
Вполне понятно, что подобная ситуация в данный момент просто неизбежна – поисковики просто не могут определить, насколько хорошо написана та или иная статья, а многие сеошники не готовы тратить дополнительное время и деньги на написание качественных материалов.
Отдельный вопрос и в том, что именно является «уникальным» контентом. Зачастую вся «уникальность» материала – лишь в перефразировании другого давно существующего текста. То есть фактически новой информации не появляется. Побочным результатом этого стало появление на рынке множества «копирайтеров», которые просто не способны самостоятельно написать хороший материал, если не найдут соответствующий «источник вдохновения». На том же Яндексе есть прекрасный генератор наукообразных материалов, который создает грамматически корректные, но абсолютно бессмысленные тексты. Примерно так же работают и многие продвиженцы.
При всем моем глубоком уважении и даже восхищении разработчиками ведущих поисковых систем, ситуация вряд ли изменится в обозримом будущем: я просто не верю, что в ближайшие годы удастся создать программный метод определения качества текста. Подобное решение всё еще остается исключительной прерогативой человека. О «социализации» поиска, которая могла бы решить эту проблему, говорят уже достаточно давно, но реально работающей глобальной реализации этого принципа всё не видно: количество проиндексированных документов измеряется миллиардами, и создание социальной системы, способной постоянно обрабатывать поток данных таких масштабов, кажется маловероятным.
Одним из вариантов решения проблемы может стать использование данных о действиях и привычках пользователей, собирающихся автоматически. Поисковые тулбары для браузеров уже достаточно распространены, чтобы стать источником репрезентативной информации. Другой вопрос, как к этому отнесутся пользователи – любой призрак Большого Брата вполне обоснованно вызывает опасения. Если даже серверных логов поисковой системы достаточно, чтобы идентифицировать человека, то что уж говорить об информации, непрерывно собирающейся непосредственно на компьютере пользователя.
- 00.00.0000 в 00:00
- 2 голоса
- одобрить
- утопить
- 0 комментариев
Заработай деньги
на своём сайте!
на своём сайте!
Новый сервис монетизации СМИ и блогов.
Приглашаем сайты к бета-тестированию →
Новости СМИ2
Обсуждаемые новости