Заселение Интернета роботами
В реальности восстание роботов только ожидается через несколько десятков лет. В Интернете всё быстрее. Здесь роботы уже играют одну из определяющих ролей в пользовательской навигации. Думаю, понятно, что речь о программах-роботах, используемых интернетовскими поисковиками: поисковые машины служат “интерфейсом к контенту” Интернета для масс рядовых пользователей, при этом в крупнейших поисковых системах собирают информацию о веб-страницах и ранжируют её не люди, но роботы. Куда робот посоветовал, туда пользователь и отправился – вот что получается.
А раз роботы поисковиков потребляют контент с веб-страниц, то, понятно, специалисты, старающиеся направить поисковый трафик (из посетителей) в нужное русло, также будут использовать роботов. Эти роботы автоматически генерируют контент, пригодный для скармливания поисковикам. Они нужны поисковым оптимизаторам.
Роботы-генераторы могут как собирать тексты на заданную тему “с нуля”, так и “перефразировать” готовые тексты с тех или иных сайтов (такие вот есть “роботы-рерайтеры”). И в первом, и во втором случае используются специальные словари. Тексты по качеству, с точки зрения человека, варьируются от полной бессмыслицы до более или менее читабельной чепухи. С точки зрения других роботов, не понимающих смысла, тексты выглядят очень похожими, а обычно неотличимыми от текстов, написанных человеком. Неплохой и понятный пример подобного робогенератора текстов: “Яндекс.Рефераты” (там же есть и яндексовский генератор стихов Пушкина). Другие примеры реализаций можно в изобилии найти в Google. Например, по запросам “генератор статей” и “синонимайзер текстов“.
Тут нужно иметь в виду, что для поисковой оптимизации важны не только тексты, но и ссылки. Ссылки также раскладывают по массивам сайтов и страниц специальные роботы – но это отдельная тема.
Почему работают роботы? Потому что они дешевле, чем копирайтер. Работа с роботами может быть массовой, и “на круг” прибыль больше.
Что получается? Получается, что контент Интернета для одних роботов генерируют другие роботы, а результаты борьбы пожинают массовые пользователи, путешествующие по ссылкам. Если поисследовать веб-страницы, формирующие ссылочную структуру для сайтов, оптимизированных под коммерчески интересные поисковые запросы, то окажется, что робогенераторы контента тут уже имеют неплохую долю.
Следующий шаг восстания роботов – генерация текстов, более или менее полезных пользователю. Это ниша всевозможных автоматических “агрегаторов новостей” и так называемых “робоСМИ”. Например, робоСМИ собирают новости и статьи с разных сайтов, сортируют собранное по базе ключевых слов (по тематике), автоматически генерируют по шаблонам анонсы и публикуют получившуюся “информационную ленту”. Часто результат не сильно хуже общего уровня массовых текстов по данной тематике в Интернете (в Рунете, если хотите). Тут ведь ещё играет важную роль общее падение уровня авторских публикаций в Сети, особенно по темам, интересным более или менее широкой аудитории – а это не обязательно “сплетни про знаменитостей”, годятся и “новости из мира гаджетов”.
Предположим, что отдельное коммерческое робоСМИ не привлекает особенно большой аудитории и, таким образом, не приносит большого дохода. Но ведь и затраты на подобных роботов – минимальные: роботы – не редакция, роботов можно разводить “на ферме” сотнями, автоматизировав не только генерацию текстов и развёртывание сайтов по интересным “ключевым словам”, но даже регистрацию доменов для новых “проектов”. Ключевые слова, темы “на ферму” закидывает “фермер”, просматривающий тенденции в офлайне. Так что минимальный доход с одного роботизированного контент-генератора можно компенсировать большим числом этих генераторов, которые работают сами по себе, не требуя много внимания.
Есть и тенденция следующего уровня: для первичного “удобрения” всё равно нужны тексты, сгенерированные людьми. При этом качество и ценность этих текстов не так уж важны: переработка и массовость – компенсируют недостатки сырья. Значит в систему, для питания роботов, требуется заманить некоторое количество человеческих авторов (точнее – “авторов”). С экономической точки зрения лучше, если заманивать тоже будут роботы. То есть программа-бот рассылает по почте приглашения потенциальным авторам, даже, возможно, ведёт переписку, с целью убедить автора зарегистрироваться на “фабрике удобрений” и “вести там авторский блог”, бесплатно, конечно. Результаты блогерства скармливаются роботам и – система работает эффективнее.
Вот так. А виной всему не развитие технологий, а “кризис ответственности” в Сети. Результатом, кстати, станет какой-нибудь новый Интернет.
Адрес записки: https://dxdt.ru/2008/11/22/1813/
Похожие записки:
- Симметричные ключи, аутентификация и стойкость в TLS
- Реплика: особенности DNSSEC
- Квантовая криптография и стойкость
- Python, "численный" j-инвариант и десятичные цифры
- Ключи X25519 для гибрида с Kyber в Firefox
- Техническое: добавление ключей в dnssec.pw
- Техническое: Google Public DNS и DNSSEC
- "Блокирующие" источники случайности в операционных системах
- Наложенные сети Chrome для размещения сервисов
- Техническое: занимательный пример из практики DNS в Интернете
- Полностью зашифрованные протоколы в Интернете
1 комментарий от читателей
1. 26th November 2008, 16:26 // Читатель 1 написал:
Хорошая статья. Впрочем, уже сейчас как противодействие белому шуму анонимной информации (в том числе и роботизированного контента) хорошие новостные сайты проверяют и перепроверяют информацию (fact checking). Плохие ? нет, но это уже их проблема и тех, кто потребляет их контент. Возможно, в будущем мы увидим как пользователи будут платить сайтам за репутацию, получая взамен возможность потреблять предоставляемый ими контент.