Ботнеты и их будущее

Ботнеты, по логике, должны находиться на переднем крае технологий распределения нагрузки или, если хотите, создания высоконагрузочных систем. Но почему-то о ботнетах не очень часто и подробно рассказывают на технологических конференциях.

Вообще же, современные ботнеты готовы предлагать не только вычислительные ресурсы в аренду, но и, скажем, супернадёжный отказоустойчивый (если позволите такой термин) хостинг.

Не совсем понятно, предлагаются ли такие услуги уже сейчас, но очевидно, что владельцы крупных ботнетов с хорошим ПО могут их реализовать. То есть файлы распределяются по большому количеству узлов (эти узлы – заражённые зомби-машины), узлы связываются в “кластер” (что-то вроде IP anycast) и через DNS привязываются к веб в нужной “точке выхода”. При этом точки привязки можно быстро изменять, в том числе и массово регистрируя новые домены второго уровня. А в некоторых доменных зонах такой автоматической регистрацией также могут заниматься машины-зомби. При этом узлы-участники ботнета – бесплатны. Домены стоят копейки. Интересная картина, да.

Понятно, что тысячи узлов, задействованных в хранении и публикации файлов, не только сложно отследить, но и сложно заблокировать. Более того, возникают большие сложности с доказательным выявлением реальных владельцев и администраторов, публикующих информацию.

Такие сети уже действуют. Их деятельность видна, в том числе, и в DNS. То есть технологии есть, и они развиваются. Как бороться с подобными “размытыми облаками” – не понятно. При этом вычислительная мощность потенциального зомби-компьютера растёт: пользователи обновляют свои машины, покупают более современные процессоры и, что особенно интересно, устанавливают мощные 3D-ускорители (годятся для криптологических вычислений). И, конечно, большую роль играет повсеместное внедрение широкополосного доступа.

Когда об этом расскажут на технологических конференциях?

()

Похожие записки:



Далее - мнения и дискуссии

(Сообщения ниже добавляются читателями сайта, через форму, расположенную в конце страницы.)

Комментарии читателей блога: 8

  • 1. 6th October 2008, 11:25 // Читатель Free Researcher написал:

    Для хранения файлов есть еще P2P. Куда, кстати, давно переехал весь нелегальный контент – книги, музыку и видео я в основном там и беру (кое-что тем более еще иначе и не достать при всем желании).

    Вот с хостингом – а как реализовывать ссылки между страницами? Если мы хотим в такой системе повесить обычный сайт?

    И – можно ли ссылку на пример уже действующей подобной сети?

  • 2. 6th October 2008, 12:30 // Александр Венедюхин ответил:

    P2P – это совсем другое дело.

    Ссылки между страницами сайта работают через DNS, так что нет проблем.

  • 3. 6th October 2008, 13:02 // Читатель sashket написал:

    Насколько я знаю, технология ботнетов подразумевает использование процессорного времени. А что, данные тоже можно хранить на зараженных компьютерах?

  • 4. 6th October 2008, 13:20 // Читатель zuzoid написал:

    Почему бы и нет? Причем в самой безобидной для владельца форме. На более-менее современном компе со средним винтом 300-500гб заметить пропажу 10-100мб довольно сложно. С другой стороны, когда количество зомби в ботнетах переваливает за несколько тысяч эти смешные мегабайты превращаются в десятки и сотни гигабайты совершенно халявного и надежно распределенного пространства.

  • 5. 8th October 2008, 03:18 // Читатель DI HALT написал:

    А если какой либо пользователь возьмет и форматнет винт. Или вырубит свою машину на длительный срок. Не случится ли коллапса с данными?

  • 6. 8th October 2008, 04:18 // Читатель Борис написал:

    Что вы имеете в виду под “технологическими конференциями”? На “networking” конференциях довольно часто презентуются статьи про ботнеты. Вот примеры:
    http://conferences.sigcomm.org/sigcomm/2008/abstracts.php#security_i
    http://www.acsac.org/2007/abstracts/162.html
    http://www.usenix.org/event/leet08/tech/full_papers/holz/holz_html/

    Вот даже был workshop посвященный исключительно ботнетам:
    http://www.usenix.org/events/hotbots07/

  • 7. 8th October 2008, 08:34 // Читатель Free Researcher написал:

    Прозреваю что все-таки данные хранятся с многократным зеркалированием.

    А вот со страницами – все-таки еще вопрос: допустим, я запрашиваю какой-нибудь *.html – и какой именно файл мне выдадут? То есть будут ли запрашиваться все (и далее кто быстрее выдаст) или же уже есть какие-то алгоритмы, позволяющие сей процесс оптимизировать?

    В тех же p2p сетях, если я ничего не путаю (совершенно не моя область), все же вначале составляется список клиентов, у которых есть требуемый файл или его кусок.

  • 8. 8th October 2008, 13:11 // Александр Венедюхин ответил:

    Есть алгоритмы, более или менее оптимально выдающие наиболее доступный в данный момент кусок данных.