Вирусописателей отсеют по адресу

Опубликовано: 00.00.0000, 00:00 Автор: Смирнов Федор
Вирусописателей отсеют по адресу В отличие от каких-нибудь социальных сервисов, антивирусная индустрия достаточно «консервативна». Во всяком случае, не каждый день на рынке появляется новый игрок, который, вооружившись новой технологией, пытается доказать, что «старички» не правы. Компания “Robot Genius” - как раз такой случай. Революционного способа борьбы с вирусами ее основатели, конечно, не изобрели, зато явно сделали ставку на нетрадиционный подход.

Зачем нужны «копания» в коде, когда злоумышленников можно без труда вычислить по URL? Как утверждает глава “Robot Genius” Стивен Хсу (Stephen Hsu), значительная часть вредоносного кода попадает на компьютер, благодаря усилиям самого же пользователя. Он может добровольно скачать какую-нибудь «суперпрограмму», либо «зараза» будет загружена в фоновом режиме, во время посещения сайтов-ловушек. Как бы то ни было, а вредоносный код в Сети имеет постоянное место дислокации, и переброска его с сервера на сервер – дело не слишком простое. На этом утверждении и основана концепция RGCrawler – продукта, который, якобы, по своей эффективности превосходит известные продукты Symantec, McAfee и «Лаборатории Касперского».

Вычислительная мощность современных компьютеров, равно как и пропускная способность каналов связи, позволяют «обшаривать» Сеть на предмет вредоносного кода. ПО от “Robot Genius” самостоятельно обнаруживает исполняемые файлы, осуществляет проверку и выносит свой вердикт. Данные о найденных угрозах хранятся в единой базе данных, причем самой важной характеристикой является адрес, с которого осуществлялась загрузка вируса. Эта характеристика должна в дальнейшем предотвратить попадание «зловреда» на пользовательскую машину. То есть борьба вредоносной программы с антивирусом, которая часто разворачивается на пользовательской машине, постепенно отходит в прошлое, задача сводится к тому, чтобы распознать вирус по месту прописки.

«Мы все знаем, как часто «плохие парни» модифицируют код, чтобы скрыть программу от антивируса, и многие защитные решения не позволяют отловить такие варианты. Гораздо труднее распознать вредоносный код, чем просто определить адрес, с которого он загружается. Вирусописатели постоянно модифицируют код, однако для них труднее изменить его расположение, особенно если они обеспокоены положением своих сайтов в выдаче поисковиков», - прокомментировал Стивен Хсу в интервью изданию “InfoWorld”. По его словам, около 5% всего контента, размещенного для загрузки в Интернете, составляет разнообразная компьютерная «зараза».

Саму по себе идею фильтрации по URL вряд ли можно признать оригинальной. Так, адреса активно используются в антифишинговых плагинах, которыми обзавелись основные браузеры – Internet Explorer, Mozilla Firefox, Opera. Элементы фильтрации по URL используются и в известных защитных продуктах, однако основной акцент традиционные АВ-вендоры по-прежнему делают на анализе кода.

Другие продукты из линейки “Robot Genius” инновационными нельзя назвать даже с большой натяжкой. Браузерный плагин RGguard предупреждает пользователя при заходе на небезопасные сайты, приложение Spyberus выполняет комплексный мониторинг состояния системы и позволяет быстро выполнить «откат» в случае необходимости.

Добавьте комментарий
Для размещения комментария необходима регистрация или авторизация:
 пользователь:   
 запись OpenID: 


Заработай деньги
на своём сайте!
Новый сервис монетизации СМИ и блогов.
Приглашаем сайты к бета-тестированию →
Новости СМИ2

ТЕМА НЕДЕЛИ


Rambler's Top100
Пластиковые, рулонные и алюминиевые жалюзи с доставкой