Форум русскоязычного сообщества Ubuntu


Следите за новостями русскоязычного сообщества Ubuntu в Twitter-ленте @ubuntu_ru_loco

Автор Тема: Как забанить роботов-переборщиков на сайте.  (Прочитано 900 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн jura12

  • Автор темы
  • Старожил
  • *
  • Сообщений: 1470
  • 24.04 lubuntu
    • Просмотр профиля
есть свой веб сервер. прикрутил fail2ban он банит сообщения в логах page not found. прикрутил mod security он тоже отрабатывает и чтото отражает например обращения по айпи. но logwatch показывает атаки с ошибкакми 400, 403, 404, 408. как их грамотно забанить или отразить? писать для них свое привило fail2ban или можно mod security настроить? сообщение logwatch прилагается.
(Нажмите, чтобы показать/скрыть)
« Последнее редактирование: 16 Декабря 2020, 09:39:31 от ALiEN175 »
сопротивление бесполезно

Оффлайн AnrDaemon

  • Заслуженный пользователь
  • Старожил
  • *
  • Сообщений: 28510
    • Просмотр профиля
Re: Как забанить роботов-переборщиков на сайте.
« Ответ #1 : 16 Декабря 2020, 17:48:05 »
1. Читать логи.
2. Править конфиги.

Например, …
    # Deny abusive crawlers.
    #deny 198.27.101.168;
    #deny 95.27.49.224;
    #deny 94.130.53.234; # BLEXBot/1.0; +http://webmeup-crawler.com/
    if ( $http_user_agent ~* "WebXakepBot|TOBBOT|SMTBot|BLEXBot|Apache-HttpClient" ) {
        return 403 "No bots allowed.";
    }
    location ^~ /cgi/ {
        return 403 "No bots allowed.";
    }
    location ^~ /cgi-bin/ {
        return 403 "No bots allowed.";
    }
    location ^~ /php {
        return 403 "No bots allowed.";
    }
    location ~ /wp-\w+/ {
        return 444;
    }

Но у меня дополнительный watchdog стоит по некорректным заголовкам запроса. Любой лишний GET параметр - повод для бана.
Хотите получить помощь? Потрудитесь представить запрошенную информацию в полном объёме.

Прежде чем [Отправить], нажми [Просмотр] и прочти собственное сообщение. Сам-то понял, что написал?…

 

Страница сгенерирована за 0.032 секунд. Запросов: 25.