- This topic has 2개 답변, 2명 참여, and was last updated 9 years, 11 months 전에 by
난해주님. This post has been viewed 664 times
-
-
오늘 제가 관리하는 쇼핑몰에서 한개의 동일한 아이피로 양일간 24만번의 페이지 뷰를 기록하였습니다.급한 김에 아이피로 차단하였지만 보다 효율적인 관리를 위해 .htaccess 파일을 이용하여 rewrite 룰을 설정할까 합니다.그래서 여쭤 보겠습니다만 룰이 500에러를 내는 것은 확인하였습니다만특정 파일로 경고 조치를 하려고 하는 데 모든 user-agent에서 출력되는 것을 보니뭔가 설정을 잘못 한 것 같습니다.이를테면 아래를 참고 하시기 바랍니다.RewriteEngine OnRewriteBase /RewriteCond %{HTTP_USER_AGENT} ^.*\.mail\.ru [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^.*fc5* [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^aiHitBot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Aboundex/0.3 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^AntBot/1.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^AISearchBot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^AMZNKAssocBot/4.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^archive\.org_bot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Baiduspider [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Baiduspider+ [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^coccoc/1.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^CoPubbot/v1.2 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^checks\.panopta [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^DBLBot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Daumoa/3.0.6 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Daumoa/3.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Drupal [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Dillo/0.8 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Ezooms/1.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^EasouSpider [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^emefgebot/beta [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^elefent/Elefent/1.2 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^FlightDeckReportsBot/2.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^fulltextrobot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Gigabot/3.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Googlebot-Image/1.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^heritrix [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^info.wbcrwl.305.09 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^ia_archiver [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^KamodiaBot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^kimsufi [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^KomodiaBot/1.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^linkoatlbot/Linkoatl-0.9 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^MeanpathBot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^MRSPUTNIK [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^news\ bot\ /2.1 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^NetSeer [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^NetcraftSurveyAgent/1.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^oBot/2.3.1 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^psbot/0.1 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Python-urllib [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^1.2.3\ CPython/2.7.3 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Powermarks/3.5 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Plukkie/1.5 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Presto/2.7.62 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Sogou [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^SISTRIXCrawler [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^SeznamBot/3.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^ssearch_bot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Sleuth/1.3.8 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^VoilaBot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Yeti/1.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^YandexBot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^YandexDirect/3.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^YandexImages/3.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^YandexBot/3.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^YandexFavicons/1.0 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^YisouSpider [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^woriobot [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Wotbox/2.01 [NC,OR]RewriteCond %{HTTP_USER_AGENT} ^Wotbox [NC]RewriteCond %{HTTP_USER_AGENT} ^ZumBot/1.0 [NC]RewriteRule . - [F,L]위의 로봇에 대한 설정은 500에러가 정확히 납니다.다만 RewriteRule을 특정 경고 페이지로 이동하게 설정하면모든 사용자에게 경고 페이지가 노출 됩니다.공통적으로 모든 사용자에게 노출되는 설정은 다음과 같습니다.RewriteRule ^$ /warning.html [L]RewriteRule ^(.*)$ /warning.html위의 해당 로봇에게만 경고 페이지를 노출 시키려면 RewriteRule을 어떤식으로 설정 해야 할까요?그리고 한가지 더 여쭤 보겠습니다만 한개의 동일한 아이피로 접속한 user-agent가 다른 것은 어떻게 해석해야 할까요?Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727) HavijMozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)양일간의 공격으로 보아 뭔가 agent를 바꿔서 공격한 것 같은 데그래서 rewrite룰이 먹히지 않은 것일까요?첫번째 설정은 RewriteCond %{HTTP_USER_AGENT} ^Havij [NC,OR]두번째 설정은 RewriteCond %{HTTP_USER_AGENT} ^.*(winhttp|HTTrack|clshttp|archiver|loader|email|harvest|extract|grab|miner|havij|wapiti).* [NC,OR]세번째 설정은 RewriteCond %{HTTP_USER_AGENT} (havij|libwww-perl|wget|python|nikto|curl|scan|java|winhttp|clshttp|loader) [NC,OR]위의 설정이 모두 차단시키지 못하는 것으로 보입니다.하여튼 이리 저리 하고는 있는 데 참 걱정입니다.고수님들의 지도 편달 부탁드립니다.
1 답변 글타래를 보이고 있습니다
1 답변 글타래를 보이고 있습니다
- 답변은 로그인 후 가능합니다.