Nginx常用屏蔽规则 - 防止垃圾蜘蛛_Nginx

前言

​Nginx​ ​​是一个高性能的HTTP和反向代理服务,目前很大一部分网站均使用了​ ​Nginx​ ​作为WEB服务器,Nginx虽然非常强大,但默认情况下并不能阻挡恶意访问。

在开始之前,希望您已经熟悉​ ​Nginx​ ​​常用命令(如停止、重启等操作)及排查​ ​Nginx​ ​​错误日志,以免出现问题不知所措。 如无特殊注明,以下的命令均添加到​ ​server​ ​​段内,**修改​ ​Nginx​ ​​配置之前务必做好备份,修改完毕后需要重载一次​ ​Nginx​ ​否则不会生效。**

防止文件被下载

比如将网站数据库导出到站点根目录进行备份,很有可能也会被别人下载,从而导致数据丢失的风险。以下规则可以防止一些常规的文件被下载,可根据实际情况增减。


location ~ \.(zip|rar|sql|bak|gz|7z)$ {
return 444;}


复制

屏蔽非常见蜘蛛(爬虫)

如果经常分析网站日志你会发现,一些奇怪的UA总是频繁的来访问网站,而这些UA对网站收录毫无意义,反而增加服务器压力,可以直接将其屏蔽。


if ($http_user_agent ~* (SemrushBot|python|MJ12bot|AhrefsBot|AhrefsBot|hubspot|opensiteexplorer|leiki|webmeup)) {
return 444;}


复制

禁止某个目录执行脚本

比如网站上传目录,通常存放的都是静态文件,如果因程序验证不严谨被上传木马程序,导致网站被黑。以下规则请根据自身情况改为您自己的目录,需要禁止的脚本后缀也可以自行添加。


#uploads|templets|data 这些目录禁止执行PHPlocation ~* ^/(uploads|templets|data)/.*.(php|php5)$ {
return 444;}


复制

屏蔽某个IP或IP段

如果网站被恶意灌水或CC攻击,可从网站日志中分析特征IP,将其IP或IP段进行屏蔽。


#屏蔽192.168.5.23这个IPdeny 192.168.5.23;#屏蔽192.168.5.* 这个段
denu 192.168.5.0/24;


复制

说明

再次强调, 修改 nginx 配置之前务必做好备份,修改完毕后需要重载一次 ​nginx​ ,否则不会生效。 上面大部分规则返回444状态码而不是403,因为444状态码在​ ​nginx​ ​​中有特殊含义​ ​nginx​ ​的444状态是直接由服务器中断连接,不会向客户端再返回任何消息,比返回403更加暴力

java 返回XML信息乱码 java返回代码

在finally代码块中处理返回值,这是在面试题中经常出现的题目.但是在项目中绝对不能再finally代码块中出现return语句,这是因为这种处理方式非常容易产生"误解",会严重误导开发者. 1 public class Client { 2 public static void main(String[] args) { 3 try {