天天看點

LNMP--Nginx禁止指定user_agent

編輯虛拟主機配置檔案

[root@LampLinux ~]# vim /usr/local/nginx/conf/vhosts/test.conf

在上一節全局通路控制配置deny 192.168.137.0/24;下面添加:

#deny 127.0.0.1;

#deny 192.168.137.0/24;

 if ($http_user_agent ~* 'curl|baidu|yyyyy')    # ~* 表示“不區分大小”寫比對

        {

          return 403;

        }

我們去測試怎麼模拟user_agent,為了防止影響,要先把“通路控制”的内容注釋“#”掉:

重加載:

[root@LampLinux ~]# /usr/local/nginx/sbin/nginx -t

[root@LampLinux ~]# /usr/local/nginx/sbin/nginx -s reload

測試:

[root@LampLinux ~]# curl -x192.168.137.11:80 www.test.com/forum.php -I

HTTP/1.1 403 Forbidden

Server: nginx/1.6.2

Date: Wed, 12 Aug 2015 11:40:39 GMT

Content-Type: text/html

Content-Length: 168

Connection: keep-alive

現在去模拟一個user_agent:

[root@LampLinux ~]# curl -A "asdfasdfasfdsf.sdfafsdfaf" -x192.168.137.11:80 www.test.com/forum.php -I

HTTP/1.1 200 OK

Date: Wed, 12 Aug 2015 11:43:27 GMT

... ...

用在什麼情況下?

      你的網站通路量很大,伺服器資源緊缺,我們成本要控制的嚴謹一點,伺服器會有一些吃力,網站都會給搜尋引擎一個“蜘蛛”去爬取,爬取得時候,跟我們現實去搜尋一樣的,同樣也會通路我們的資料庫,耗費我們的PHP資源,是以我們要把一些不太重要的搜尋引擎“蜘蛛爬蟲”給禁止掉,比如我們把360spider、有道或搜狗的spider全部禁止掉,當然我們可以封IP,但是他的IP不固定,很麻煩,是以我們就想到使用user_agent,非常簡單,隻要是這裡 ($http_user_agent ~* 'curl|baidu|yyyyy') 包含curl、baidu、yyyyy字段的都 return 403;

實驗:

[root@LampLinux ~]# curl -A "asdfasbaidufdsf.sdfafsdfaf" -x192.168.137.11:80 www.test.com/forum.php -I

Date: Wed, 12 Aug 2015 11:45:10 GMT

[root@LampLinux ~]# curl -A "asdfasyyyyyfdsf.sdfafsdfaf" -x192.168.137.11:80 www.test.com/forum.php -I

Date: Wed, 12 Aug 2015 11:47:19 GMT

本文轉自 聽丶飛鳥說 51CTO部落格,原文連結:http://blog.51cto.com/286577399/1683938