# this number should be, at maximum, the number of cpu cores on your system.
# (since nginx doesn't benefit from more than one worker per cpu.)
# 這裡的數值不能超過 cpu 的總核數,因為在單個核上部署超過 1 個 nginx 服務程序并不起到提高性能的作用。
worker_processes 24;
# number of file descriptors used for nginx. this is set in the os with 'ulimit -n 200000'
# or using /etc/security/limits.conf
# nginx 最大可用檔案描述符數量,同時需要配置作業系統的 "ulimit -n 200000",或者在 /etc/security/limits.conf 中配置。
worker_rlimit_nofile 200000;
# only log critical errors
# 隻記錄 critical 級别的錯誤日志
error_log /var/log/nginx/error.log crit
# determines how many clients will be served by each worker process.
# (max clients = worker_connections * worker_processes)
# "max clients" is also limited by the number of socket connections available on the system (~64k)
# 配置單個 nginx 單個程序可服務的用戶端數量,(最大值用戶端數 = 單程序連接配接數 * 程序數 )
# 最大用戶端數同時也受作業系統 socket 連接配接數的影響(最大 64k )
worker_connections 4000;
# essential for linux, optmized to serve many clients with each thread
# linux 關鍵配置,允許單個線程處理多個用戶端請求。
use epoll;
# accept as many connections as possible, after nginx gets notification about a new connection.
# may flood worker_connections, if that option is set too low.
# 允許盡可能地處理更多的連接配接數,如果 worker_connections 配置太低,會産生大量的無效連接配接請求。
multi_accept on;
# caches information about open fds, freqently accessed files.
# changing this setting, in my environment, brought performance up from 560k req/sec, to 904k req/sec.
# i recommend using some varient of these options, though not the specific values listed below.
# 緩存高頻操作檔案的fds(檔案描述符/檔案句柄)
# 在我的裝置環境中,通過修改以下配置,性能從 560k 請求/秒 提升到 904k 請求/秒。
# 我建議你對以下配置嘗試不同的組合,而不是直接使用這幾個資料。
open_file_cache max=200000 inactive=20s;
open_file_cache_valid 30s;
open_file_cache_min_uses 2;
open_file_cache_errors on;
# buffer log writes to speed up io, or disable them altogether
# 将日志寫入高速 io 儲存設備,或者直接關閉日志。
# access_log /var/log/nginx/access.log main buffer=16k;
access_log off;
# sendfile copies data between one fd and other from within the kernel.
# more efficient than read() + write(), since the requires transferring data to and from the user space.
# 開啟 sendfile 選項,使用核心的 fd 檔案傳輸功能,這個比在使用者态用 read() + write() 的方式更加高效。
sendfile on;
# tcp_nopush causes nginx to attempt to send its http response head in one packet,
# instead of using partial frames. this is useful for prepending headers before calling sendfile,
# or for throughput optimization.
# 打開 tcp_nopush 選項,nginux 允許将 http 應答首部與資料内容在同一個封包中發出。
# 這個選項使伺服器在 sendfile 時可以提前準備 http 首部,能夠達到優化吞吐的效果。
tcp_nopush on;
# don't buffer data-sends (disable nagle algorithm). good for sending frequent small bursts of data in real time.
# 不要緩存 data-sends (關閉 nagle 算法),這個能夠提高高頻發送小資料封包的實時性。
tcp_nodelay on;
# timeout for keep-alive connections. server will close connections after this time.
# 配置連接配接 keep-alive 逾時時間,伺服器将在逾時之後關閉相應的連接配接。
keepalive_timeout 30;
# number of requests a client can make over the keep-alive connection. this is set high for testing.
# 單個用戶端在 keep-alive 連接配接上可以發送的請求數量,在測試環境中,需要配置個比較大的值。
keepalive_requests 100000;
# allow the server to close the connection after a client stops responding. frees up socket-associated memory.
# 允許伺服器在用戶端停止發送應答之後關閉連接配接,以便釋放連接配接相應的 socket 記憶體開銷。
reset_timedout_connection on;
# send the client a "request timed out" if the body is not loaded by this time. default 60.
# 配置用戶端資料請求逾時時間,預設是 60 秒。
client_body_timeout 10;
# if the client stops reading data, free up the stale client connection after this much time. default 60.
# 用戶端資料讀逾時配置,用戶端停止讀取資料,逾時時間後斷開相應連接配接,預設是 60 秒。
send_timeout 2;
# compression. reduces the amount of data that needs to be transferred over the network
# 壓縮參數配置,減少在網絡上所傳輸的資料量。
gzip on;
gzip_min_length 10240;
gzip_proxied expired no-cache no-store private auth;
gzip_types text/plain text/css text/xml text/javascript application/x-javascript application/xml;
gzip_disable "msie [1-6].";
################################################################################################
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 16k;
fastcgi_buffers 16 16k;
fastcgi_busy_buffers_size 16k;
fastcgi_temp_file_write_size 16k;
fastcgi_cache test;
fastcgi_cache_valid 200 302 1h;
fastcgi_cache_valid 301 1d;
fastcgi_cache_valid any 1m;
fastcgi_cache_min_uses 1;
fastcgi_cache_use_stale error timeout invalid_header http_500;
關于fastcgi的幾個指令:
fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2 keys_zone=test:10m inactive=5m;
這個指令為fastcgi緩存指定一個路徑,目錄結構等級,關鍵字區域存儲時間和非活動删除時間。
fastcgi_connect_timeout 300;
指定連接配接到後端fastcgi的逾時時間。
fastcgi_send_timeout 300;
向fastcgi傳送請求的逾時時間,這個值是指已經完成兩次握手後向fastcgi傳送請求的逾時時間。
fastcgi_read_timeout 300;
接收fastcgi應答的逾時時間,這個值是指已經完成兩次握手後接收fastcgi應答的逾時時間。
fastcgi_buffer_size 16k;
指定讀取fastcgi應答第一部分 需要用多大的緩沖區,這裡可以設定為fastcgi_buffers指令指定的緩沖區大小,上面的指令指定它将使用1個 16k的緩沖區去讀取應答的第一部分,即應答頭,其實這個應答頭一般情況下都很小(不會超過1k),但是你如果在fastcgi_buffers指令中指 定了緩沖區的大小,那麼它也會配置設定一個fastcgi_buffers指定的緩沖區大小去緩存。
fastcgi_buffers 16 16k;
指定本地需要用多少和多大的緩沖區來 緩沖fastcgi的應答,如上所示,如果一個php腳本所産生的頁面大小為256k,則會為其配置設定16個16k的緩沖區來緩存,如果大于256k,增大 于256k的部分會緩存到fastcgi_temp指定的路徑中, 當然這對伺服器負載來說是不明智的方案,因為記憶體中處理資料速度要快于硬碟,通常這個值 的設定應該選擇一個你的站點中的php腳本所産生的頁面大小的中間值,比如你的站點大部分腳本所産生的頁面大小為 256k就可以把這個值設定為16 16k,或者4 64k 或者64 4k,但很顯然,後兩種并不是好的設定方法,因為如果産生的頁面隻有32k,如果用4 64k它會配置設定1個64k的緩沖區去緩存,而如果使用64 4k它會配置設定8個4k的緩沖區去緩存,而如果使用16 16k則它會配置設定2個16k去緩存頁面,這樣看起來似乎更加合理。
fastcgi_busy_buffers_size 32k;
這個指令我也不知道是做什麼用,隻知道預設值是fastcgi_buffers的兩倍。
fastcgi_temp_file_write_size 32k;
在寫入fastcgi_temp_path時将用多大的資料塊,預設值是fastcgi_buffers的兩倍。
fastcgi_cache test
開啟fastcgi緩存并且為其制定一個名稱。個人感覺開啟緩存非常有用,可以有效降低cpu負載,并且防止502錯誤。但是這個緩存會引起很多問題,因為它緩存的是動态頁面。具體使用還需根據自己的需求。
fastcgi_cache_valid 200 302 1h;
fastcgi_cache_valid 301 1d;
fastcgi_cache_valid any 1m;
為指定的應答代碼指定緩存時間,如上例中将200,302應答緩存一小時,301應答緩存1天,其他為1分鐘。
fastcgi_cache_min_uses 1;
緩存在fastcgi_cache_path指令inactive參數值時間内的最少使用次數,如上例,如果在5分鐘内某檔案1次也沒有被使用,那麼這個檔案将被移除。
fastcgi_cache_use_stale error timeout invalid_header http_500;
不知道這個參數的作用,猜想應該是讓nginx知道哪些類型的緩存是沒用的。
附件有調好的配置。<b></b>