webalizer是一个高效的、免费的web服务器日志分析程序。其分析结果以HTML文件格式保存,从而可以很方便的通过web服务器进 行浏览。Internet上的很多站点都使用webalizer进行web服务器日志分析。Webalizer具有以下一些特性:
1. 为是用C写的程序,所以其具有很高的运行效率。在主频为200Mhz的机器上,webalizer每秒钟可以分析10000条记录,所以分析一个40M大小的日志文件只需要15秒。
2. webalizer支持标准的一般日志文件格式(Common Logfile Format);除此之外,也支持几种组合日志格式(Combined Logfile Format)的变种,从而可以统计客户情况以及客户操作系统类型。并且现在webalizer已经可以支持wu-ftpd xferlog日志格式以及squid日志文件格式了。
3. 支持命令行配置以及配置文件。
4. 可以支持多种语言,也可以自己进行本地化工作。
5. 支持多种平台,比如UNIX、linux、NT, OS/2 和 MacOS等。
下载地址:
<a href="ftp://ftp.mrunix.net/pub/webalizer/webalizer-2.23-05-src.tgz">ftp://ftp.mrunix.net/pub/webalizer/webalizer-2.23-05-src.tgz</a>
[[email protected] webalizer-2.23-05]# tar xf webalizer-2.23-05-src.tgz
[[email protected] webalizer-2.23-05]# ./configure --with-language=chinese
[[email protected] webalizer-2.23-05]# make
6.编译成功后,会产生一个webalizer可执行文件,可以将其拷贝到/usr/sbin/目录下:
[[email protected] webalizer-2.23-05]# ls -l weba*
-rwxr-xr-x 1 root root 167563 May 20 15:16 webalizer
[[email protected] webalizer-2.23-05]# cp webalizer /usr/bin/
弄完之后就可以配置webalizer了.
配置:
上面说过,可以通过命令行配置webalizer,也可以通过配置文件进行配置,在本文中我们将介绍使用命令行参数进行配置,需要了解配置文件使用方法的朋友可以参考README文件,里面有很详细的介绍。
可以执行webalizer –h得到所有命令行参数:
[[email protected] webalizer-2.23-05]# webalizer -h
Usage: webalizer [options] [log file]
-h = print this help message
-V = print version information
-v = be verbose
-d = print additional debug info
-F type = Log type. type= (clf | ftp | squid | w3c)
-f = Fold sequence errors
-i = ignore history file
-p = preserve state (incremental)
-b = ignore state (incremental)
-q = supress informational messages
-Q = supress _ALL_ messages
-Y = supress country graph
-G = supress hourly graph
-H = supress hourly stats
-L = supress color coded graph legends
-l num = use num background lines on graph
-m num = Visit timout value (seconds)
-T = print timing information
-c file = use configuration file 'file'
-n name = hostname to use
-o dir = output directory to use
-t name = report title 'name'
-a name = hide user agent 'name'
-r name = hide referrer 'name'
-s name = hide site 'name'
-u name = hide URL 'name'
-x name = Use filename extension 'name'
-O name = Omit page 'name'
-P name = Page type extension 'name'
-I name = Index alias 'name'
-K num = num months in summary table
-k num = num months in summary graph
-A num = Display num top agents
-C num = Display num top countries
-R num = Display num top referrers
-S num = Display num top sites
-U num = Display num top URLs
-e num = Display num top Entry Pages
-E num = Display num top Exit Pages
-g num = Group Domains to 'num' levels
-X = Hide individual sites
-z dir = Use country flags in 'dir'
#!/usr/bin
run=/usr/sbin/webalizer
$run -F clf -p -n '' -t 'www.wangyuelou.org' -o /home/wwwroot/log /app/log/wangyuelou.access.log
-F clf 指明我们的web日志格式为标准的一般日志文件格式(Common Logfile Format)
-p 指定使用递增模式,这就是说每作一次分析后,webalizer会生产一个历史文件,这样下一次分析时就可以不分析已经处理过的部分。这样我们就可以在短时间内转换我们的日志文件,而不用担心访问量太大时日志文件无限增大了。
-n “ “ 指定服务器主机名为空,这样输出结果会美观一些。
-t “www.test.com” 指定输出结果标题。
-o 指定输出目录
/var/log/httpd/access_log:指定日志文件
测试
[root@www log]# $run -F clf -p -n '' -t 'www.wangyuelou.org' -o /home/wwwroot/log /app/log/Noname1.txt
Webalizer V2.23-05 (Linux 2.6.18-238.9.1.el5xen x86_64) English
Using logfile /app/log/Noname1.txt (clf)
Creating output in /home/wwwroot/log
History file not found...
Previous run data not found...
Saving current run data... [04/07/2011 11:01:08]
Generating report for April 2011
Saving history information...
Generating summary report
42 records in 1 seconds, 42/sec
分析的是nginx的日志,可能会因为nginx的设置多了一个空格 而不能分析出来.这点需要仔细排查.
<a href="http://jueshitou.blog.51cto.com/attachment/201105/20/385947_1305885088Hnb2.jpg"></a>
本文转自 珏石头 51CTO博客,原文链接:http://blog.51cto.com/gavinshaw/569820,如需转载请自行联系原作者