在进行服务器管理时,要进行日志分析的
  1. 统计每秒钟的最高的并发

    1. awk '{print $6}' /data/logs/access.log | sort | uniq -c | sort -nr -k1 | head -n 1

    在这个命令中把 head -n 1,中1换成10(head -n 10)就是并发的前10名啦

  2. 统计当天的pv

  1. grep "10/May/2017" /data/logs/access.log | wc -l

说明:
awk ‘{ print $1}’:取数据的低1域(第1列)
sort:对IP部分进行排序。
uniq -c:打印每一重复行出现的次数。(并去掉重复行)
sort -nr -k1:按照重复行出现的次序倒序排列,-k1以第一列为标准排序。
head -n 10:取排在前10位的IP 。

Nginx Access Log日志统计分析常用命令

IP相关统计
统计IP访问量

  1. awk '{print $1}' access.log | sort -n | uniq | wc -l

查看某一时间段的IP访问量(4-5点)

  1. grep "07/Apr/2017:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l

查看访问最频繁的前100个IP

  1. awk '{print $1}' access.log | sort -n |uniq -c | sort -rn | head -n 100

查看访问100次以上的IP

  1. awk '{print $1}' access.log | sort -n |uniq -c |awk '{if($1 >100) print $0}'|sort -rn

查询某个IP的详细访问情况,按访问频率排序

  1. grep '104.217.108.66' access.log |awk '{print $7}'|sort |uniq -c |sort -rn |head -n 100

页面访问统计
查看访问最频的页面(TOP100)

  1. awk '{print $7}' access.log | sort |uniq -c | sort -rn | head -n 100

查看访问最频的页面([排除php页面】(TOP100)

  1. grep -v ".php" access.log | awk '{print $7}' | sort |uniq -c | sort -rn | head -n 100

查看页面访问次数超过100次的页面

  1. cat access.log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}' | less

查看最近1000条记录,访问量最高的页面

  1. tail -1000 access.log |awk '{print $7}'|sort|uniq -c|sort -nr|less

每秒请求量统计
统计每秒的请求数,top100的时间点(精确到秒)

  1. awk '{print $4}' access.log |cut -c 14-21|sort|uniq -c|sort -nr|head -n 100

每分钟请求量统计
统计每分钟的请求数,top100的时间点(精确到分钟)

  1. awk '{print $4}' access.log |cut -c 14-18|sort|uniq -c|sort -nr|head -n 100
  2. ``
  3. 每小时请求量统计
  4. 统计每小时的请求数,top100的时间点(精确到小时)
  5. ```shell
  6. awk '{print $4}' access.log |cut -c 14-15|sort|uniq -c|sort -nr|head -n 100

性能分析
在nginx log中最后一个字段加入$request_time

列出传输时间超过 3 秒的页面,显示前20条

  1. cat access.log|awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20

列出php页面请求时间超过3秒的页面,并统计其出现的次数,显示前100条

  1. cat access.log|awk '($NF > 1 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100

蜘蛛抓取统计
统计蜘蛛抓取次数

  1. grep 'Baiduspider' access.log |wc -l

统计蜘蛛抓取404的次数

  1. grep 'Baiduspider' access.log |grep '404' | wc -l

TCP连接统计
查看当前TCP连接数

  1. netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l

用tcpdump嗅探80端口的访问看看谁最高

  1. tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr

参考:https://www.idaima.com/article/11977

分类: web

标签:   nginx   awk