Linux下使用nginx的日志进行简单统计分析

2024-02-22 487点热度 0人点赞 0条评论

如果网站没有安装统计分析代码,或者没有开发专门的统计分页功能,想要简单的做一些统计分析,可以使用nginx的日志,前提是前端的服务器使用的是nginx

一般来说nginx的访问日志路径是 /var/log/nginx/access.log,大部分nginx服务器是在linux下运行的,这里以linxu举例

统计PV,UV数

  1. 统计所有的PV数
    cat access.log | wc -l
  2. 统计当天的PV数
    cat access.log | sed -n /`date "+%d\/%b\/%Y"`/p | wc -l
  3. 统计指定某一天的PV数
    cat access.log | sed -n '/20\/Aug\/2019/p' | wc -l
  4. 根据访问IP统计UV
    awk '{print $1}' access.log|sort | uniq -c |wc -l
  5. 统计指定某一天访问IP统计UV
    cat access.log | grep "07/Apr/2019:0[4-5]" | awk '{print $1}' access.log|sort | uniq -c |wc -l

IP相关统计

  1. 统计IP访问量(独立ip访问数量)
    awk '{print $1}' access.log | sort -n | uniq | wc -l
  2. 查看某一时间段的IP访问量(4-5点)
    grep "07/Apr/2019:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l
  3. 查看访问最频繁的前100个IP
    awk '{print $1}' access.log | sort -n |uniq -c | sort -rn | head -n 100
  4. 查看访问100次以上的IP
    awk '{print $1}' access.log | sort -n |uniq -c |awk '{if($1 >100) print $0}'|sort -rn
  5. 查询某个IP的详细访问情况,按访问频率排序
    grep '127.0.0.1' access.log |awk '{print $7}'|sort |uniq -c |sort -rn |head -n 100

页面访问统计

  1. 查看访问最频的页面(TOP100)
    awk '{print $7}' access.log | sort |uniq -c | sort -rn | head -n 100
  2. 查看访问最频的页面([排除php页面】(TOP100)
    grep -v ".php"  access.log | awk '{print $7}' | sort |uniq -c | sort -rn | head -n 100
  3. 查询访问最频繁的URL
    awk '{print $7}' access.log|sort | uniq -c |sort -n -k 1 -r|more
  4. 查看页面访问次数超过100次的页面
    cat access.log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}' | less
  5. 查看最近1000条记录,访问量最高的页面
    tail -1000 access.log |awk '{print $7}'|sort|uniq -c|sort -nr|less

每秒每分钟每小时请求量统计

  1. 统计每秒的请求数,top100的时间点(精确到秒)
    awk '{print $4}' access.log |cut -c 14-21|sort|uniq -c|sort -nr|head -n 100
  2. 统计每分钟的请求数,top100的时间点(精确到分钟)
    awk '{print $4}' access.log |cut -c 14-18|sort|uniq -c|sort -nr|head -n 100
  3. 每小时的请求数,top100的时间点(精确到小时)
    awk '{print $4}' access.log |cut -c 14-15|sort|uniq -c|sort -nr|head -n 100

性能分析

在nginx log中最后一个字段加入$request_time
  1. 列出传输时间超过 3 秒的页面,显示前20条
    cat access.log|awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20
  2. 列出php页面请求时间超过3秒的页面,并统计其出现的次数,显示前100条
    cat access.log|awk '($NF > 1 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100

蜘蛛抓取统计

  1. 统计蜘蛛抓取次数
    grep 'Baiduspider' access.log |wc -l
  2. 统计蜘蛛抓取404的次数
    grep 'Baiduspider' access.log |grep '404' | wc -l

TCP连接统计

  1. 查看当前TCP连接数
    netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l
  2. 用tcpdump嗅探80端口的访问看看谁最高
    tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr

admin

这个人很懒,什么都没留下

文章评论

您需要 登录 之后才可以评论