700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > shell脚本分析 nginx日志访问次数最多及最耗时的页面(慢查询)

shell脚本分析 nginx日志访问次数最多及最耗时的页面(慢查询)

时间:2022-08-07 13:17:39

相关推荐

shell脚本分析 nginx日志访问次数最多及最耗时的页面(慢查询)

当服务器压力比较大,跑起来很费力时候。我们经常做站点页面优化,会去查找那些页面访问次数比较多,而且比较费时。 找到那些访问次数高,并且比较耗时的地址,就行相关优化,会取得立竿见影的效果的。 下面是我在做优化时候,经常用到的一段shell 脚本。 这个也可以算是,统计web页面的slowpage 慢访问页面,象mysql slowquery 。

以下是我的:nginx 配制

log_format main '$remote_addr - remoteuser[remote_user [remoteu​ser[time_local] KaTeX parse error: Double superscript at position 33: … '̲"status" bodybytessent"body_bytes_sent "bodyb​ytess​ent"http_referer" ’

‘“httpuseragent""http_user_agent" "httpu​sera​gent""http_x_forwarded_for” $request_time’;

access_log /var/log/nginx/access.log main buffer=32k;

从上面配置,可以看到:ip在 第一列,页面耗时是在最后一列,中间用空格分隔。 因此在awk 中,分别可以用:$1

$NF 读取到当前值。 其中NF是常量,代表整个列数。

下面是分析代码的shell文件,可以存为slow.sh

#!/bin/shexport PATH=/usr/bin:/bin:/usr/local/bin:/usr/X11R6/bin;export LANG=zh_CN.GB2312;function usage(){echo "$0 filelog options";exit 1;}function slowlog(){#set -x;field=$2;files=$1;end=2;msg="";[[ $2 == '1' ]] && field=1&&end=2&&msg="总访问次数统计";[[ $2 == '2' ]] && field=3&&end=4&&msg="平均访问时间统计";echo -e "\r\n\r\n";echo -n "$msg";seq -s '#' 30 | sed -e 's/[0-9]*//g';awk '{split($7,bbb,"?");arr[bbb[1]]=arr[bbb[1]]+$NF; arr2[bbb[1]]=arr2[bbb[1]]+1; } END{for ( i in arr ) { print i":"arr2[i]":"arr[i]":"arr[i]/arr2[i]}}' $1 | sort -t: +$field -$end -rn |grep "pages" |head -30 | sed 's/:/\t/g'}[[ $# < 2 ]] && usage;slowlog $1 $2;

只需要执行:slow.sh 日志文件 1或者2

1:三十条访问最平凡的页面

2:三十条访问最耗时的页面

执行结果如下:

chmod +x ./slow.shchmod +x slow.sh ./slow.sh /var/log/nginx/./slow.sh /var/log/nginx/access.log 2平均访问时间统计#############################/pages/########1.php 4 120.456 30.114/pages/########2.php 1 16.161 16.161/pages/########3.php 2121122.49 5.29475/pages/########4.php6 28.645 4.77417..................

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。