Nginx日志統(tǒng)計(jì)分析的常用命令總結(jié)
本文主要給大家總結(jié)了關(guān)于Nginx日志統(tǒng)計(jì)分析的一些常用命令,分享出來供大家參考學(xué)習(xí),下面來一起看看詳細(xì)的介紹:
一、IP相關(guān)統(tǒng)計(jì)
統(tǒng)計(jì)IP訪問量
awk '{print $1}' access.log | sort -n | uniq | wc -l查看某一時間段的IP訪問量(4-5點(diǎn))
grep "07/Apr/2017:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l查看訪問最頻繁的前100個IP
awk '{print $1}' access.log | sort -n |uniq -c | sort -rn | head -n 100查看訪問100次以上的IP
awk '{print $1}' access.log | sort -n |uniq -c |awk '{if($1 >100) print $0}'|sort -rn查詢某個IP的詳細(xì)訪問情況,按訪問頻率排序
grep '104.217.108.66' access.log |awk '{print $7}'|sort |uniq -c |sort -rn |head -n 100二、頁面訪問統(tǒng)計(jì)
查看訪問最頻的頁面(TOP100)
awk '{print $7}' access.log | sort |uniq -c | sort -rn | head -n 100查看訪問最頻的頁面([排除php頁面】(TOP100)
grep -v ".php" access.log | awk '{print $7}' | sort |uniq -c | sort -rn | head -n 100查看頁面訪問次數(shù)超過100次的頁面
cat access.log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}' | less查看最近1000條記錄,訪問量最高的頁面
tail -1000 access.log |awk '{print $7}'|sort|uniq -c|sort -nr|less每秒請求量統(tǒng)計(jì)
統(tǒng)計(jì)每秒的請求數(shù),top100的時間點(diǎn)(精確到秒)
awk '{print $4}' access.log |cut -c 14-21|sort|uniq -c|sort -nr|head -n 100每分鐘請求量統(tǒng)計(jì)
統(tǒng)計(jì)每分鐘的請求數(shù),top100的時間點(diǎn)(精確到分鐘)
awk '{print $4}' access.log |cut -c 14-18|sort|uniq -c|sort -nr|head -n 100每小時請求量統(tǒng)計(jì)
統(tǒng)計(jì)每小時的請求數(shù),top100的時間點(diǎn)(精確到小時)
awk '{print $4}' access.log |cut -c 14-15|sort|uniq -c|sort -nr|head -n 100三、性能分析
在nginx log中最后一個字段加入$request_time
列出傳輸時間超過3秒的頁面,顯示前20條
cat access.log|awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20列出php頁面請求時間超過3秒的頁面,并統(tǒng)計(jì)其出現(xiàn)的次數(shù),顯示前100條
cat access.log|awk '($NF > 1 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100四、蜘蛛抓取統(tǒng)計(jì)
統(tǒng)計(jì)蜘蛛抓取次數(shù)
grep 'Baiduspider' access.log |wc -l
統(tǒng)計(jì)蜘蛛抓取404的次數(shù)
grep 'Baiduspider' access.log |grep '404' | wc -l
五、TCP連接統(tǒng)計(jì)
查看當(dāng)前TCP連接數(shù)
netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l
用tcpdump嗅探80端口的訪問看看誰最高
tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr六、實(shí)例腳本
獲取前一分鐘nginx訪問日志條數(shù)
#!/bin/bash export LANG=C export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin TIME=$(date -d "1 minute ago" +"%d/%h/%Y:%H:%M") grep "$TIME" /var/log/nginx/access.log | wc -l
獲取前一分鐘nginx錯誤日志條數(shù)
#!/bin/bash export LANG=C export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin TIME=$(date -d "1 minute ago" +"%Y-%m-%d %H:%M") grep "$TIME" /var/log/nginx/error.log | wc -l
常用操作命令
根據(jù)訪問ip統(tǒng)計(jì)UV
awk '{print $1}' access.log|sort | uniq -c |wc -l根據(jù)訪問url統(tǒng)計(jì)PV量
awk '{print $7}' access.log | wc -l查詢訪問最頻繁的URL
awk '{print $7}' access.log|sort | uniq -c |sort -n -k 1 -r|more
查詢訪問最頻繁的IP
awk '{print $1}' access.log|sort | uniq -c |sort -n -k 1 -r|more
查詢傳輸時間超過3秒的頁面
cat access.log |awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20統(tǒng)計(jì)某路由平均響應(yīng)時間
grep "/" access.log | awk '{print $NF}' | grep -P '\d{3}?$' | awk '{sum += $0;}END {if(sum==0)print 0;else print sum/NR}'
獲取每分鐘的請求數(shù)量,輸出到文件
cat access.log | awk '{print substr($4,14,5)}' | uniq -c | awk '{print $2","$1}' > access.txt
日志截取
# 從總?cè)罩疚募薪厝∽蛱煲徽斓臄?shù)據(jù)出來,并覆蓋到新文件中: cat access.log | awk '$4 >="[14/Mar/2023:00:00:00" && $4 <="[14/Mar/2023:23:59:59"' > access.2023051010.log
將某一時間段的日志輸出到文件中
# 打印一天的日志 cat access.log | egrep "2023-05-04" > test.log # 打印一小時的日志cat access.log | egrep "04/Jun/2023:10" > test.log #打印任意時間段的日志 sed -n '/04\/Jun\/2023:10/,/04\/Jun\/2023:12/p' access.log > test.log
備注
sort 排序
sort 默認(rèn)是升序,sort -r 降序
sort -u 去除重復(fù)行
uniq 去重
-i 忽略大小寫字符
-c 進(jìn)行計(jì)數(shù)
-u 只顯示唯一的行
cut 從文件文件中截取
-d 后接分割字符
-f 依據(jù)-d的分隔符將信息分割成數(shù)段,-f 取出第幾段
-c 以字符的單位取出固定字符區(qū)間
wc 統(tǒng)計(jì)文件里面有多少單詞,多少行,多少字符
-l :僅列出行
-w :僅列出多少字(英文單字)
-m :多少字符最后提供一個綜合有用的腳本
#!/bin/bash
#此腳本用于統(tǒng)計(jì)nginx日志當(dāng)前時間n分鐘之內(nèi)不同接口的訪問量統(tǒng)計(jì)
LOG=/mnt/data/nginx-1.20.1/logs/access.log
TMP=/tmp/url.tmp
URLSTATS=mnt/data/nginx-1.20.1/logs/urlstats.log
#刪除臨時統(tǒng)計(jì)文件
[ -f $TMP ] && rm -fr $TMP
for i in `seq 15`
do
d=`date +%d/%h/%Y:%H:%M -d "$i minutes ago"`
#將每個時間段的URL進(jìn)行統(tǒng)計(jì)并追加到臨時文件
awk -v b="$d" '{if ($4 ~ b)a[$7]++}END{for(i in a)printf("%-42s %-d\n", i,a[i])}' $LOG >> $TMP
done
#將匯總到臨時文件的URL統(tǒng)計(jì)進(jìn)行匯總
if [ -s $TMP ];then
awk '{a[$1]+=$2;}END{for(i in a)printf("%-42s %-d\n", i,a[i])}' $TMP | sort -nr -k2 > $URLSTATS
else
echo "沒有統(tǒng)計(jì)到相關(guān)數(shù)據(jù)"
fi總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作能帶來一定的幫助,如果有疑問大家可以留言交流,謝謝大家對腳本之家的支持。
相關(guān)文章
詳解如何通過nginx進(jìn)行服務(wù)的負(fù)載均衡
負(fù)載均衡器可以將用戶請求根據(jù)對應(yīng)的負(fù)載均衡算法分發(fā)到應(yīng)用集群中的一臺服務(wù)器進(jìn)行處理,本文主要為大家詳細(xì)介紹了如何通過nginx進(jìn)行服務(wù)的負(fù)載均衡,需要的可以參考下2023-11-11
Nginx訪問日志access_log配置及信息詳解(推薦)
當(dāng)你設(shè)置日志級別成debug,如果你在調(diào)試一個在線的高流量網(wǎng)站的話,你的錯誤日志可能會記錄每個請求的很多消息,這樣會變得毫無意義,下面小編給大家介紹Nginx訪問日志access_log配置及信息詳解,感興趣的朋友跟隨小編一起看看吧2024-04-04
使用Kubernetes部署Springboot或Nginx的詳細(xì)教程
這篇文章主要介紹了用Kubernetes部署Springboot或Nginx的詳細(xì)教程,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-07-07
總結(jié)高并發(fā)下Nginx性能如何優(yōu)化
這篇文章主要為大家介紹了在高并發(fā)下Nginx性能如何優(yōu)化的總結(jié)分析,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步2021-10-10
Nginx訪問FTP服務(wù)器文件的時效性/安全校驗(yàn)的方法
nginx的實(shí)現(xiàn)方式在校驗(yàn)失敗的時候頁面返回error image,跳轉(zhuǎn)的是420 error_page,成功的時候會訪問FTP文件服務(wù)器的路徑,反正圖片到頁面展示,這篇文章主要介紹了Nginx訪問FTP服務(wù)器文件的時效性/安全校驗(yàn),需要的朋友可以參考下2023-12-12
使用Nginx為自己的網(wǎng)站資源加上防盜鏈保護(hù)實(shí)現(xiàn)
這篇文章主要為大家介紹了使用Nginx為自己的網(wǎng)站資源加上防盜鏈保護(hù)實(shí)現(xiàn)詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-08-08

