若懷刷拉排助手(下拉框關(guān)鍵詞刷排名工具) v1.0.1 綠色免費版
805KB / 01-18
站長萬能助手 v1.3 模擬POST、GET方式表單提交工具
36MB / 06-24
ET 無人值守免費自動采集器 3.5 綠色版
18.3MB / 10-24
石青偽原創(chuàng)SEO高級工具 v2.7.9.1 中文綠色免費版
59.8MB / 11-11
珍島t云系統(tǒng)(T-Cloud) v3.6 官方安裝版
93.7MB / 01-30
-
-
訊飛繪文(智能寫作分析軟件)v3.3.0 官方安裝版 站長工具 / 102MB
-
-
-
后羿采集器 linux版 v4.0.4 官方免費版 站長工具 / 113MB
-
后羿采集器 v4.0.4 官方免費安裝版 站長工具 / 82.8MB
-
-
-
網(wǎng)站爬蟲實時分析 VovSoft SEO Checker v9.4 多語綠色便攜版 站長工具 / 5.88MB
-
VovSoft Broken Link Detector(網(wǎng)站死鏈檢測)v4.2 綠色便攜版 站長工具 / 2.19MB
詳情介紹
Nginx日志分析工具是針對使用Nginx搭建網(wǎng)站的站長們推出的一款網(wǎng)站日志分析工具,軟件可以完美適配Nginx日志規(guī)則,幫助站長們輕松對Nginx日志進(jìn)行整理和統(tǒng)計。Nginx日志分析工具讓用戶可以更加清晰的分析網(wǎng)站的蜘蛛抓取情況,讓站長們可以更好的對網(wǎng)站進(jìn)行SEO操作,有需要的朋友可以下載使用哦!
Nginx日志分析工具使用說明
1、將從本站下載的壓縮包文件解壓,在解壓出來的文件夾中雙擊“Nginx日志分析工具.exe”文件就可以直接運行軟件。
2、打開軟件后點擊“選擇日志文件”按鈕導(dǎo)入需要進(jìn)行分析的Nginx日志文件,就可以讓軟件自動對Nginx日志進(jìn)行整理和分析。
3、此外我們還可以在右側(cè)輸入匹配規(guī)則來對日志中的內(nèi)容進(jìn)行篩選分析,比如篩選出所有蜘蛛的訪問記錄等等。
apache日志分析
以下內(nèi)容也是一些關(guān)于apache日志分析的東東,記錄下來。
1.什么是UV?
UV是unique visitor的簡寫,是指獨立訪客,是以實際訪問的電腦計數(shù)。
2.什么是IP?
IP是國際互聯(lián)網(wǎng)協(xié)議(Internet Protocol)的簡稱,是通過網(wǎng)絡(luò)間信息地址定位具體計算機的方式之一。
3.UV和IP的概念有什么區(qū)別?
對于IP來說,它在同一級別的網(wǎng)絡(luò)(例如某個局域網(wǎng)、社區(qū)網(wǎng)、教學(xué)樓網(wǎng)或者INTERNET)范圍內(nèi)是唯一的,同一局域網(wǎng)內(nèi)的所有電腦都只有一個共同ip。
舉例來說,我在一個局域網(wǎng)里,對外的IP是219.129.170.111,那么跟我同一局域網(wǎng)里的所有電腦都是這個IP,也就是說假如整個局域網(wǎng)的電腦都訪問您的網(wǎng)站的話,在24小時內(nèi)也只計算一個IP,所以相對UV來說不是很精確。
而UV跟IP稍有不同,UV是訪問你的網(wǎng)站的每一臺電腦客戶端?,F(xiàn)在很多朋友用的網(wǎng)絡(luò)都是局域網(wǎng),引入了UV后,就能更精確的統(tǒng)計。
總結(jié):
UV的統(tǒng)計數(shù)比IP更為準(zhǔn)確,能夠準(zhǔn)確的計數(shù)每一臺訪問電腦,而IP把同一局域內(nèi)的所有電腦視為一個。
(PS:UV計數(shù)會涉及COOKIE。)
上次因工作的需求對一臺apache的log做了一次整體的分析,所以順便也對apache的日志分析做下簡單的介紹,主要參考apache官網(wǎng)的Log Files
一.日志分析
如果apache的安裝時采用默認(rèn)的配置,那么在/logs目錄下就會生成兩個文件,分別是access_log和error_log
1.access_log
access_log為訪問日志,記錄所有對apache服務(wù)器進(jìn)行請求的訪問,它的位置和內(nèi)容由CustomLog指令控制,LogFormat指令可以用來簡化該日志的內(nèi)容和格式
例如,我的其中一臺服務(wù)器配置如下
CustomLog “| /usr/sbin/rotatelogs /var/log/apache2/%Y_%m_%d_other_vhosts_access.log 86400 480″ vhost_combined
-rw-r–r– 1 root root 22310750 12-05 23:59 2010_12_05_other_vhosts_access.log
-rw-r–r– 1 root root 26873180 12-06 23:59 2010_12_06_other_vhosts_access.log
-rw-r–r– 1 root root 26810003 12-07 23:59 2010_12_07_other_vhosts_access.log
-rw-r–r– 1 root root 24530219 12-08 23:59 2010_12_08_other_vhosts_access.log
-rw-r–r– 1 root root 24536681 12-09 23:59 2010_12_09_other_vhosts_access.log
-rw-r–r– 1 root root 14003409 12-10 14:57 2010_12_10_other_vhosts_access.log
通過CustomLog指令,每天一天生成一個獨立的日志文件,同時也寫了定時器將一周前的日志文件全部清除,這樣可以顯得更清晰,既可以分離每一天的日志又可以清除一定時間以前的日志通過制,LogFormat定義日志的記錄格式
LogFormat “%h %l %u %t \”%r\” %>s %b \”%{Referer}i\” \”%{User-Agent}i\”" combined
LogFormat “%{X-Forwarded-For}i %l %u %t \”%r\” %>s %b \”%{Referer}i\” \”%{User-Agent}i\”" combinedproxy
LogFormat “%h %l %u %t \”%r\” %>s %b” common
LogFormat “%{Referer}i -> %U” referer
LogFormat “%{User-agent}i” agent
隨意的tail一個access_log文件,下面是一條經(jīng)典的訪問記錄
218.19.140.242 – - [10/Dec/2010:09:31:17 +0800] “GET /query/trendxml/district/todayreturn/month/2009-12-14/2010-12-09/haizhu_tianhe.xml HTTP/1.1″ 200 1933 “-” “Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.8) Gecko/20100722 Firefox/3.6.8 (.NET CLR 3.5.30729)”
一共是有9項,將他們一一拆開
218.19.140.242
-
-
[10/Dec/2010:09:31:17 +0800]
“GET /query/trendxml/district/todayreturn/month/2009-12-14/2010-12-09/haizhu_tianhe.xml HTTP/1.1″
200
1933
“-”
“Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.8) Gecko/20100722 Firefox/3.6.8 (.NET CLR 3.5.30729)”
1) 218.19.140.242 這是一個請求到apache服務(wù)器的客戶端ip,默認(rèn)的情況下,第一項信息只是遠(yuǎn)程主機的ip地址,但我們?nèi)绻枰猘pache查出主機的名字,可以將 HostnameLookups設(shè)置為on,但這種做法是不推薦使用,因為它大大的減緩了服務(wù)器.另外這里的ip地址不一定就是客戶主機的ip地址,如果 客戶端使用了代理服務(wù)器,那么這里的ip就是代理服務(wù)器的地址,而不是原機.
2) - 這一項是空白,使用”-”來代替,這個位置是用于標(biāo)注訪問者的標(biāo)示,這個信息是由identd的客戶端存在,除非IdentityCheck為on,非則apache是不會去獲取該部分的信息(ps:不太理解,基本上這一項都是為空,奉上原文)
The “hyphen” in the output indicates that the requested piece of information is not available. In this case, the information that is not available is the RFC 1413 identity of the client determined by identd on the clients machine. This information is highly unreliable and should almost never be used except on tightly controlled internal networks. Apache httpd will not even attempt to determine this information unless IdentityCheck is set to On.
3) - 這一項又是為空白,不過這項是用戶記錄用戶HTTP的身份驗證,如果某些網(wǎng)站要求用戶進(jìn)行身份雁陣,那么這一項就是記錄用戶的身份信息
4) [10/Dec/2010:09:31:17 +0800] 第四項是記錄請求的時間,格式為[day/month/year:hour:minute:second zone],最后的+0800表示服務(wù)器所處的時區(qū)為東八區(qū)
5) “GET /..haizhu_tianhe.xml HTTP/1.1″ 這一項整個記錄中最有用的信息,首先,它告訴我們的服務(wù)器收到的是一個GET請求,其次,是客戶端請求的資源路徑,第三,客戶端使用的協(xié)議時HTTP/1.1,整個格式為”%m %U%q %H”,即”請求方法/訪問路徑/協(xié)議”
6) 200 這是一個狀態(tài)碼,由服務(wù)器端發(fā)送回客戶端,它告訴我們客戶端的請求是否成功,或者是重定向,或者是碰到了什么樣的錯誤,這項值為200,表示服務(wù)器已經(jīng)成 功的響應(yīng)了客戶端的請求,一般來說,這項值以2開頭的表示請求成功,以3開頭的表示重定向,以4開頭的標(biāo)示客戶端存在某些的錯誤,以5開頭的標(biāo)示服務(wù)器端 存在某些錯誤
7) 1933 這項表示服務(wù)器向客戶端發(fā)送了多少的字節(jié),在日志分析統(tǒng)計的時侯,把這些字節(jié)加起來就可以得知服務(wù)器在某點時間內(nèi)總的發(fā)送數(shù)據(jù)量是多少
8) - 暫不知
9) “Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.8) Gecko/20100722 Firefox/3.6.8 (.NET CLR 3.5.30729)” 這項主要記錄客戶端的瀏覽器信息
2.error_log
error_log為錯誤日志,記錄下任何錯誤的處理請求,它的位置和內(nèi)容由ErrorLog指令控制,通常服務(wù)器出現(xiàn)什么錯誤,首先對它進(jìn)行查閱,是一個最重要的日志文件
tail error_log,隨意摘取一個記錄
[Fri Dec 10 15:03:59 2010] [error] [client 218.19.140.242] File does not exist: /home/htmlfile/tradedata/favicon.ico
同樣也是分為幾個項
[Fri Dec 10 15:03:59 2010]
[error]
[client 218.19.140.242]
File does not exist: /home/htmlfile/tradedata/favicon.ico
1) [Fri Dec 10 15:03:59 2010] 記錄錯誤發(fā)生的時間,注意,它跟我們上面access_log記錄的時間格式是不同的
2) [error] 這一項為錯誤的級別,根據(jù)LogLevel指令來控制錯誤的類別,上面的404是屬于error級別
3) [client 218.19.140.242] 記錄客戶端的ip地址
4) File does not exist: /home/htmlfile/tradedata/favicon.ico 這一項首先對錯誤進(jìn)行了描述,例如客戶端訪問一個不存在或路徑錯誤的文件,就會給出404的提示錯誤
二.實用的日志分析腳本
了解日志的各種定義后,這里分享一下從網(wǎng)上淘來的一些對日志分析的腳本
1.查看apache的進(jìn)程數(shù)
ps -aux | grep httpd | wc -l
2.分析日志查看當(dāng)天的ip連接數(shù)
cat default-access_log | grep “10/Dec/2010″ | awk ‘{print $2}’ | sort | uniq -c | sort -nr
3.查看指定的ip在當(dāng)天究竟訪問了什么url
cat default-access_log | grep “10/Dec/2010″ | grep “218.19.140.242″ | awk ‘{print $7}’ | sort | uniq -c | sort -nr
4.查看當(dāng)天訪問排行前10的url
cat default-access_log | grep “10/Dec/2010″ | awk ‘{print $7}’ | sort | uniq -c | sort -nr | head -n 10
5.看到指定的ip究竟干了什么
cat default-access_log | grep 218.19.140.242 | awk ‘{print $1″\t”$8}’ | sort | uniq -c | sort -nr | less
6.查看訪問次數(shù)最多的幾個分鐘(找到熱點)
awk ‘{print $4}’ default-access_log |cut -c 14-18|sort|uniq -c|sort -nr|head
三.使用awstats自動分析日志
當(dāng)然啦,如果想最簡單和最直觀的分析日志還是用工具,現(xiàn)在網(wǎng)上較流行的工具是awstats,一個基于perl的web日志分析工具,功能很強大也支持IIS等服務(wù)器
下載地址
人氣軟件
未注冊域名批量查詢工具 域名注冊通 1.8 個人免費版
智能AI偽原創(chuàng)文章生成器(文章仿寫)V1.0 綠色免費版
若懷刷拉排助手(下拉框關(guān)鍵詞刷排名工具) v1.0.1 綠色免費版
Nginx日志分析工具 v2.0 綠色中文免費版
網(wǎng)頁木馬 批量替換工具 批量文件內(nèi)容替換器綠色免費版(支持正則)
域名注冊批量查詢注冊域名必備
火車采集器(LocoySpider) v2009 炎黃網(wǎng)絡(luò)合作版 商業(yè)版
Octoparse(數(shù)據(jù)采集軟件) v8.7.7 官方免費安裝版
站長助手
亞馬遜Amazon賣家關(guān)鍵詞挖掘軟件 v3.0 中文免費綠色版
相關(guān)文章
-
搜外內(nèi)容管家(關(guān)鍵詞挖掘采集)v1.8.7 官方綠色版
搜外內(nèi)容管家支持鍵詞挖掘、文章采集、問答組合功能,同時支持將文章自動發(fā)布到網(wǎng)站上,本站提供的是這款軟件的安裝版本...
-
水淼網(wǎng)站權(quán)重查詢助手 V1.0.0.0 綠色便攜版
水淼網(wǎng)站權(quán)重查詢助手支持查詢百度PC、百度移動、搜狗PC、搜狗移動等,本站提供的是這款軟件的綠色版本...
-
訊飛繪文(智能寫作分析軟件)v3.3.0 官方安裝版
訊飛繪文是一款A(yù)I智能寫作軟件,支持選題、寫作、配圖、排版、潤色、發(fā)布、數(shù)據(jù)分析等功能,適用于公眾號、頭條號和新聞等多種場景,該軟件集成了內(nèi)容運營的全流程,能夠?qū)崟r捕...
-
網(wǎng)站爬蟲實時分析 VovSoft SEO Checker v9.4 多語綠色便攜版
VovSoft SEO Checker是一款易于使用的網(wǎng)站爬蟲,能夠高效地爬取小型和超大型網(wǎng)站,同時讓您找到失效鏈接,實時分析結(jié)果,收集現(xiàn)場數(shù)據(jù),歡迎需要的朋友下載使用...
-
全網(wǎng)熱點要聞采集器 V2.0 綠色便攜版
全網(wǎng)熱點要聞采集器支持一鍵采集全網(wǎng)熱點要聞,是自媒體從業(yè)者必備神器等...
-
VovSoft Bulk Domain Appraisal 破解補丁/注冊機 v3.4 綠色版 附激活教程
VovSoft Bulk Domain Appraisal 激活補丁,域名評估軟件,VovSoft Bulk Domain Appraisal是一款域名評估軟件,也是站長必備工具之一,但是VovSoft Bulk Domain Appraisal需...
下載聲明
☉ 解壓密碼:chabaoo.cn 就是本站主域名,希望大家看清楚,[ 分享碼的獲取方法 ]可以參考這篇文章
☉ 推薦使用 [ 迅雷 ] 下載,使用 [ WinRAR v5 ] 以上版本解壓本站軟件。
☉ 如果這個軟件總是不能下載的請在評論中留言,我們會盡快修復(fù),謝謝!
☉ 下載本站資源,如果服務(wù)器暫不能下載請過一段時間重試!或者多試試幾個下載地址
☉ 如果遇到什么問題,請評論留言,我們定會解決問題,謝謝大家支持!
☉ 本站提供的一些商業(yè)軟件是供學(xué)習(xí)研究之用,如用于商業(yè)用途,請購買正版。
☉ 本站提供的Nginx日志分析工具 v2.0 綠色中文免費版資源來源互聯(lián)網(wǎng),版權(quán)歸該下載資源的合法擁有者所有。