如何通过IIS日志分析网站的隐形信息-网络营销-优质IT资源分享社区

yutingzhinan
论坛版主
论坛版主
  • UID9
  • 粉丝1
  • 关注0
  • 发帖数36
阅读:243回复:0

如何通过IIS日志分析网站的隐形信息

楼主#
更多 发布于:2016-06-17 23:23

 
在网站的SEO优化过程中,并不是说一切的站点疑问都能够直接从站长东西上得到信息,在马海祥看来,通常站长东西上得到的信息都是在站点呈现疑问后才干察觉到。
作为一名SEOer,咱们更需求学会怎样检查网站的隐性信息,例如,这几天做的外链作用怎样?咱们的内容那些方面愈加简略遭到查找引擎蜘蛛的喜欢?查找引擎蜘蛛关于咱们站点的匍匐积极度怎样?……,这些都是隐藏在站点内部的一些要害信息。
虽然这些信息经过站长东西很难剖分出来啥成果,可这些信息恰恰能够从咱们的站点IIS日志上找到答案,那么,咱们该怎样经过IIS日志剖析网站的隐形信息呢?




一、为何IIS日志在剖析站点隐性信息中如此主要
1、经过IIS日记的记载咱们能够愈加明白的剖分出查找引擎蜘蛛在网站上的匍匐信息,这些信息包括有蜘蛛的匍匐道路以及匍匐深度。
经过这一些数据信息,咱们能够剖析近期咱们建造的外链作用怎样?由于咱们知道外链就像是引导蜘蛛匍匐的蜘蛛丝,假设外链建造的好的话,蜘蛛匍匐的自然而然频频,而且咱们能够记载下从哪一个“入口”进入蜘蛛的频率高。
2、网站的内容更新与蜘蛛匍匐存在必定的联系,通常只需咱们更新稳定频频,蜘蛛的就会匍匐得愈加的勤,对此,马海祥主张你能够凭借日志中的蜘蛛来访频率对网站内容的更新频率做一个细调。
3、经过日志咱们能够发现空间存在的一些毛病,这些毛病也许是一些站长东西无法察觉到的。
比方从前很火的美橙空间由于技术员误操作robots文件致使空间屏蔽了baidu了蜘蛛事情(准确写法可参阅一下马海祥博客的《robots协议文件的写法及语法属性解说》有关介绍),假设站长们事前剖析一下剖析一下空间日志,或许能够发现这一过错。
二、怎样取得日志文件以及应留意的事项
1、IIS日志,它是一个文件文件,拓展名为.log,在默许状况下,服务器天天都会在这些目录下创立日志文件,并用日期给日志文件命名(例如,exYYMMDD.log)。咱们检查他的办法很简略,即是将其从FTP中下载下来,然后放到桌面,用记事这篇文章件就能够翻开了。
2、要取得该日志文件咱们的空间需求有iis日志记载的功用,假设咱们的空间有这一功用的话,通常该日志文件会记载在weblog或Logfiles文件夹中,有的也叫log文件夹中,咱们能够直接从这一文件夹中下载咱们站点的日志文件。
3、在运用这一功用时咱们需求留意日志的生成时刻设置,马海祥的主张是假设站点是一个小型的站点能够让它一天生成一次,假设是对比大的站点咱们能够让其每小时更新,避免生成的文件呈现过大的状况。
三、怎样剖析解读蜘蛛做法
那找到并下载了IIS日志文件,这个时分咱们该怎样检查呢?有些兄弟会诉苦不知道怎样去检查,看不懂代码,不知道怎样去剖析,事实上IIS的日志代码剖析很简略的,都是一些固定的东西,接下来,马海祥就为你简略的介绍一下:
1、怎样检查IIS日志文件?
咱们能够记事本的方式翻开咱们站点的日志文件,运用记事本的查找功用查找baidu和google的蜘蛛,分别是BaiduSpider和Googlebot(更多的查找引擎蜘蛛标识可经过马海祥博客的《解读IIS日志中查找引擎蜘蛛称号代码及爬寻回来代码》有关介绍来查询)。
(1)、检查baidu蜘蛛的记载




(2)、检查google蜘蛛的记载




咱们能够分段对这个IIS日志进行剖析:
2012-04-5 00:47:10 是在这一个事情点蜘蛛爬进了咱们的站点。
116.255.169.37 这个ip是指咱们的站点。
GET紧跟这以后的即是蜘蛛匍匐的页面,从这边咱们能够了解近期咱们的啥页面被匍匐过。
200 0
0代表的是页面正常的状况码,当然还有别的不同数值的状况码,如500表示服务器超时等等。咱们能够借由这些状况码来剖析站点空间近期的体现状况。
220.187.51.144这一IP查找引擎蜘蛛的ip地址,当然这边就也许会呈现真假两种地址。
2、怎样辨认这一个地址是真的蜘蛛仍是假装的呢?
马海祥也为咱们共享一个自个的小办法,咱们能够翻开命令窗口,在窗口中履行nslookup+这一个所谓蜘蛛的地址。加入是货真价实的蜘蛛,那么就会有自个的服务器,反之则是无法找到信息。
(1)、真蜘蛛




(2)、假蜘蛛




3、为啥IIS日志中会有伪造的蜘蛛呢?
因素即是有别的站点伪形成假蜘蛛来匍匐抓取你的站点内容,假设任由这些假蜘蛛横行的话,会对站点的服务器耗费形成必定的影响(详细可检查马海祥博客的《抓取网站的查找引擎蜘蛛是不是越多越好》有关介绍)。
对此,咱们需求经过一些办法找到并屏蔽他们,当然咱们还需求仔细处理,不然把真蜘蛛拒之门外就不好了!
最后,咱们能够剖析日志文件中蜘蛛最常光临的几个页面,记载下来,而且找到为何会遭到蜘蛛喜爱的内外部因素。
 作为SEO或站长,大多数人也许对比熟悉那些直观的数据,如:流量、录入、反链等等的数据剖析,关于日志文件的剖析也许较为陌生。
但IIS日志关于网站优化剖析却至关主要,检查网站IIS日志可让咱们知道网站的死链接,404,301,502等等,可让咱们知道网站那些链接是查找引擎常常爬取的?天天那些页面是被查找引擎爬取过?也能够用于剖析网站为啥不录入?或许网站快照为啥不更新?隐藏在站点内部的一些要害信息。






[font=Tahoma  ]优质IT资源分享社区为你提供此文。
本站有大量优质SEOSEMSMM MMM 等网络营销相关教程视频,资料等资源,包含SEO SEM SMM
MMM等网络营销基础教程,高级进阶教程等等,教程视频资源涵盖传智播客,极客学院,达内,北大青鸟,猎豹网校等等IT职业培训机构的培训教学视频,价值巨大。欢迎点击下方链接查看。

网络营销教程视频
优质IT资源分享社区(www.itziyuan.top)
一个免费,自由,开放,共享,平等,互助的优质IT资源分享网站。
专注免费分享各大IT培训机构最新培训教学视频,为你的IT学习助力!

!!!回帖受限制请看点击这里!!!
!!!资源失效请在此版块发帖说明!!!

[PS:按 CTRL+D收藏本站网址~]


微信小程序开发

——“优质IT资源分享社区”管理员专用签名~

本版相似帖子

游客