松丫网 - 人生感悟句子_生活感悟文章_励志文章精选

网站日志该怎么分析?小白经验教程

发布时间:2021-01-02 12:11   文章来源:松丫网 作者:溪门飞雪 围观:

如今,做个网站已经不是什么难事了,而且价格也不是很贵,就算是找专业人士代做网站,价格也不贵。建站不难,难的是建站后的优化运营。这其中就有一个网站日志分析,网站日志是记录网站每日流量数据的凭证。网站日志会记录所有进入到网站的流量,包括搜索引擎蜘蛛。而通常使用的流量统计工具,则不会记录蜘蛛数据,因此,运营网站,分析网站日志是必要的。
 
我溪门飞雪在上学期间学的专业并不是计算机,而且在上学期间,舍友都去考计算机二级证,应该是“Visual FoxPro”,我不记得了,我是没去考。结果多年以后,我的舍友没一个从事编程类工作的,而唯一没去考计算机二级证的我从事了和编程沾边的工作。
 
哈哈哈,这可能就是造化弄人吧!
 
我做网站是报班学习加自学的,如今我已经能够很自如地编写html5网页,我之所以学习这类型的网页,而不是学其他“更高级”的代码,是因为html5网页代码更简洁,且能自如地适应不同尺寸的设备浏览网页。
 
如果你仔细观察,就会发现,很多网站,电脑端一个域名,手机端一个域名,他们没办法做到“多端同域名”,就是因为系统代码的限制。而html5就能够做到“多端同域名”。研究seo的都知道,做好“多端同域名”能够使得权重集中到一个域名上。
 
好了,就不废话了,说说新手小白该怎么分析网站日志吧!
网站日志该怎么分析?小白经验教程
以我溪门飞雪博客的经验,主要分析以下几个数据:
 
1、异常IP
 
我们在分析网站日志时,主要看IP地址,其中肯定会有一些异常IP,包括“抄袭者”“入侵者”等等。
 
那么,我们如何看是不是“抄袭者”?
 
当然,我们没办法找出人工抄袭者,但是我们能找出通过蜘蛛抓取的抄袭者。这里就找出一个抄袭蜘蛛——AhrefsBot,这个是个垃圾蜘蛛,可以屏蔽掉。
 
我的做法是在 robotos 当中封禁,并将其IP地址加入黑名单,禁止访问。但这些蜘蛛都是不讲道理的,就算你用 robotos 封禁,它也会访问,所以,我们只能屏蔽IP。
 
从分析中可以得知,该蜘蛛的IP段都是“54.36.148.”“54.36.149.”的。我之前已经屏蔽了该蜘蛛的 100 多个IP,但还是不断有它的IP,只能是发现后继续屏蔽IP。
 
“入侵者”,简单说就是黑客,这些黑客其实都是些菜鸟,因为高手黑客也不屑于入侵你这么个名不见经传的小网站。
 
这些入侵者会访问你的一些特殊的页面地址,这些地址通常可能没什么内容。他们的目的根本不是为了看你的内容,而是为了寻找你网站的漏洞,借机植入病毒。所以,发现这样的IP,直接屏蔽掉。当然了,如果是他们所访问的地址在你的网站上是死链,也就是状态码显示为“404”,则大可以不管他们。
 
在我国,这些黑客主要集中在广东地区,因此他们的IP地址也通常会显示广东地区。
 
此外,还要看入侵者是否有访问你的后台地址,但凡是访问你后台地址的,一律屏蔽掉。
 
2、抓取数据大小
 
我们在分析网站日志时,很重要一个就是看蜘蛛在抓取网页时,抓取了多少数据,如果抓取数据很小,而我们的网页内容很大。比如,网页是一篇一万多字的文章,而蜘蛛抓取数据可能只有几百,那么,就表明搜索引擎认为这个网页质量低,不太喜欢抓取。
 
比如像我溪门飞雪博客的首页,蜘蛛在抓取时,数据通常是8910左右,而谷歌抓的多一些,为33291左右,与这个数据出入在500之内都算正常。
 
当然你别根据我的数据来算,你的网页和我的网页不一样,数据大小也不一样。但不管是多少,基本每天的网站日志都会保持相同或者差别不是很大的数据,如果突然有一天相差非常大,你就要注意分析到底是什么原因导致的。
 
再比如,我的 https:///daylife/727.html 这个页面,各个搜索引擎抓取的数据都是 10439 左右,这篇文章内容字数只有1050字。
 
而 https:///daylife/732.html 这篇文章,只有1370个字,搜索引擎抓取数据是 10857 。
 
通过分析搜索引起抓取的数据大小,能够判断该页面有没有被降权。当然在分析抓取数据时要结合前边的状态码来看,如果状态码是404,则抓取数据为 0 也是正常的。
网站日志分析
3、删减某些东西
 
通过分析网站日志你可以发现搜索引擎大量抓取了什么东西,搜索引擎抓取也是会占用资源的,如果搜索引擎抓取的时间段和你网站流量高峰期相冲,则可以考虑删掉一些不必要的内容,以减轻服务器的负担。
 
当然,大部分情况下,搜索引擎都是在凌晨一两点左右抓取,这个时候,网站的人流量是最低的时候。在这个时间段,蜘蛛会大量抓取你的网站。而在其他时间,比如白天,蜘蛛只会爬取一些有更新,有新内容的网页。
 
如果这样子还觉得服务器压力大,那就可以删掉一些不必要但是蜘蛛经常抓取的内容,比如阅读数,评论,图片等。
 
4、检查robotos是否正确
 
搜索引擎在抓取你的网站时,只要你没有在robotos中规定禁止访问的,搜索引擎都可能去抓取,如果你对系统目录不熟悉,不知道该封禁哪些目录的时候,就可以通过分析网站日志,来看搜索引擎都抓了哪些目录页面,然后根据实际页面内容来确定是否要禁止抓取。
 
比如我的博客之前曾被灰色网站注入过病毒,而这些病毒普遍的特点都是动态地址,于是我直接在robotos当中禁止抓取动态页面,以达到就算病毒被注入,搜索引擎也不会爬取的效果。
 
 
以上就是我分析网站日志的心得,希望能帮助到小白站长。
.
分享不易,打赏个吧
既然来了留下你脍炙人口的金句吧(Now that you are here, please leave your popular sayings)
  • 全部评论(0
    还没有评论,快来抢沙发吧!
CopyRight © 2011-2016 All Rights Reserved 本站内容均为溪门飞雪原创 联系QQ:838919139 微信:Bluesky838