武汉SEO

您的位置:首页 > SEO核心技术

做网站优化必懂的日志分析

2016-10-02 13:15:00


网站日志:网站日志就是通过系统自动记录我们网站上面的用户访问动态,从日志内容可以分析出用户或蛛蛛在什么时间,什么地点,什么访客,做了什么操作,得到什么结果,分析用户或蛛蛛在我们网站的访问结果,有助于我们改善网站优化。
 
一、网站日志数据到哪得到呢?
 
我们要从空间下载或用FTP连接到空间里面下载。因我的网站是直接从FTP下载的,我就用我的演示一遍。
 
1.用FTP连接到自己网站空间
 
2.找到日志文件夹
 
网站日志是以 .log 格式的文件,所以一般在空间里面会有一个 log 命名的相关文件夹,我们找到它。
 
3.把日志文件下载下来
 
找到日志文件后,我们右击鼠标,下载我们想要分析的日志日期,如我要分析2016-6-20的网站日志。
 
4.将下载下来的文件更改成压缩文件,解压出我们要的日志。
 
二、整理下载好的日志格式
 
1.整理日志文件

这里我们的日志还是 .txt 文件,打开后看起来很头痛,根本不知道要从何开始。我们需将解压好的志日文件数据导入到Excel表格中,好让我们进行整理数据。
 
2.导入步骤
 
新建Excel表格 —— 数据 —— 导入数据 —— 找到下载好的日志文件夹 —— 设置查看所有文件 —— 选中志日文件 —— 选择“其他编码” —— 选择“分隔符号” ——点选“空格”(其它默认)—— 下一步完成。
 
3.对导入的数据进行命名管理
 
我们将数据导入到表格里面后,就可以很清晰的看到数据规律,我们再把数据进行归类,归类后,我们就可以开始分析网站日志数据了。
PS:步骤写起来很复杂,操作熟悉了就很简单啦。
 
4.日志代码中文名称
 
我们要把网站日志代码的中文名写上,便于我们更好的理解网站日志。

5.分析日志
 
判断蜘蛛类型:
Baiduspider  百度蜘蛛
Googlebot 机器人
Baiduspider-image百度图片蜘蛛
ChinasoSpider  中搜蜘蛛

可以看出Spider是蛛蛛,bot是机器人,机器人也是蛛蛛,只是叫法不同而已。 我们要看看有哪些蛛蛛来到了我们的网站,哪些是正确的蛛蛛,哪些是假蛛蛛,哪些蛛蛛来了不仅不给我们带来流量,还占用我们的网站流量。

我们还要看我们的网站返回的状态码,哪些页面出现了404,503等等错误的页面。

看了这篇文章的人还看了
用360浏览器如何做网站死链分析
选择网站域名优化分析大全

相关文章

  • 标签云怎么做?

    标签云怎么做?

    首先找个标签云模板样式代码及 JS 标签云代码: 首页模板添加找到的标签云样式代码,如我找到的标签云代码如下,将此代码放到首页 !-- /tag标签云样式开始 -- style type=
  • 做SEO优化必知robots协议规则大全

    做SEO优化必知robots协议规则大全

    一、什么是 robots ? robots是站点与spider沟通的重要渠道,站点通过robots文件声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。 二、robots 格式定义 User-agent:用于描述搜索引擎robot的名字。 Disallow:用于描述不希望被访问
  • DEDECMS自带采集器过滤超链接并保留文本方法

    DEDECMS自带采集器过滤超链接并保留文本方法

    一直都没有用过采集,昨天体验了一把织梦自带的采集功能,感觉效果刚刚的。但是也有一些问题很快就凸现出来了。例如利用织梦采集功能自带的过滤超链 接规则时,会直接将链