首页重庆seo服务 › 网站改版后,站长们需要做好哪些工作?如何降低改版对网站的损失?

网站改版后,站长们需要做好哪些工作?如何降低改版对网站的损失?

欢迎来到重庆seo网站优化技巧学习分享点滴博客。上篇文章回顾,我们学习了百度站长平台关于闭站保护,这些问题你一定要知道,接下来我们继续学习网站改版后,站长们需要做好哪些工作?如何降低改版对网站的损失?

只要是网站就避免不了改版的情况,如果遇到网站改版站长们需要做好哪些准备工作?不更改域名的情况下,对网站版面重新设计排版,增加用户体验度。伴随改版而来的网站链接的变更,是我们需要重点考虑的问题,尤其是死链问题我们如何处理,以及改版对网站权重和排名的影响,如何降低改版对网站的损失?

网站改版

网站日志分析

网站改版后,需要每天关注新网站的动态,尤其需要了解搜索引擎对新网站的爬行及抓取是否友好,这里就需要对网站日志进行分析,查看搜索引擎返回代码200正常代码,还是400错误代码以及500服务器的错误代码呢。针对不正常的返回代码,做好应对工作。

死链处理

死链多是由改版前的网站沉淀下来的链接,由于网站改版所引起的链接地址的变化,从而导致原来页面的不存在,在搜索引擎爬行所返回404代码。我们知道如果一个网站返回的状态码404太多的话,对网站自身的优化很不利,所以这里需要我们做好死链的处理。

1、增加用户体验度,制作404页面

网上有许多404页面设计及代码,自己可以查询下载,或者通过一些网站输入错误路径,查看他们的404页面然后把源代码复制,相应的域名和链接做更改也可。

2、利用百度站长平台,提交死链地址

如果网站的死链比较少的话,可以把相应的死链地址提交给百度站长平台。如果网站的死链比较多的话,可以按照百度提供的办法制作一个死链地图,基本上每个站都有网站地图,把改版前的网站地图更改名称上传到网站的根目录下,然后把网站根目录的地址百度死链文件地址一栏填写正确,并提交。

3、利用robots协议阻止死链的抓取

robots.txt的文件是一个文本格式,告诉蜘蛛网站哪些内容是被允许抓取,哪些内容不被允许。robots.txt的写法非常简单:

User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符

Disallow: /sjcs/ 这里定义是禁止爬寻sjcs目录下面的目录

这里只需把死链的地址放入robots协议里提交百度站长平台就行了,等待更改后的robots协议。

◇ 新网站地图的制作

为了让蜘蛛尽快抓取改版后的网站,我们需要制作一个网站地图吸引蜘蛛的到来,这里就需要我们制作一个网站地图。不懂代码,不会制作的站长不用担心,网上有许多“在线制作网站地图”,只需要把网站域名填好自动生成并保存相应的格式。制作好的网站地图,上传到网站的根目录下,这里需要说明在robots协议的最后一行添加网站地图地址,是告诉蜘蛛这个网站的网站地图位置,吸引蜘蛛抓取。不会的加博主QQ:564311128,有免费工具,不懂的随时可以提问。

转载本站文章请注明出处:网站改版后,站长们需要做好哪些工作?如何降低改版对网站的损失?

文章出自:黄楼seo

上一篇:

下一篇:


博主精心推荐:
阿里云服务器(ECS) 阿里云精品网站模版 阿里云DDoS高防IP 阿里云服务器30元/月
已有1条评论
  1. 1523884331 2017-06-09 14:59:13 回复

    好好学习,天天向上

公安备案图标渝公网安备 50010802001971号 网站地图 重庆seo
×
用户注册

 

登录 忘记密码?
×
用户登录

 

注册 忘记密码?
×
订阅图标按钮