首页 | 站长免费中心 | 新手上路 | 网站运营 | 网页制作 | 图片设计 | 动画设计 | 网页编程 | 网页特效 | 本站专题 | 虚拟主机 | 域名注册 | 网站建设 | 程序下载
       免费空间资源 | 新闻咨询 | 免费域名 | 免费网盘 | 网站推广 | 网站策划 | 建站经验 | 网站优化 | 网页代码 | 源码下载 | 音乐小偷 | 网络赚钱 | 论坛交流
网站建设
网站建设
虚拟主机
虚拟主机
域名注册
域名注册
711网络首页
站长工具
站长工具
网站源码
网站源码
站长论坛
站长论坛

 711网络 网站运营seo优化

SEO必不可少:网站管理员工具深入分析

来源: 互联网    日期:2009-10-27
 

google webmastel tools的前身是google sitemaps,以前主要的用途是让网站主解决爬虫的抓取故障和提交sitemap。这两大功能其实只解决了google爬虫抓取的局限性,这主要只解决了google自己的问题。而那时SEO越来越流行,很多网站甚至用作弊的方法来做SEO。大家这么忙活,无非是想从google上面多拉一点流量,这个是广大网站主需要解决的问题。

本来,SEO看起来和搜索引擎是矛盾的。百度对SEO的认识就是这样,所以它仇视SEO,把自己和很多做SEO的网站主搞得处于对立的局面。

但是google不这么认为的。因为搜索引擎需要大量的网站来供应内容,它的期望是内容主次分明,越优质越好。而网站主希望能从搜索引擎获取流量,期望值是流量不光越多越好,还要越匹配越好的。那两者之间其实可以达成双赢的局面。

我做了很多年SEO,虽然从google获得了大量的流量。但是也越来越发现我是在给google打工的。因为我把一个网站的结构理顺了,把重要的内容突出了,google就知道了我网站有些什么内容,也知道了这些内容中的重点。这样,至少在判断我这个网站讲了什么内容的时候,google是很有把握的。而当很多网站都这么做的时候,google的内容质量整体就上升了一个等级。用户从google搜索到的内容更符合他们的需求了。同时,网站主凭借着主次分明的内容拿到的流量也是匹配网站主需求的优质的流量。

google从一开始就会这样说:“好吧,网站主,既然你想得到你想要的流量,那你提供相关的内容给我。你如果不知道什么是相关的内容,那么我来告诉你,还告诉你怎么来突出重点。”

所以《google网站质量指南》里的几百篇文章,以及google webmastel tools都是来告诉你要如何提供什么内容给搜索引擎。在我看来,google webmastel tools是google提供的最好的SEO工具,里面的每一个功能都是和SEO相关的,google在里面告诉你了要如何做SEO。

GSA的硬件和google现在用的服务器是一样的,包括传说中的自带电源和从没向外界说过的几公斤重的散热片。

google的专利-自带电源

google的专利-自带电源

这个GSA的软件部分,后台应该是google.com的老版本的一个子集。所以你可以简单的认为google的后台也是这样的。为了能尽量为网站主着想,google陆陆续续的把后台的一些功能都放进了google webmastel tools里。对于google来说,只要不泄露自己的核心机密,很多的数据和工具,如果能对网站主做好SEO有帮助的话,就把它开放出来让大家使用。

我就不一一说明每个功能在SEO上的作用,因为这个里面的很多细节都繁琐得可以写成一篇文章。以下就讲几个最近在google webmastel tools增减的功能,看看google是出于什么目的来调整的。

1,google webmastel tools 里有个控制爬虫“抓取速度”的选项,以前只能控制三个速度,就是“更快”、“正常”、“更慢”。而在我以前操作的google mini(GSA的老版本)中,也有这样一个调节爬虫抓取速度的选项,但是是一个拉动的滑块,可以调节出非常精确的抓取速度来。某一天,当我验证完一个新站的时候,发现google webmastel tools也已经是这样的了。

调节抓取速度

调节抓取速度

这个对于很多网站来说是很有好处的,因为那些网站不怕你爬虫来得多了把服务器爬死,就怕你不经常来。

2,最近增加的“像 Googlebot 一样抓取”的功能,在GSA的后台也是有的,只是不是这种表现形式。为什么要加一个这样的功能呢?这是因为google在抓取很多网站的时候碰到的一些问题越来越多才加这个功能的。

模拟google爬虫

模拟google爬虫

同一个网页,搜索引擎爬虫看到的和你用浏览器看到的其实是不一样的。因为浏览器有很大的容错性,你少一个《div》,或者html标签没有关闭,只要不错得离谱的话,网页看起来还是很正常的。 但是搜索引擎爬虫是不会这样的,你在CMS上或者代码上有什么问题,会让爬虫看不到你的页面。所以你需要模拟搜索引擎爬虫去访问你的网页,看看搜索引擎访问到的源代码是不是你真实的源代码。这个google模拟爬虫,还可以查看一个网页的返回码。这是因为一个网页,如果你给搜索引擎返回多个返回码,根据各种情况,搜索引擎要么不收录你的网页,要么你的用户从搜索引擎点进你的网站会出现500错误(服务器内部错误)。



文章共3页:  [1] [2] [3]


更多的SEO必不可少:网站管理员工具深入分析请到论坛查看: http://BBS.TC711.COM



【 双击滚屏 】 【 评论 】 【 收藏 】 【 打印 】 【 关闭 】 来源: 互联网    日期:2009-10-27   

发 表 评 论
查看评论

  您的大名:
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款
认证编码: 刷新验证码
点评内容: 字数0
  精品推荐  
  本月推荐  
  友情赞助  

关于我们 | 联系我们 | 广告投放 | 留言反馈 | 免费程序 | 虚拟主机 | 网站建设 |  网站推广 |  google_sitemap baidu_sitemap RSS订阅
本站所有资源均来自互联网,如有侵犯您的版权或其他问题,请通知管理员,我们会在最短的时间回复您
Copyright © 2005-2015 Tc711.Com All Rights Reserved 版权所有·711网络   蜀ICP备05021915号
110网监备案 信息产业备案 不良信息举报