Google教你如何SEO,听到这个,你是不是很不相信?很意外?说实话我也真的很意外的,作为一个搜索引擎,你居然把SEO方法教给大家,想想都不可能。可是事实上,在 Inside AdSense-中文网站上已经有类似资料了,比如Google SEO 入门教程,又比如这篇:优化网站的抓取与收录。
说白了,其实google也希望大家多用用google也只有这样,他的广告才能推销得出去。可惜对我来说不太好。要知道我用了google广告很久,但真的没有什么点击率。而另外的朋友做了一段时间却已经有了不菲的收入。
因此对于google的这些SEO资料,我也就纯粹做做参考,不过,有些东西对于增加用户粘度啥的,还是有点用户的,比如作为一个用户,当你看到你的域名把整个地址栏都填满的时候,恐怕你也没有多大的兴趣把它复制给你的朋友吧。当然我想信,如果某个用户复制了很长很长的域名给你看的时候,你会点击它吗?这样地址在我眼里就是垃圾网站的代名词,只有那些作骗子网站才会有这么长的网址。
- 去除URL中的用户相关参数。那些不会对网页内容产生影响的URL中的参数——例如session ID或者排序参数——是可以从URL中去除的,并被cookie记录的。通过将这些信息加入cookie,然后301重定向至一个“干净”的URL,你可 以保持原有的内容,并减少多个URL指向同一内容的情况。
- 控制无限空间。你的网站上是否有一个日历表,上面的链接指向无 数个过去和将来的日期(每一个链接地址都独一无二)?你的网页地址是否在加入一个&page=3563的参数之后,仍然可以返回200代码,哪怕 根本没有这么多页?如果是这样的话,你的网站上就出现了所谓的“无限空间”,这种情况会浪费抓取机器人和你的网站的带宽。如何控制好“无限空间”,参考这 里的一些技巧吧。
- 阻止Google爬虫抓取他们不能处理的页面。通 过使用你的robots.txt 文件,你可以阻止你的登录页面,联系方式,购物车以及其他一些爬虫不能处理的页面被抓取。(爬虫是以他的吝啬和害羞而著名,所以一般他们不会自己 “往购物车里添加货物” 或者 “联系我们”)。通过这种方式,你可以让爬虫花费更多的时间抓取你的网站上他们能够处理的内容。
- 一人一票。 一个 URL, 一段内容。在 理想的世界里,URL和内容之间有着一对一的对应:每一个URL会对应一段独特的内容,而每一段内容只能通过唯一的一个URL访问。越接近这样的理想状 况,你的网站会越容易被抓取和收录。如果你的内容管理系统或者目前的网站建立让它实现起来比较困难,你可以尝试使用rel=canonical元素去设定 你想用的URL去指示某个特定的内容。
上面这些内容都可以值得作为参考。无谓的重复的内容,只会浪费大家的精力。呵呵。
SEO本来就是一些小技巧 慢慢的累积起来的。觉得有用就参考一下吧。