2011年11月25日星期五

什么样的文章长度有利于SEO?

今天谈一个关于搜索引擎优化细节得有点无聊的问题。

以前在论坛里有朋友问,什么样的文章长度有利于SEO?首先先说两句基本上永远正确的废话原则:

1)从用户出发,考虑用户体验,别考虑搜索引擎优化

2)有话则长,无话则短。

再来分析一下,如果必须要站在SEO的角度考虑,应该有些什么样的处理?

首先,文章最短也应该在200字左右以上。原因有两个:

1)如果只有几十个字,搜索引擎不容易判断出文字的主题是什么,也就判断不出与什么关键词最相关。

2)正文太短的话,有可能比导航系统,菜单,版权声明等杂七杂八的东西加起来的字数还少,被怀疑是复制内容。如果这样的文字过少的页面大量存在,可能造成网站内部复制网页增多。因为你的网页之间相似性太高,有区别的文字太短。

长文章容易吸引链接。看过很多很长的文章,甚至长到几十页。虽然读的时候拉来拉去有点儿不方便,但这样的文章其实是比较容易吸引链接的。

因为这样的文章通常都是就某个话题深入分析,不深入他也写不了这么长。所以其他的博客或网站发现这样的深入研究文章,自然会发现它的价值,把文章当作资源,然后引用。

如果把长的文章分成几段,其他博客就不容易引用。较零碎的文章被当作资源的可能性会降低。这两者之间其实是有微妙的心理差异的,一篇很长,很完整,很深入的文章,给人的印象就是有价值的资源。

再一个好处是,这样的文章内容丰富,在搜索引擎看来,能够增强权威性。

有的时候把长文章分成几页,也有它的优势。第一个好处是整个网站页面增多,网站规模变大。而大的网站有天生的权威度。

第二个是,如果你的文章能够划分成不同的章节,而每一个章节都各有重点,这时候把不同章节分成不同页面就更有利。因为每一个章节都有他的主题相关性,分成多页后,能够针对不同的关键词优化网页

一般来说,除了前面所讨论的很长的文章,根据文章本身的特性和你是否想更容易的吸引链接,来考虑是否分成不同页外,普通文章应该在400-800字之间比较合适。这并不仅仅是从SEO的角度考虑,也考虑到用户。太长容易让用户看第一眼就烦了,太短像前面说的不能形成主题。

当然这里讨论的是以SEO角度出发,但很多时候做网站,SEO只是很小的一部分考虑。比如说很多网站都有的常见问答FAQ,如果问题一两句话就答清楚了,也没必要写到几百字。

搜索引擎优化是自然和平衡的艺术

我一直觉得搜索引擎优化更多的是一种艺术,而不是技术。

我估计做网站设计和搜索引擎优化的以学理工科的居多,但是真正的搜索引擎优化所要求的文科的基础更多,比如市场营销,广告,心理学,写作等等。当然它也要求一些技术基础,比如HTML,PHP,服务器基础知识等。但对这些技术内容的要求不是很高。一个高级程序编写员并不意味着能成为一个好的搜索引擎优化人员。

说搜索引擎优化是自然的艺术,指的是对网站的优化应该看起来是自然而然的,无论搜索引擎还是用户都不应该感觉到你对网站做过了优化。

说搜索引擎优化是平衡的艺术,指的是你不能把搜索引擎优化手段用到极至。对一个网站你必须有总体的考量和计划。不同的推广手法,不同的SEO手法,要取得一个均衡。不应该有任何一个因素显得非常突出,或者非常弱。

当然这两方面都是说起来容易,做起来困难。

有很多人觉得搜索引擎优化很简单,读过一些资料后就成专家了。实际上一些细微的地方需要你积累很多经验,并对搜索引擎和搜索引擎优化有深刻的理解。

举一个搜索引擎优化自然性的例子。我们都知道把网站登录到网站分类目录里是获得反向链接的一个好方法。虽然反向链接的重要性现在有争议,但不可否认高质量的分类目录的反向链接对排名有一定影响。

很多站长会在网站设计完成后,向所有他知道的重要的分类目录登录,这也是很多专家所推荐的。但在实际工作中,我还是建议不要同时向这些目录登录。

站在搜索引擎的角度看,如果某一个网站突然在某一天或某一个时间内,在所有重要的网站分类目录中出现,你觉得这自然吗?很显然,只有脑子里想着搜索引擎优化的人才会这么做。一般的生意人会想到这一点吗?绝大部分不会。

当然,并不是说你这么做就一定会导致什么问题。但是如果这种搜索引擎优化痕迹太多的话,就成问题了。你必须从每一个小的地方注意。

再举一个平衡性的例子。一般来说,最好的优化是使你的网站在很多个关键词下排名提高,而不是只有某一个你最关注的关键词排到第一,但其他不太热门的相关关键词和其他网页都排的很靠后。也就是说,你不应该有一个全明星网页(一般来说是主页)在搜索你行业最热门关键词时排第一,而其他相关关键词都找不到你的网站。

这也同样适用于PageRank,有一些网站主页PR很高,但里面的内容页PR全是零。或者某一部分的内容网页PR不错,但大部分不好。

实际上你应该通过适当的内部链接结构,使你所有网页的PR得到提升,使你的主页PR能够均匀的分散到各个网页。有几个网页是你想侧重的,但是不应该让这几个重要网页和其他次要网页的悬殊太大。

2011年11月7日星期一

做小众市场的专家

Matt Cutts昨天发了一个SEO建议,不过并没谈多少具体的技术问题,而是建议大家从小众市场(niche market)做起。

学过市场营销的人都应该很清楚市场细分的重要性,现在的商业世界里非常注重小众市场,niche market,指的是非常专门化的,竞争不高的市场。

中文我查了一下,有的翻译成尼基市场,有的翻译成利基市场,专小市场,缝隙市场,还有的翻成局部市场,特定市场等。我觉得叫小众市场比较贴切。这种小众市场虽然占整个市场的份额不大,但容易进入,也容易占领。

Matt Cutts就建议做SEO的人,也要从小众市场出发,找到一个你感兴趣的并且擅长的小众市场,成为这个市场的专家,等你建立了权威地位,再从这里出发向外扩展。

以前说过做SEO不仅要做网页的优化,还要学很多其他的东西,包括市场营销,这就是一个很好的例子。

Matt Cutts拿SEO市场举例,做SEO的人不一定一下成为整个SEO行业的专家,可以考虑这些划分更细的小众市场:

专做访谈的SEO
翻译Matt Cutts视频的SEO
专长列出有意思的资料的SEO
提供站长线上广播的SEO
使播客更容易的SEO
专长某个CMS系统或购物车系统的SEO
专长Yahoo! stores的SEO
专长易用性的SEO
专长Adwords投资报酬率跟踪分析的SEO
把每次搜索引擎战略大会各讨论组做文字记录的SEO
做卡通的SEO
专注Google base,co-op,Yahoo! Answers,Facebook的SEO
提供Firefox插件的SEO
专门谈论专利技术的SEO
擅长优化动态网站的SEO
专门提供入门教材的SEO
给非盈利组织做SEO
专长数据库的SEO
等等等等。

Matt Cutts举的例子大部分是有所指的。

看看自己的行业,如果认真思考一下的话,也能够把市场划分的更细,然后关注于某一个小众市场。

2011年11月6日星期日

网站联盟线下订购的跟踪

前面讨论了网站联盟程序的用户及订单跟踪。有一种情况并没有被包括,就是线下订购的跟踪。

凡是在网站上生成订单的系统,都可以用上面所说的,以cookies为主,以IP地址,数据库比较为辅的跟踪方法。无论付款是线上还是线下,使用信用卡网上银行,还是银行转帐,现金交易等,因为系统生成的订单就已经带有联署计划跟踪信息,所以跟踪计算佣金都不是问题。

但有的 时候用户并不在网上生成订单,交易过程的很大一部分都是线下进行。比如卖大型机械的网站,提供服务的网站等,用户一般来说并不会在网上直接订购任何东西,而 是通过打电话或填写在线表格取得联系,其后的销售,合同签订及付款,都很可能与网站系统分开。在这种情况下,该怎么跟踪联署计划用户及佣金呢?

根据不同情 况,要计划不同方式。总的原理是,在用户和广告商取得联系信息的页面上,要有联署计划代码。

举例来说,如果用户是通过填写在线表格和广告商取得最初的 联系。那么在联系我们页的在线表格,可以通过hidden field 把网站联盟链接号码发给广告商。这样虽然用户看不到任何联署计划链接和号码,但广告商接到联系表格内容时,可以看到这个用户是由哪一个网站联盟链接所带 来的,然后在自己的客户管理系统中人工进行记录。

再比如,很多服务行业很可能用户是直接打电话与广告商联系。这时,在联系我们页可以通过程序将联署计 划代码转化为某种形式的优惠券代码或免费礼物代码。广告商接到用户电话时,通常以简单的调查方式询问用户是怎样知道广告商电话的。如果是通过网 站,广告商可以询问用户显示在联系电话旁边的优惠券号码或免费礼物号码是多少,用来给客户送礼物,一般用户不会拒绝免费礼物或优惠。实际上这个号码是联署链接号码,这样广告商同样可以跟踪联署链接带来的客户。

这种通过电话或填写在线表格达成的生意通常是购买次数少,购买金额大。所以通过这种人工处理方式,也尚可应付。

最新买卖链接服务

近一年来,Google对链接买卖的惩罚越来越重,大有深恶痛绝的架势。最近经常听到SEO业内人士抱怨因为买卖链接,网站排名消失,很多时候是整个站群连锅端。

以PR和链接为基石的排名算法是Google发扬光大的,可以说这是Google自己打开的潘朵拉盒子。只要外部链接还是SEO的重要因素,就会有人买卖链接,只不过做得越来越隐蔽。

前几天著名的链接买卖服务商TLA就推出inLinks服务,一个新型的链接买卖服务,特点是买卖的链接是加在博客正文中。TLA已经提供链接交易有年头了,主要是博客链接。但一直以来通过TLA买的链接都是在博客侧栏位置,这样的链接比较容易和正文区分开。

就算侧栏的链接不被当作付费链接,其效力也不如正文中的链接。搜索引擎很容易知道侧栏、导航条、网页底部这类地方的导出链接往往是广告、交换链接、付费链接等,所以投票力不如网页正文中的链接。

inLinks就试图解决这个问题,买卖的链接是在博客帖子正文中,和其他非付费的链接没有什么区别。这恐怕给Google鉴别付费链接增加不小难度,怪不得Matt Cutts马上表示,根据美国广告法,付费的链接应该归为广告,而广告就必须明确标志为广告。像这种与普通链接没区别却是收钱的链接可能违反广告相关法律。

这有点上纲上线。估计Matt Cutts正组织人寻找鉴别这类链接的方法呢。  :-)

以前就说过,准确鉴别付费链接近乎不可能。但另一方面,搜索引擎的智力不可小觑,链接买卖与Google的博弈结果会如何还很难讲。

想试试inLinks的尽管试,后果自负 :-)

搜索引擎怎样抓到你?

用户行为方式怎样影响搜索引擎排名结果,是很多SEO一直关心探讨的问题。

前一阵在点石论坛上就看到关于在百度大量点击搜索结果中自己的网站,从而进一步提高排名的讨论。其逻辑是,搜索结果中的某个网站被点击次数越多,说明越有用,用户越喜欢,搜索引擎会更进一步提高这个网站的排名。

不过这种用户行为方式是噪声很大的数据,极容易作弊。搜索引擎要在这些数据中提炼出精华非常困难。

前几天Google员工JohnMu就在Google帮助论坛里明确说,诸如点击某个网站,然后立即点返回按钮,这种操作并不会影响你网站的抓取、索引和排名。这太容易作弊,太容易被竞争对手利用了。

类似这种看似很有价值,却又很难提炼有用信息的数据还很多。比如给竞争对手网站群发垃圾链接。

说到底,要有效利用用户行为数据,关键在于搜索引擎怎样确认用户身份,也就是说准确辨别特定行为到底是谁干的。如果是大量真实的用户点击你的网站,停留的时间很长,那么对排名一定有益。如果搜索引擎能判断出这大量点击就是你一个人,或者是与你有关的一群人干的,可能效果正相反。

给对手群发也是如此,关键在于判别是谁群发。

我以前写过一篇无所遁形,更多属于科幻和瞎想。但谁敢肯定有朝一日,在网上通过基因来判断身份不会实现呢?20年前,如果谁跟我讲会有互联网,会有网站,会有SEO,那时候我也会觉得是科幻。

现在搜索引擎其实已经掌握了大量的数据,能帮助鉴别用户身份。比如Google就可以通过cookies,JS脚本,工具条,gmail帐号,Adsense帐号,Google Analytics帐号,IP地址,用户搜索数据等判定和鉴别用户身份。

一个用户如果登录过gmail帐号,再访问任何带有Adsense,Google Analytics,以及Google所能控制的任何JS脚本的网页,这些访问数据都将被记录在案。而带有Google JS脚本的网站现在多如牛毛,除了明显的Adsense,Google Analytics等,现在Google还收购了最大的网络广告公司DoubleClick,无数有广告的网站都在使用Google的代码。所以你在网上的一举一动,很难逃过Google的眼睛。

如果安装了Google的工具条,那你访问网站的情况就更一目了然了。

就算你能极端洁身自好,不露痕迹,既不登录任何Google帐号,浏览器关掉JS脚本功能,也不用工具条。总之你就是个隐身人,也还是不能保证搜索引擎就抓不到你。

比如说,如果你通过一个联盟买卖链接,这是Google很痛恨的事情。就算你能做到隐身,但你无法保证这个联盟里的其他人都能不露痕迹。如果这个链接买卖联盟里面的一些人暴露了身份,而这些人时不时访问一下你的网站,检查他们所买的链接,你的网站和你自己也就露馅了。

觉得搜索引擎没有这么聪明吗?谁知道呢?小心为妙。

网站关键词布局(上)

草根网的访谈中,有人问关键词在整个网站的布局问题。以前也写过帖子介绍过多个关键词的优化问题,今天再补充几点。

简单说,多个关键词在网站中需要合理布局,最难的安排在首页,中等难度的安排在栏目页,长尾性质的则安排在文章页或产品页面。

还需要注意以下几点。

一,一定要先做关键词研究

不了解用户在搜索哪些关键词,就谈不上合理的关键词布局。我看过太多公司网站首页目标关键词是网站设计人员想当然的词或者是公司名称,都是些根本不会有人搜索的词。

进行深入的关键词研究,除了避免最主要关键词选择重大失误,也有助于所有关键词在不同频道页的安排。最主要关键词通常是搜索数量最多的那2-3个,搜索次数低一等级的有哪些?这些词之间的意义差异性有多大?是否应该安排独立的频道?哪些词可以合并在一个频道?有多少这种中等程度的关键词需要安排?网站的整体架构是否能够满足这些关键词?是否找到的关键词太少,不足以使网站架构足够丰满?等等。

这些问题都必须进行深入的关键词研究,才能够得到答案,靠自己想是想不出来的。

二,恰当评估首页关键词。

做网站时,大部分人会觉得目标定在本行业最难的那个词效果最好,搜索次数多,来的流量一定大。比如在SEO行业就把目标定在SEO或搜索引擎优化上。

对有些企业网站来说,这也是不得已的事,因为企业产品名称是早就固定的,在出现互联网之前就这么叫,无法改变。

但有一些资讯类、门户类、社会化媒体以及个人网站,关注的主题和关键词其实是可大可小,就看你怎么确定。

确定了首页关键词,那么频道页关键词就相应确定了。而首页关键词到底是应该把目标放在SEO?还是北京SEO?还是北京西城区SEO?这需要考虑至少3个因素:

1)搜索次数。

2)竞争对手(现有排在前面网站)的实力。

3)自己愿意的花费的时间、金钱、人力。

很多时候并不一定要把目标定在最难的关键词上,尤其是对新网站来说。难度定的太高,两三年还没达到目标的话,恐怕站长就坚持不住了。

明天继续。

我爱黑帽SEO

我以前说过,虽然我个人不提倡也不做黑帽,但对黑帽SEO我并不排斥,白帽还是黑帽是生活方式的选择。当然前提是不要变成黑客

正相反,我很爱黑帽SEOer。原因有几个。

第一,很多SEO黑帽是非常聪明的,学习他们的手法和案例可以让人大开眼界。比如这个例子

第二,有黑帽们勇敢地不停地测试雷区,我们才可以知道什么是可以做的,什么是不可以做的。没有黑帽SEO做实验,白帽SEO也就比较危险了。

第三,有好多黑帽SEOer还是很有娱乐性的。

相信大家都经常在论坛里看到一些站长满脸无辜地抱怨网站被降权甚至删除等等。其实这些黑帽SEOer心里知道是为什么,大家也都心知肚明。

前两天Google帮助论坛里就有个帖子很有娱乐效果。这位发贴站长貌似很无辜的被Google删除了所有网站。他列出了5个信息类网站,据他所说都是真正的人工做的信息类网站,针对不同话题,没有一个是那种自动生成内容的网站。5个域名,无一例外都是充满关键词的长域名。

站长很迷惑很委屈地问:这是为什么?这是为什么?这不公平啊!

然后有人指出,这些网站都有很大一部分是交换友情链接页面,所有这些网站互相交叉链接起来,形成链接农场。站长又很纯真地回答,我们这些交叉链接不是为了PR和链接,因为我们早知道同一个IP上的交叉链接是没有用的。当然,这位站长不在乎PR和链接,但很在乎网站被删除。

又有人发现网站的一些页面有重复内容,最典型的是隐私权政策页面。这倒不是什么大问题,隐私权政策本来就全都差不多。这位站长严正声明,我们公司有政策,要求员工不可以抄袭内容,所以大部分内容都是原创的。

然后一个Google员工跳出来指出,他们网站上经常有类似这样的内容:

Every year, millions of people suffer from head injury symptoms. Most of these are minor because the skull is designed to protect the brain. Most closed head injury symptoms will usually go away on their own. However, more than half a million head injuries a year, are severe enough to require hospitalization.

而这些内容在其他网站上早就有了,只不过差几个字:

Every year, approximately two million people sustain a head injury. Most of these injuries are minor because the skull provides the brain with considerable protection — thus symptoms of minor head injuries usually resolve with time. However, more than half a million head injuries a year are severe enough to require hospitalization.

很显然,这位站长所谓的原创就是加一些“的,地,得,可能,也许”之类的词。国内很多站长所说的伪原创也就指的是这个吧?

然后这个站长又不经意地提到,他的一个合作伙伴的哥哥,针对不同关键词做了很多所谓原创内容网站,有好几百个。还真是惊喜连连。

有人列出来一些这位站长的网站,点进去看看就知道是典型的单页面站群,只有一个页面,二三段文字,而且还是抄来的,然后放上Google Adsense和联署计划链接,整个网站剩下的就是交换链接。刨去一页抄袭内容、广告和交换链接,就什么都没有了。

站群可以做,单页面也可以做,友情链接也可以做,偶尔抄点内容很可恶但算了我们不计较,Google Adsense更是可以做。但做几百个除了一页抄袭内容就没其他东西的网站,还全连一块,那就别觉得无辜了。

这位站长还是觉得很无辜,百思不得其解,提出一个最可爱的问题:有没有可能Google的工程师能跟我们当面谈一下,告诉我们原因是什么呢?不用Google工程师到我们这里来,我们愿意去Google拜访…

网站被惩罚或被封该怎么办?

有好几次读者问,网站被封是不是换新的域名就解决了。

对这个问题我的建议是,先搞清楚网站是被封还是被惩罚,如果真的被封,原因是什么?如果被封是因为作弊,改一个新的域名一般来说解决不了什么问题。

另一个经常会碰到的问题是,网站被惩罚排名下降应该怎么办?

首先应该确定你的网站是完全被封,还是只是排名下降。

直接搜索一下域名或URL
用site:指令查一下
用网页上某一句独特的话(比如版权声明之类的在其他站点肯定不会出现的句子)搜索一下

如果你确认你的网站所有网页都已经从搜索引擎数据库里消失,那么有可能是服务器死机,也有可能robots.txt文件有问题,或者被检测出严重作弊行为

如果你的网页还在数据库中,但排名下降,那么有可能是你网站有一些可疑的迹象而被惩罚,也有可能是搜索引擎算法改变

这里所说的排名下降指的是大幅下降,如果只是从第一页掉到第二页,这纯属正常。如果从第一页掉到第二十页,那么你应该查一下。

服务器是否一切正常

最近有没有宕机?服务器设置是否正常?当搜索引擎蜘蛛来抓取的时候,服务器返回的是不是200状态码?如果服务器有问题,应该只是一个暂时的现象。

robots.txt文件是否正确

robots.txt文件用来阻挡搜索引擎蜘蛛抓取某些目录或某些文件,虽然这个功能很有用,但是很容易出错。

如果你的robots.txt文件设置有问题,搜索引擎蜘蛛就没办法抓取你的网站了。正常设置和有错的设置可能差别非常微小,要多次检查,确保无误。

网站是否过度优化

前面谈了很多具体的优化技巧和手段,比如关键词选择标题标签的写作关键词位置密度网站结构等等。但如果你把所有这些技术都用上,那离出问题就不远了。

过度优化现在往往是排名被惩罚的重要原因。这里有个度的问题,做到哪样是适当优化,哪种程度是过度优化,只有靠经验来掌握了。如果你在优化的时候会安慰自己”这应该没事吧”,就说明恐怕快有事了。

可疑的页面转向

有不少页面会放上一些JavaScript转项或者meta refresh转向,这些都有可能被认为是可疑的手法。302转向也可能造成问题。

是否有大量交叉链接

有不少站长会同时掌握很多网站,并且在这些网站之间互相交叉链接,这是很有可能导致问题的。

一个人拥有四五个网站,可以理解,但如果四五十个网站,每个网站都不大,质量也不高,还都互相链接起来,这就可疑了。

是否链接向其他有作弊嫌疑的网站

检查导出链接,是不是只链接向相关网站?是不是只链接向高质量网站?你链接的网站有没有被封或被惩罚的?如果有,你的网站被封或被惩罚的日子就不远了。

有没有复制内容网页

虽然复制内容不会导致网站被封,但如果你的域名权威度不高,可能导致排名下降。

其他作弊手段

仔细检查有没有用隐藏网页?有没有发大量垃圾链接?

在检查这些的时候,不能骗自己,在网站上用了哪些手段,只有站长自己最清楚,外人很难一眼看出来。

有的读者问,能不能帮他去诊断一下。实话说如果是我们的正式客户,我们会花一两天时间仔细检查,这不是瞄一眼就能看出来的。

但是有没有用这些可疑手段,站长自己应该心里很清楚。

返现金活动能拯救微软搜索吗?

微软想收购雅虎不成,转而与雅虎商量只收购搜索部分。当然其他行动也不断,目的都是要在搜索市场有所作为,追赶Google。

上星期微软又突发奇招,向搜索用户提供返还现金活动。大致情况是,搜索用户在微软的live.com搜索引擎进行搜索时,其中一部分搜索结果可能是与微软签订有CPA协议的商家。用户点击了这些搜索结果,来到商家网站进行购买后,微软将获得一部分佣金。同时微软将获得的这部分佣金以现金的形式返还一部分给搜索用户。这个服务目前只局限于美国境内用户。

这是个挺有意思的主意,多少有点破釜沉舟的意思,已经近似贿赂用户了。

微软在搜索领域虽然投入了很多时间金钱人员,但市场份额却稳步下降中。现在已经不到百分之十了。这一举动无疑是想以特殊手段提高市场份额,对微软本身的盈利影响应该不大,因为从搜索得来的盈利本来也没多少。

但返还现金活动能挽救微软搜索吗,还值得怀疑。我考虑有三个主要问题。

用户体验很不顺畅

虽然目前只对美国用户开放,我还是试了一下。前半部分的过程其实都是一样的。

普通搜索过程很简单流畅,搜索关键词后,点击某个链接就来到商家网站。但这个返还现金计划却增加了几道手续。搜索后,微软列出参与这个计划的产品:

用户需要点击比较价格按钮,才又列出不同商家的不同价格及给予的返还现金额:

用户再点击访问商家网站,这时出现的屏幕,需要用户输入email地址,然后才能最终达到广告商的网站:

与正常搜索过程相比,这不是一个好的用户体验。当返还现金额不高时,用户是否还有动力使用这个服务值得怀疑。

有多少广告商参与这个计划?

目前用户可以通过两种方式点击广告商链接,获得现金返还。一是到专用的返还现金计划页面,二是在正常live搜索部分,凡参与这一计划的网站出现在付费链接区域时,将以特殊的图标显示。

微软表示目前有720多个参与网站。我在正常live搜索搜了几个挺热门的产品名字(用的美国代理),一部分没发现有参与这一计划的网站广告。也就是说想利用这一计划得到回扣,却并不一定能找到参与计划的商家。有多少用户会为了拿不高的回扣,花时间在搜索页面上,一直到找到这些参与计划的网站呢?或者有多少用户,会特意去专用的返还现金计划页面搜索呢?

对正常搜索的影响

现金返回计划是针对以购物为目标的商业搜索,对其他关键词搜索到底有多大影响?绝大部分人,在绝大部分时候搜索时是在找资料,找新闻,压根没打算买东西,这时用户还会不会因为有了现金返回计划而使用live搜索?还是找资料,找产品评论时继续用Google,只在决定了买什么时才到live搜搜看,这能提高多少搜索份额?

这个服务刚刚出现,对搜索份额造成影响的报告还没出现。接下来几个月值得关注这个现金返还计划对搜索份额到底造成哪些影响。

2011年11月5日星期六

当老大得先有老大的心态

微软想在互联网和搜索领域有番作为是肯定的,不然也不会这么多年来持续投入巨资人力,还想收购雅虎。

但是这个在操作系统领域呼风唤雨的绝对老大,到了线上却进退失据,没有一点能当老大的样子。首先微软搜索就没有一个能当老大的心态。

12月8号,微软搜索干了一件让人哭笑不得的事。欧盟对隐私权比较重视,所以一直要求所有搜索引擎尽量缩短保存用户搜索数据的时间。目前微软保留搜索数据18个月,Google保留9个月,雅虎保留13个月。但欧盟一直不满意,希望越短越好。

搜索数据也确实有潜在危险,比如AOL泄露数据事件

12月8号,微软呼吁形成行业标准,缩短保留数据时间。但比较可笑的是,微软的表态是如果其他搜索引擎缩短到6个月,我们就缩短。这俨然是一副当小喽罗的心态和行为。别人怎么做,我就跟着做。

看看搜索领域的老大Google,从来都是一副我是老大我做主的心态。在这个领域,我来制定标准,我来创新产品。

同样是面对用户数据问题,Google做的是向法官说:No,拒绝交出数据。

面对Facebook等社会化网站的潜在威胁,Google既不正面挑战,也不桌子底下搞小动作,而是另起炉灶,弄出一个OpenSocial。

当别人都提供3兆5兆邮箱的时候,Google上来就给改成1个G,改写了行业标准。

当大家都在研究网页排名时,Google进军整合搜索个性化搜索

为了帮助自己抓取网站,也给站长一个不错的工具,Google率先发起Sitemaps行业标准。

也是Google首先弄出一个Google地球,接着是地图,实景照片。成千上万人在上面乐此不疲地环游世界,看风景。

还有把图书扫描下来搬上网,甚至这几天又开始扫描杂志。

所有这些创新都是Google当老大,制定标准,其他搜索引擎也不得不跟进。

Google很少花钱做广告,但是它的公关策略实在高明,一举一动本身就都是新闻。相比之下,微软在这方面就差太多了。多么好的一个出风头引领行业潮流的机会,就这么丧失了。

微软目前保留搜索数据时间最长,但也没看见因此而使得搜索结果质量更高。与其这样,还不如直接表示我保留数据时间缩到最短,逼别的搜索引擎跟在自己的后面。什么事都自己先行,逼别人跟着,久而久之才能成老大。

微软、比尔盖茨在操作系统上,在市场营销上,商业策略上都是炉火纯青。但不同领域真的有不同规律,搬到网上怎么就显得不知所措了呢?

SEO案例正在进行时

很多朋友关心我正在写的SEO书什么时候可以完成,这里跟大家说一下,大概明年3,4月份写完,出版社动作很快,应该写完一个月左右就能发行了。谢谢大家关心。

市面上的SEO书也已经有一些了,我一直在琢磨怎么才能让这本书与众不同。研究了一些SEO书和教程后觉得,一个完整,详细的案例可能是个亮点。不是那种简单几页的案例,而是非常完整,详细的案例。

目前情况看,这个案例应该有5,6万字的篇幅,因为我的优化报告就2万多字了,再加上关键词研究,优化方案的解释,效果说明等内容,估计至少5,6万字。

选择案例时是经过一些思考的。

比如,网站不能太大,也不能太小,不然对普通站长和企业的借鉴意义减少。网站应该在几十万至几百万页面,毕竟不可能人人做个上亿页面的大门户,分析几十几百页的网站又会漏掉很多重要内容。最后选定的网站是几百万页面规模。

网站不能是和自己无关的,那样所谓的案例就只能是从表面现象分析,而不能对网站进行优化。分析别人的网站往往是不靠谱的,因为很多时候网站上的东西外人无法知道真正原因。所以选定的网站是一个合作伙伴的,我出报告,他们可以实施优化。

网站不怕被曝光,这也是不能选以前SEO服务客户的原因之一,很少公司会愿意透露网站数据和优化过程,因为要冒着被搜索引擎注意(就可能离被惩罚不远了)和被同行抄袭的风险。选定的这个不怕死的合作伙伴的态度是,来吧,谁怕谁 :-)   。当然,我保证完全是白帽。

最重要的是,网站不能是以前的项目,不然说服力不大。谁都能拿一个已经成功的网站来说事,不成功的就不提了。所以我选的网站是个正在进行时的案例。我的优化报告10月份已经完成,不过到目前为止,实施的只是很小一部分。很有可能,书出来时,优化还没全部实施完成。也有可能,优化报告的某些部分根本无法实现。

所以,这个案例是个真正的正在进行的案例。我在写书和写优化报告时,包括现在和未来几个月,自己都还不知道效果会是什么样。大家可以和我们一起见证SEO的所有详细过程和效果。

我希望,这是这本书最有说服力的因素。我还没见过这样的案例。大家都明白,这是要冒风险的,毕竟搜索引擎不是我们开的,谁也不能保证什么。优化完没效果怎么办?甚至被惩罚了怎么办?我的书本身就将成为最坏的一个案例 :-)

但我决心,还是公布这样一个案例,我们一起观察未来一到两年的效果。要做,就做不一样的。

书里会详细介绍:

  • 关键词研究,关键词选定和在全站的布局
  • 竞争对手的研究和难度评估
  • 目前网站存在的问题,怎么看出来的
  • 网站架构怎样修改,为什么这样修改
  • 网站内容怎样扩充
  • 每一类页面怎样优化,为什么这样优化
  • 书截稿时所能看到的效果
  • 等等

好了,先说这么多吧,我赶紧继续写书去了。为了记录案例网站目前的情况,抓了几百个图,工作量不小…

提前祝大家圣诞快乐,2010年就要来了!