400-685-0732

WJMonitor舆情之声

企业大数据智能舆情监测管理解决方案

全网监测海量数据按需发布监测预警

实时把握舆情动态精准追溯信息源头

获取验证码
企业采购 个人使用
当前位置: 首页 > SEO博客 > 重复的文章为什么会被搜索引擎收录?

重复的文章为什么会被搜索引擎收录?

时间:2012-04-23 09:41:29
SEOer都知道,重复的文章是不被搜索引擎待见的,这也是很多站长朋友们原创或则伪原创的主要原因。说到这里不仅要问,搜索引擎既然不喜欢抄袭,为什么还会收录同样的文章很多次呢?

这个问题得从搜索引擎的意义说起。个人认为,搜索引擎是为了给更多的用户提供有价值的信息而存在的。不同的用户,不同的搜索习惯。热点新闻被网站转载可谓是司空见惯的事情,如果搜索引擎只收录其中的一个,那么显然就会有用户错失读取此条新闻的机会。正是从此出发,搜索引擎会收取不同网站的相同信息。当然,这些网站并不是随便哪个阿猫阿狗都可以的,自然是权重高的站。因为在搜索引擎看来,权重高的站更利于信息的传播。

说到这里,不仅要再次慨叹鲁迅先生写文章“院子里种了两棵树,一棵是枣树,另一颗还是枣树”被奉为经典,而我们自己写作文“院子里种了两棵树,一棵是杨树,另一颗还是杨树”就会被老师批为废话。

所以这里也结结实实告诉大家,在你的网站没有做到高权重之前,还是老老实实的原创或者伪原创吧。因为一旦搜索引擎认为你的站全是“废话”,那你就真的被歇菜了。

分享按钮