退稿原因: 文章可读性不高 继续努力
前言:网。顾名思义,由蜘蛛编织的网,包罗万象,海纳百川。功能性非渔之网,乃网之构思也。 谈结构(链接): 大家都知道渔人捕鱼用的网,网口至少得有3个交叉点是构成的基础,我可以假设:每个交叉点都是一个独立的站点,百度机器人是蜘蛛,当只有两个交叉点的时候,猎物粘网的时候(有内容更新时),蜘蛛只能从一个交叉点到另一个交叉点,三个交叉点时(你链他,他链我,我链你),四个交叉点的时候,可形成方形,还可加上中间对角交叉,五和交叉点等等。交叉点数量决定网的大小和密度,但是当网足够大的时候,一只蜘蛛是跑不完的,但是谁也不能保证有多少蜘蛛,所以如果在精确到秒分的话,百度不管多么强大,其实并不不具备完全根据收录的前后时间来判断其内容是否原创(发布时间),有很多朋友会遇到这种情况,说我的原创文章第一发布,但是并不是第一个收录的,在同等站点下,原创文章不能完全占据排位优势,也就是说文章的收录时间越靠前占据的排位就越高。 原创、伪原创和完全偷袭: 因为创造内容的成本太高,伪原创成了互联网泛滥的源头,这种趋势的增长完全是借助于百度没有分辨原创和伪原创的很强能力。我不知道百度对抄袭的判断根据有多准确,理论上说:是根据收录的时间,两内容相似性高度多少。就算是人工操作,按照现在趋势,我不觉得判断有完全的准确,更别说百度的机器人了,我在几个站点上做了很多次试验,收录数量和百度更新时间差不多,用了一些很偏的关键字(防止其他站干扰),每个网站发布同一篇文章,标题,关键字,描述都一样,但是发布的时间不一样,每隔12小时发布一次,结果显示原创的站点排位在最前的几率不超过65%。以上是偷袭和原创内容的权重实验,接着我也做了原创和伪原创的对比实验,条件和前个实验差不多,结果并不乐观,搜索同一个关键字,原创的站点排位在最前的几率不超过30%,而且一个更重要的是在搜索同一个关键字的时候,伪原创的内容显示出来,原创的前10页内没有结果,这不仅证实百度对中文内容的分析能力不足外,还证实了百度引索过分依赖标题、描述和关键字,不知道是百度权重规则太复杂话引起的后果还是什么原因有待证实。 后言: 还有一些高权重和低权重站点,原创内容的排位实验情况就不做探讨,我想说的是机器永远是机器,对于人来说,存在观察和被观察的区分,规则也是可以运用的,但是为了集体利益,不践踏道德的底线,呼吁大家尊重原创,花更多时间用在用户身上,花更多金钱用在内容产方和媒体方的功利上。 (责任编辑:admin) |