吴军老师在《智能时代》中说过一句话,可以特别贴切地用于理解这种情形:在智能时代,可以在大数据中直接找到答案,虽然可能不知道原因(大意)。传统搜索算法,工程师要知道原因,才能写算法。人工智能直接从数据中找答案,虽然工程师都不知道原因。 人工智能的最大缺点,对人来说的缺点,它对人来说是个黑盒子,工程师也不知道它是怎么算的,根据什么算的。结果正确时,一切都挺好,但结果不大对头时,工程师也不知道为什么错了,还不好debug。也许由于这个原因,搜索引擎算法的核心现在还没被人工智能取代,搜索引擎需要很谨慎,不然会错得自己都不知道为什么错。 人工智能怎样影响SEO? 回到最前面的问题,用户点击、访问等行为是否是排名因素?是的话,怎样解决噪声、作弊问题?没有用搜索引擎统计服务的网站,无法确切知道访问深度、停留时间等,这又怎么办? 可以设想一下,算法可能不把用户访问数据作为直接排名因素,但可以作为某种验证和质量控制方式,比如在传统排名算法计算出相关页面后,人工智能算法挑出与已知作弊页面有相同访问特征和其它特征的页面,降低其排名或者干脆不返回。这里要记得人工智能潜在的惊人的准确率。记得去年中Google就说过,AlphaGo当时大致相当于人类 13 段棋手,年底的棋局似乎验证了这很可能不是吹牛。柯洁和聂卫平等人与Master对局后都表达过大致这么个意思:看了AlphaGo/Master的棋,觉得人类一些对围棋的认识很可能是错的。 这种判断的惊人准确性,也许以后对黑帽SEO是个无法挽回的打击。如果搜索引擎算法判断一个页面是否作弊时,具有 13 段棋手、远远超出人类的水平和准确率,那么我们凡人该怎么作弊? 与此类似,如果网站没有使用搜索引擎的流量统计服务,人工智能可能会判断,这个网站A具有特征x, y, z…,另一堆使用了自己统计服务的网站同样具有特征x, y, z…..,预估网站A的访问深度、停留时间等和那些已知网站相同。这里,特征x, y, z……是什么,是人工智能自己学习出来的,很可能有人类意想不到、觉得毫无关系的东西。而基于人工智能的骇人能力,结论很可能是正确的。 人工智能对SEO的关键词研究、页面文案写作、网站结构等方面都会产生颠覆式的影响。这篇只是开了个头,以后再继续讨论。 (责任编辑:admin) |