另一个需要AI解释理由的原因是,前面提到,人工智能看的是概率和相关性,但看相关性做决定有时候会导致严重错误。纽约时报的文章举了个例子。经过数据训练的人工智能系统辅助医院急诊室分诊,总体上看效果不错,但研究人员还是不敢真的拿来实用,因为数据中的相关性可能误导人工智能做出错误判断。比如数据表明,患有肺炎的气喘病人最后病愈情况好于平均水平,这个相关性是真实存在的。如果AI系统因为这个数据就给有肺炎的气喘病人比较低的处理等级,那可能就要出事了。因为这些病人之所以最后情况良好,是因为他们一来就被给予最高等级,得到最好最快的治疗了。所以,有时候从相关性看不到真正的原因。 可解释的人工智能 X.A.I.(Explainable AI)可解释的人工智能,是刚刚兴起的一个领域,目的就是让AI对自己的判断、决定和过程做出解释。去年美国国防高级研究计划局(Darpa )推出了David Gunning博士领导的XAI计划。Google也依然是这个领域的领先者,Deep Dream好像就是这方面研究的一个副产品:
回到搜索算法及SEO,搜索引擎之所以还无法全面应用人工智能,其中一个原因也许就是人工智能的判断没有解释、无法理解,如果算法使用目前的人工智能,一旦出现排名异常,工程师们将无法知道原因是什么,就更无法知道该怎么调整。 我想自动驾驶是最先AI实用化的领域之一,和能否解释也有一定关系。自动驾驶汽车的大部分决定是不大需要解释的,或者说解释是一目了然的,距离前车太近所以要减速或者刹车,这类判断应该不需要进一步解释理由了。 SEO们大概都有过同样的疑惑,某个竞争对手的页面看着没什么特殊的,内容不怎么样,视觉设计一般,外链普通,页面优化大家做的都一样,为什么排名就那么好呢?现在的搜索算法还可以探究原因,搜索工程师们大概有内部工具可以看到排名的合理性。如果搜索工程师看着一个挺烂的页面就是排在前面,却也不知道原因,还无从查起,他们的内心可能就焦虑了。 XAI的研究才刚刚开始,这给了SEO们最后的缓冲期。从人工智能系统在其它领域碾压人类的表现看,一旦大规模应用于搜索,作弊和黑帽SEO恐怕将成为过去,现在的常规SEO工作也许变得无足轻重,SEO们需要回到网站的本质:提供有用的信息或产品,别无他法。 (责任编辑:admin) |