过去一年,搜索引擎,或者扩大至互联网行业,最热门的话题无疑是人工智能。过去 10 几年,SEO技术和方法其实没什么大变化,这些年来我第一次觉得,不久的将来,SEO将被人工智能彻底改变。
回到最前面的问题,用户点击、拜访等做法是不是是排行要素?是的话,如何处理噪声、做弊问题?没有用搜索引擎计算效劳的网站,无法切当知道拜访深度、停留时间等,这又怎样办?
能够设想一下,算法可能不把用户拜访数据作为直接排行要素,但能够作为某种验证和质量操控方法,比如在传统排行算法计算出有关页面后,人工智能算法挑出与已知做弊页面有一样拜访特征和其它特征的页面,下降其排行或者爽性不返回。这儿要记住人工智能潜在的惊人的准确率。记住去年中Google就说过,AlphaGo其时大致相当于人类 13 段棋手,年底的棋局好像验证了这很可能不是吹嘘。柯洁和聂卫平等人与Master对局后都表达过大致这么个意思:看了AlphaGo/Master的棋,觉得人类一些对围棋的知道很可能是错的。
这种判别的惊人准确性,或许今后对黑帽SEO是个无法挽回的打击。假如搜索引擎算法判别一个页面是不是做弊时,具有 13 段棋手、远远超出人类的水平缓准确率,那么咱们俗人该怎样做弊?
与此类似,假如网站没有运用搜索引擎的流量计算效劳,人工智能可能会判别,这个网站A具有特征x, y, z…,另一堆运用了自个计算效劳的网站一样具有特征x, y, z…..,预估网站A的拜访深度、停留时间等和那些已知网站一样。这儿,特征x, y, z……是什么,是人工智能自个学习出来的,很可能有人类意想不到、觉得毫无关系的东西。而根据人工智能的骇人才能,定论很可能是正确的。
人工智能对SEO的关键字研究、页面案牍写作、网站结构等方面都会发生推翻式的影响。这篇只是开了个头,今后再持续评论。
回到最前面的问题,用户点击、拜访等做法是不是是排行要素?是的话,如何处理噪声、做弊问题?没有用搜索引擎计算效劳的网站,无法切当知道拜访深度、停留时间等,这又怎样办?
能够设想一下,算法可能不把用户拜访数据作为直接排行要素,但能够作为某种验证和质量操控方法,比如在传统排行算法计算出有关页面后,人工智能算法挑出与已知做弊页面有一样拜访特征和其它特征的页面,下降其排行或者爽性不返回。这儿要记住人工智能潜在的惊人的准确率。记住去年中Google就说过,AlphaGo其时大致相当于人类 13 段棋手,年底的棋局好像验证了这很可能不是吹嘘。柯洁和聂卫平等人与Master对局后都表达过大致这么个意思:看了AlphaGo/Master的棋,觉得人类一些对围棋的知道很可能是错的。
这种判别的惊人准确性,或许今后对黑帽SEO是个无法挽回的打击。假如搜索引擎算法判别一个页面是不是做弊时,具有 13 段棋手、远远超出人类的水平缓准确率,那么咱们俗人该怎样做弊?
与此类似,假如网站没有运用搜索引擎的流量计算效劳,人工智能可能会判别,这个网站A具有特征x, y, z…,另一堆运用了自个计算效劳的网站一样具有特征x, y, z…..,预估网站A的拜访深度、停留时间等和那些已知网站一样。这儿,特征x, y, z……是什么,是人工智能自个学习出来的,很可能有人类意想不到、觉得毫无关系的东西。而根据人工智能的骇人才能,定论很可能是正确的。
人工智能对SEO的关键字研究、页面案牍写作、网站结构等方面都会发生推翻式的影响。这篇只是开了个头,今后再持续评论。