德州2bet谷歌亲大儿子BERT的王者荣耀,仅用四年雄霸谷歌搜索头牌!

  • 时间:
  • 浏览:39

2018年,德州2betBER德州2betT诞生了,他带着滚动的成绩承担了各种NLP任务。

2019年,biobert、roberta、albert等各种BERT变体开始陆续出现,给传统NLP任务带来了革命性的进德州2bet步。

作为BERT的家人,谷歌充分发挥了自己的优势。

加入谷歌搜索仅仅德州2bet一年后,BERT“占领”了几乎所有的英语查询

2019年10月,当BERT首次出现在谷歌搜索中时,这个比例只有10%。

2019年12月,谷歌将BERT的使用范围扩大到70多种语言。

在最近的2020 Search On Virtual Search大会上,谷歌表示,BERT已经成为几乎每一个英文查询的后端引擎。

BERT不会影响网站的排名,BERT旨在更好地理解网页内容,提高搜索结果的相关性。

以下是谷歌展示的集成BERT后的演示。当询问“在没有路缘的山上停车”时,过去这样的询问会使谷歌的系统混乱。

Google表示,之前的算法过于关注“路边”这个词,而忽略了“不”这个词,没有把握这个词对问题的重要性,所以搜索引擎会返回有路边的小山上停车的结果。

工程师们把“具体搜索”的准确率提高了7%,也在改进“更广泛搜索”的结果和答案。

BERT取代了RankBrain,被提升到谷歌搜索算法Hummingbird的顶端

BERT只是谷歌搜索算法的冰山一角。世界上最强大的搜索工具真的是搜索大脑。

谷歌称这个搜索大脑为“蜂鸟”,它是一个搜索算法的容器,就像汽车有一个整体引擎一样。每个算法都像机油滤清器、燃油泵、散热器等。

蜂鸟还包括其他部分,如熊猫、企鹅、搜索引擎优化的发薪日、打击垃圾邮件的鸽子、著名的网页排名算法PageRank。

在BERT加入蜂鸟家族之前,最重要的成员是RankBrain。

2015年,RankBrain被部署到蜂鸟身上。短短几个月,RankBrain迅速成长为搜索查询结果的第三大信号。

RankBrain利用人工智能将大量语言嵌入到计算机可以理解的向量中。如果RankBrain看到不熟悉的德州2bet单词或短语,机器可以猜测哪些单词或短语可能具有相似的含义,并相应地过滤结果,从而可以更有效地处理从未见过的搜索查询,类似于我们今天熟知的单词向量。

参与RankBrain项目的谷歌高级研究科学家格雷格科拉多(Greg Corrado)表示,RankBrain是谷歌搜索算法系统中的“数百个”信号之一,它最终决定了谷歌搜索页面上出现什么结果。

现在有了BERT的加持,“蜂鸟”能更好地理解查询意图和内容相关性,这已经成为Google理解搜索中语言的最重要信号。如果你拼错了什么,谷歌的拼写系统可以帮你纠正。

根据谷歌的统计,每天十次搜索就有一次拼写错误。应用BERT后,可以更好地纠正这个手动错误。例如,以下晚餐被错误地键入为dibber。BERT可以根据地图更好的理解搜索,直接返回地图上的位置。

伯特查询结果更“令人满意”,需要更多的TPU

2019年,谷歌应用BERT模型进行搜索。

BERT的突破来自于Google transformer的相关研究成果,可以更好的处理一个句子中所有单词的关联性,而不是按顺序一个一个的处理。

因此,BERT模型可以看单词前后的单词来考虑单词的整个上下文,这对于理解搜索查询背后的意图尤其有用。

需要更多TPU

然而,将BERT应用于搜索不仅需要软件,还需要新的硬件,如TPU。伯特建立的一些模型是巨大的,突破了传统硬件的限制,所以如果你想应用它们,你必须添加谷歌的云TPU。

分解问题

BERT将用户查询的问题进行反汇编并转化为向量,通过BERT模型发现更多有用的信息。

特别是对于更长、更具对话性的查询,或者当“for”、“to”等搜索介词对于查询的意义非常重要时,基于BERT的查询可以更全面地理解查询问题中每个单词的上下文,搜索方法可以更口语化,而不必刻意打“官腔”。

变压器,BERT的核心部件,真的是千变万化的金刚,不仅用于各种NLP任务,还应用于计算机视觉,基于变压器的模型很有取代CNN的趋势。

结合CV和NLP的多模态人工智能也将走上AI的舞台。

参考链接:

https://search engineland.com/Google-Bert-used-on-every-English-query-342193