文档详情

深入解析分词和索引库的原理.pdf

发布:2016-03-08约2.81千字共6页下载文档
文本预览下载声明
1 深入解析分词与索引库的原理 分词是很多做SEO的人常听到的概念,为了让大家在这个方面不会有疑惑,现在 要来讲一下分词以及索引库。这也是更深入的了解搜索引擎的开始。 搜索引擎每天都是在处理一个基本的需求:用户搜索一个关键词,搜索引擎马上 找到相关的网页给用户。这个过程要怎么实现呢? 下面就分步来了解这个过程。 首先搜索引擎要尽可能多的把互联网上的网页搜集下来,这样能提供大量的网页 给用户查询。这一部分由爬虫来解决,顺着互联网上的链接一个个往下抓取。最 后就有了一堆记录着网页各种信息的资料库。目前的现状,最后能使这个资料库 里有大概100多亿个网页。资料库里记录了这些网页的URL,整个网页的HTML 代码,网页标题等等信息。 然后,搜索引擎拿到用户输入的这个关键词后,要从这个资料库里把相关的网页 找出来给用户。这里就碰到好几个问题了: 1,要怎么快速的从上100亿个网页里找出匹配的网页的呢? 要知道这是从上百亿的网页里找符合这个关键词内容的网页,如果像用word里 那种用ctrl + F 轮询的查找方式的话,即使用超级计算机,也不知道要消耗多 少时间。但是现在的搜索引擎,在几分之一秒里就实现了。所以一定是做了一些 处理才实现的。 解决办法也倒简单,就是建立一份索引库。就像我们查《新华字典》一样,我们 不会翻遍《新华字典》的每一页来查那个字在哪页,而是先去索引表那里找这个 字,拿到页码后,直接翻到那页就可以了。搜索引擎也会为上百亿的网页建立一 个索引库,用户查询信息的时候,是先到搜索引库里查一下要找的信息在哪些网 页,然后就引导你去那些网页的。 如下图: 2 索引库 2,索引库里用什么样的分类方式? 我们知道,《新华字典》的索引表是用字母列表或者偏旁部首的分类方式的。那 么搜索引擎的索引库里是怎么分类的?是不是也可以用字母列表的方式? 搜索引擎如果以字母列表的方式排列索引库,那么平均每个字母下要查询的网页 数量是 100亿÷26=3.85亿 ,也还是一个很大的数字。而且搜索引擎上,今 天是100亿个网页,过不了多久就是300亿个网页了。 最后,终于找到一个解决办法:索引库里用词语来分类。 因为尽管互联网上的网页是不断激增的,但是每一种语言里,词语的数量都是相 对固定的。比如英语就是一百多万个单词,100亿 ÷ 1百万 = 1 万;汉语是 8万多个词语,100亿÷8万=12万5千。都是计算机很容易处理得过来的。 用词语来分类还有一个好处,就是可以匹配用户查询的那个词语。本来用户就是 要查这个词语的,那我就按这个词语去分类就是。 所以,搜索引擎的索引库,最后就是这个样子的: 3 模拟的索引库 理论上,当用户输入关键词“mp3 player”搜索时,搜索引擎就从 “mp3”那行 和 “player”那行里拿出同时都有的、交集的url来即可。 上图也是现在英文版的上的真实排名情况,可以看到 这个网站在搜索“mp3”的时候排第 4 位,在搜索“player”的 时候也排第4位。当搜索“mp3 player”的时候,因为没有其他网站比它更匹配 这个词语,所以它排在了第一位。 排在第一 4 当搜索引擎把一个网站抓取下来后,接着要做的事情就是把网页里的词语分开放 到索引库里。分词在这个时候就要应用到了,所谓的分词,其实很简单,就是把 词语分开而已。 英语的分词好处理一点,因为英语的每个单词之间是用空格分开的,基本上就只 要处理一些虚词、介词,还有一些词语的单复数,变形词等等。但是中文的分词 就复杂很多了,句子中的每个字都连在一起,有时候即使是人来判断,都还有产 生歧义的时候。中文的分词有很多方法,也很容易弄懂的,如正向切分法,逆向 切分法等等,网上有很多相关的资料。 谷歌的中文分词方法是从国外一家第三方公司买的。百度的分词方法是自己创立 的,可能在词库上面比谷歌有点优势。不过其他方面差了一些。 当爬虫找到一个网页的时候,在搜索引擎看来,这
显示全部
相似文档