【搜索引擎设计:信息搜索怎么避免大海捞针?

这篇具有很好参考价值的文章主要介绍了【搜索引擎设计:信息搜索怎么避免大海捞针?。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

在前面我们提到了网页爬虫设计:如何下载千亿级网页?中,我们讨论了大型分布式网络爬虫的架构设计,但是网络爬虫只是从互联网获取信息,海量的互联网信息如何呈现给用户,还需要使用搜索引擎完成。因此,我们准备开发一个针对全网内容的搜索引擎,产品名称为“Bingoo”。

Bingoo 的主要技术挑战包括:

  1. 针对爬虫获取的海量数据,如何高效地进行数据管理;
  2. 当用户输入搜索词的时候,如何快速查找包含搜索词的网页内容;
  3. 如何对搜索结果的网页内容进行排序,使排在搜索结果列表前面的网页,正好是用户期望看到的内容。

因此,针对此类问题,我们开发一个搜索引擎系统!

1、概要设计

一个完整的搜索引擎包括分布式爬虫、索引构造器、网页排名算法、搜索器等组成部分,Bingoo 的系统架构如下:

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

分布式爬虫通过存储服务器将爬取的网页存储到分布式文件集群 HDFS,为了提高存储效率,网页将被压缩后存储。存储的时候,网页一个文件挨着一个文件地连续存储,存储格式如下:

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

每个网页被分配得到一个 8 字节长整型 docID,docID 之后用 2 个字节记录网页的 URL的长度,之后 4 个字节记录压缩后网页内容数据的长度,所有存储的网页的头 14 个字节都是同样的格式。之后存储 URL 字符串和压缩后的网页内容数据。读取文件的时候,先读14 个字节的头信息,根据头信息中记录的 URL 长度和数据长度,再读取对应长度的 URL和网页内容数据。

搜索引擎能够快速查找的核心就是利用索引,根据用户的查询内容查找匹配的索引,根据索引列表构建结果页面。索引的构造主要通过索引构造器完成,索引构造器读取 HDFS 中的网页内容,解压缩后提取网页中的单词,构建一个“docID-> 单词列表”的正排索引。然后,索引构造器再根据这个正排索引构建一个“单词 ->docID 列表”的倒排索引,“docID 列表”就是包含了这个单词的所有网页列表。利用这个倒排索引,搜索器可以快速获得用户搜索词对应的所有网页。

网页中所有的单词构成了一个词典,实际上,词典就是一个 Hash 表,key 就是单词,value 就是倒排索引的网页列表。虽然互联网页的内容非常庞大,但是使用到的单词其实是非常有限的。根据 Google 的报告,256M 内存可以存放 1400 万个单词,这差不多就是英文单词的全部了。

在构建索引的过程中,因为要不断修改索引列表,还要进行排序,所以,有很多操作是需要进行加锁同步完成的。对于海量的互联网页的计算,这样的索引构建速度太慢了。因此我们设计了 64 个索引桶,根据 docID 取模,将不同网页分配到不同的桶中,在每个桶中分别进行索引构建,通过并行计算来加快索引处理速度。

索引构造器在读取网页内容、构造索引的时候,还会调用 URL 提取器,将网页中包含的URL 提取出来,构建一个链接关系表。链接关系表的格式是“docID->docID”,前一个docID 是当前网页的 docID,后一个 docID 是当前网页中包含的 URL 对应的 docID。一个网页中会包含很多个 URL,也就是会构建出很多个这样的链接关系。后面会利用这个链接关系表,使用 PageRank 排名算法对所有网页进行打分排名,当索引器得到查找的网页列表时,利用 PageRank 值进行排名,最终呈现给用户,保证用户最先看到的网页是最接近用户期望的结果页面。

2、详细设计

一个运行良好的搜索引擎的核心技术就是索引和排名,所以我们将分别说明这两种技术要点!

1、索引

索引构造器从 HDFS 读取网页内容后,解析每个页面,提取网页里的每个单词。如果是英文,那么每个单词都用空格分隔,比较容易;如果是中文,需要使用中文分词器才能提取到每个单词,比如“高并发架构”,使用中文分词器得到的就是“高并发”、“架构”两个词。

首先,索引构造器将所有的网页都读取完,构建出所有的“docID-> 单词列表”正排索引。

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

然后遍历所有的正排索引,再按照“单词→docID 列表”的方式组织起来,就是倒排索引了。

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

我们这个例子中只有两个单词、7 个网页。事实上,Bingoo 数以千亿的网页就是这样通过倒排索引组织起来的,网页数量虽然庞大,但是单词数却是比较有限的。所以,整个倒排索引的大小相比于网页数量要小得多。Bingoo 将每个单词对应的网页列表存储在硬盘中,而单词则存储在内存的 Hash 表,也就是词典中,词典示例:

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

对于部分热门的单词,整个网页列表也可以存储在内存中,相当于缓存。在词典中,每个单词记录下硬盘或者内存中的网页列表地址,这样只要搜索单词,就可以快速得到对应的网页地址列表。Bingoo 根据列表中的网页编号 docID,展示对应的网页信息摘要,就完成了海量数据的快速检索。

如果用户的搜索词正好是一个单词,比如“高并发”,那么直接查找词典,得到网页列表就完成查找了。但是如果用户输入的是一个句话,那么搜索器就需要将这句话拆分成几个单词,然后分别查找倒排索引。这样的话,得到的就是几个网页列表,还需要对这几个网页列表求交集,才能得到最终的结果列表。

比如,用户输入“高并发架构”进行搜索,那么搜索器就会拆分成两个词:“高并发”、“架构”,得到两个倒排索引:

  • 高并发 ->2,3,5,7

  • 架构 ->1,2,4

需要对这两个倒排索引求交集,也就是同时包含“高并发”和“架构”的网页才是符合搜索要求的结果,最终的交集结果应该是只有一篇网页,即 docID 为 2 的满足要求。

列表求交集最简单的实现就是双层 for 循环,但是这种算法的时间复杂度是 O(n^2),我们的网页列表长度(n)可能有千万级甚至更高,这样的计算效率太低。

一个改进的算法是拉链法,我们将网页列表先按照 docID 的编号进行排序,得到的就是这样两个有序链表:

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

同时遍历两个链表,如果其中一个链表当前指向的元素小于另一个链表当前指向的元素,那么这个链表就继续向前遍历;如果两个链表当前指向的元素相同,该元素就是交集元素,记录在结果列表中;依此继续向前遍历,直到其中一个链表指向自己的尾部 nil。

拉链法的时间复杂度是 O(2n),远优于双层循环。但是对于千万级的数据而言,还是太慢。我们还可以采用数据分片的方式进行并行计算,以实现性能优化。

比如,我们的 docID 分布在[0, 1 万亿) 区间,而每个倒排索引链表平均包含 1 千万个docID。我们把所有的 docID 按照 1 千亿进行数据分片,就会得到 10 个区间[0, 1 千亿)[1千亿,2 千亿)……[9 千亿,1 万亿)。每个倒排索引链表大致均匀分布在这 10 个区间,我们就可以依照这 10 个区间范围,将每个要遍历的链表切分为 10 片,每片大约包含 1 百万个 docID。两个链表只在自己对应的分片内求交集即可,因此我们可以启动 10 个线程对10 个分片进行并行计算,速度可提高 10 倍。

事实上,两个 1 千万长度的链表求交集,最终的结果可能不过几万,也就是说,大部分的比较都是不相等的。比如下面的例子。

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

第一个链表遍历到自己的最后一个元素,才和第二个链表的第一个元素相同。那么第一个链表能不能跳过前面那些元素呢?很自然,我们想到可以用跳表来实现,如下图:

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

跳表实际上是在链表上构建多级索引,在索引上遍历可以跳过底层的部分数据,我们可以利用这个特性实现链表的跳跃式比较,加快计算速度。使用跳表的交集计算时间复杂度大约是 O(log(n))。

此外,虽然搜索引擎利用倒排索引已经能很快得到搜索结果了,但搜索引擎应用还会使用缓存对搜索进行加速,将整个搜索词对应的搜索结果直接放入缓存,以减少倒排索引的访问压力,以及不必要的集合计算。

2、PageRank 排名算法

Bingoo 使用 PageRank 算法进行网页结果排名,以保证搜索结果更符合用户期待。

PageRank 算法会根据网页的链接关系给网页打分。如果一个网页 A 包含另一个网页 B 的超链接,那么就认为 A 网页给 B 网页投了一票。一个网页得到的投票越多,说明自己越重要;越重要的网页给自己投票,自己也越重要。

PageRank 算法就是计算每个网页的 PageRank 值,最终的搜索结果也是以网页的PageRank 值排序,展示给用户。事实证明,这种排名方法非常有效,PageRank 值更高的网页,确实更满足用户的搜索期望。

以下面四个网页 A、B、C、D 举例,带箭头的线条表示链接。

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

B 网页包含了 A、D 两个页面的超链接,相当于 B 网页给 A、D 每个页面投了一票,如果初始的时候,所有页面都是 1 分,那么经过这次投票后,B 给了 A 和 D 每个页面 1/2 分(B 包含了 A、D 两个超链接,所以每个投票值 1/2 分),自己从 C 页面得到 1/3 分(C包含了 A、B、D 三个页面的超链接,每个投票值 1/3 分)。

而 A 页面则从 B、C、D 分别得到 1/2,1/3,1 分。用公式表示就是

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

等号左边是经过一次投票后,A 页面的 PageRank 分值;等号右边每一项的分子是包含 A页面超链接的页面的 PageRank 分值,分母是该页面包含的超链接数目。

这样经过一次计算后,每个页面的 PageRank 分值就会重新分配,重复同样的算法过程,经过几次计算后,根据每个页面 PageRank 分值进行排序,就得到一个页面重要程度的排名表。根据这个排名表,将用户搜索出来的网页结果排序,排在前面的通常也正是用户期待的结果。

但是这个算法还有个问题,如果某个页面只包含指向自己的超链接,其他页面不断给它送分,而自己一分不出,随着计算执行次数越多,它的分值也就越高,这显然是不合理的。这种情况就像下图所示的,A 页面只包含指向自己的超链接。

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

解决方案是,设想浏览一个页面的时候,有一定概率不是点击超链接,而是在地址栏输入一个 URL 访问其他页面,表示在公式上,就是

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

上面 (1 - a)就是跳转到其他任何页面的概率,通常取经验值 0.15(即 为 0.85),因为有一定概率输入的 URL 是自己的,所以加上上面公式最后一项,其中分母 4 表示所有网页的总数。

那么对于 N 个网页,任何一个页面 的 PageRank 计算公式如下:

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch

公式中 Pj ∈ M(P**i), 表示所有包含有 超链接的 , 表示 页面包含的超链接数,N 表示所有的网页总和。由于 Bingoo 要对全世界的网页进行排名,所以这里的 N 是一个万亿级的数字。

计算开始的时候,将所有页面的 PageRank 值设为 1,带入上面公式计算,每个页面都得到一个新的 PageRank 值。再把这些新的 PageRank 值带入上面的公式,继续得到更新的PageRank 值,如此迭代计算,直到所有页面的 PageRank 值几乎不再有大的变化才停止

3、总结

PageRank 算法我们现在看起来平平无奇,但是正是这个算法造就了 Google 近 2 万亿美元的商业帝国。在 Google 之前,Yahoo 已经是互联网最大的搜索引擎公司。按照一般的商业规律,如果一个创新公司不能带来十倍的效率或者体验提升,就根本没有机会挑战现有的巨头。而 Google 刚一出现,就给 Yahoo 和旧有的搜索引擎世界带来摧枯拉朽的扫荡,用户体验的提升不止十倍,这其中的秘诀正是 PageRank。

二十几年前,我刚刚接触编程的时候,我们中国也有很多这样的编程英雄,王选、王江民、求伯君、雷军等等,他们几乎凭一己之力就创造出一个行业。正是对这些英雄们的崇拜和敬仰,引领我在编程这条路上一直走下去。软件编程是一个可以创造奇迹的地方,而不只是为了混碗饭吃。梦想不能当饭吃,但是梦想带来的可不止是一碗饭。

【搜索引擎设计:信息搜索怎么避免大海捞针?,架构设计,搜索引擎,高并发架构设计,Java,elasticsearch文章来源地址https://www.toymoban.com/news/detail-797215.html

到了这里,关于【搜索引擎设计:信息搜索怎么避免大海捞针?的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 如何高效检索信息:搜索引擎使用小技巧

    本文首发在我的个人博客:追逐日落,欢迎大家前去参观~ 在当今信息爆炸的时代,搜索引擎已经成为我们获取信息的主要途径之一。 平时我们使用搜索引擎,通常是将输入搜索框后回车,然后开始从上到下翻阅有用的信息。其实搜索引擎提供了多种语法,合理使用这

    2024年03月10日
    浏览(65)
  • ThunderSearch(闪电搜索器)_网络空间搜索引擎工具_信息收集

    ThunderSearch简介 支持通过通过图形化修改配置信息 支持账号密码和API-KEY登陆- 支持多个网络资产搜索引擎 查询显示结果仅为部分,完整内容保存至指定文件或数据库 支持查询用户个人信息 1 项目地址 2 使用方式 直接运行即可,每次通过GUI修改配置后务必保存配置。 Zoomeye支

    2024年02月04日
    浏览(64)
  • 搜索引擎爬虫技巧:快速获取所需信息!

    现代社会,信息爆炸式增长,各行各业都需要大量的数据支持。而搜索引擎则成为了人们获取信息的主要途径。但是,人工搜索对于海量数据的处理速度和效率都无法满足需求。这时候,基于搜索引擎爬取资源就成为了一种重要的方式。本文将从多个方面详细介绍如何利用爬

    2024年02月05日
    浏览(45)
  • kali被动收集信息,Google搜索引擎使用技巧,Maltego收集子域名,Shodan搜索引擎使用方法

    GoogleHack一般指google hack。 google hack是指使用Google等搜索引擎对某些特定的网络主机漏洞(通常是服务器上的脚本漏洞)进行搜索,以达到快速找到漏洞主机或特定主机的漏洞的目的。 常用的Google site    指定域名 inurl    URL中存在的关键在页面 intext    网页内容里面

    2024年02月12日
    浏览(65)
  • 渗透测试学习历程 5.1信息搜集之搜索引擎

    目录 1.Google Hacking 1.1符号 - 减号                    * *星号                          \\\" \\\"引号                             1.2 之site 功能:搜索指定域名的网页内容 1.3之filetype 功能:搜索指定文件类型 1.4之inurl 功能:搜索url网址存在特定的

    2024年02月11日
    浏览(48)
  • 搜索引擎-在URL地址栏输入信息,不跳转

    因为没有使用某个搜索引擎,无法定位到资源 如图: 先打开百度或搜狗其他引擎,在输入内容,跳转成功     ————————————————————— 以上就是今日博客的全部内容了 创作不易,若对您有帮助,可否点赞、关注一二呢,感谢支持.

    2024年02月06日
    浏览(44)
  • 信息收集(成功就是99%的运气+1%的搜索引擎)

    目录 shodan                                                                   https://www.shodan.io  oshodan                                                                 https://www.oshodan.com zoomeye                                                         

    2024年02月08日
    浏览(44)
  • 百度--搜索引擎是怎么实现的--如何制作一个搜索浏览器

    1.搜索引擎是怎么实现的? 搜索引擎是通过以下步骤实现的: 网页抓取(Crawling) :搜索引擎会使用网络爬虫(Web Crawler)自动地从互联网上抓取网页内容。爬虫按照一定的规则遍历网页并提取网页内容,包括文本、链接、标签等。 网页索引(Indexing) :抓取到的网页内容会

    2024年02月12日
    浏览(64)
  • 【kali学习笔记】信息收集之搜索引擎的使用技巧

    一、Google 搜索引擎的使用技巧 1、Google 常用语法说明 site 指定域名 inurl URL 中存在的页面 intext 网页内容里面的 Filetype 指定文件类型 intitle 网页标题中的 link 返回你所有的指定域名链接 info 查找指定站点信息 cache 搜索 Google 里的内容缓存 2、技巧 技巧 1:

    2024年02月05日
    浏览(53)
  • 【kali-信息收集】(1.9)Metasploit+搜索引擎工具Shodan

    目录 一、简介 1.1、概述: 二、使用 2.1、过滤语法 City、Country命令 HOSTNAME命令 NET命令 Title命令 搜索 组合搜索 其他搜索术语 2.2、Metasploit实现Shodan搜索 (1)注册 (2)获取API (3)启动PostgreSQL服务 (4)启动Metasploit服务 (5)启动MSF终端 (6)选择模块 (7)配置参数 (8) 启动搜索引擎 Sh

    2024年02月13日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包