Java文档搜索引擎

这篇具有很好参考价值的文章主要介绍了Java文档搜索引擎。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

什么是搜索引擎

像百度,搜狗这种搜索一个关键词,然后在结果页中展示若干条结果,每一个结果中, 又包含了图标, 标题, 描述, 展示url, 时间, 子链, 图片等;当然像这种搜索引擎属于全站搜索,这个项目是要实现站内搜索(只针对某个网站内部进行搜索)。

项目目标

实现一个 Java API 文档的简单的搜索引擎.
关于Java API 文档的获取我们直接从官网下载离线版本即可
下载版本参见 https://www.oracle.com/technetwork/java/javase/downloads/index.html
下载之后看到一个 docs 目录, 里面存在一个 api 目录. 这里的 html 就和线上版本的文档是一一对应的.

下载的文档假设放在D:\doc_searcher_index\jdk-8u361-docs-all 目录中.

概念解析

  1. 文档(document):指的是每个待搜索的网页
  2. 正排索引:指的是通过文档id找到文档内容
  3. 倒排索引:指的是通过词找到文档id列表

举个例子,1号文档的内容是“小明去买苹果手机”;2号文档的内容是“小明去买4斤苹果”
正排索引:
1:小明去买苹果手机
2:小明去买4斤苹果
倒排索引:
小明:1,2
去:1,2
买:1,2
苹果:1,2
手机:1
4斤:2

模块划分

  1. 索引模块

1)扫描下载到的文档,分析文档的内容,构建出正排索引和倒排索引,并把索引内容保存到文件中
2)加载制作好的索引,并提供一些API实现查正排和查倒排这样的功能

  1. 搜索模块

调用索引模块,实现一个搜索的完整过程
输入:用户的查询词
输出:完整的搜索结果(包含了很多条记录,每个记录就有标题,描述,展示URL,并且能点击页面进行跳转)

  1. web模块:包含前端和后端(需要实现一个简单的web程序,能够通过网页的形式来和用户进行交互)

创建项目

使用IDEA创建一个spring boot项目
引入本项目所需要的依赖,列举几个比较重要的依赖:
json依赖

<!-- https://mvnrepository.com/artifact/com.fasterxml.jackson.core/jackson-databind -->
		<dependency>
			<groupId>com.fasterxml.jackson.core</groupId>
			<artifactId>jackson-databind</artifactId>
			<version>2.14.2</version>
		</dependency>

ansj依赖(现成的分词库)

<!-- https://mvnrepository.com/artifact/org.ansj/ansj_seg -->
		<dependency>
			<groupId>org.ansj</groupId>
			<artifactId>ansj_seg</artifactId>
			<version>5.1.6</version>
		</dependency>

关于分词

用户输入查询词,我们不可能整个查询词直接拿去搜索,而是将查询词进行分词,然后将分词后的结果,一个一个去查倒排,拿到对应的文档列表,然后展示出来。
这里简单展示个案例,让大家明白如何使用ansj这个库

public class TestAnsj {
    public static void main(String[] args) {
        String str = "小明买了苹果手机";
        List<Term> terms = ToAnalysis.parse(str).getTerms();
        for (Term term : terms) {
            System.out.print(term.getName() + "/");
        }
    }
}

运行结果:

小明/买/了/苹果/手机/

注意:当 ansj 对英文分词时, 会自动把单词转为小写

创建model包

首先我们把这个项目所需要的实体类给创建一下
Java文档搜索引擎
从图中可以看到model这个包主要包含3个类

/**
 * 这个类表示一篇文档
 */
@Data
public class DocInfo {
    private int docId;
    private String title;
    private String url;
    private String content;
}
/**
 * 这个类把文档id和文档与词的相关性权重进行一个包裹(权重越高的文档,展示的时候就放到越前面)
 */
@Data
public class Weight {
    //文档id,文档的身份标识
    private int docId;
    //这个weight表示文档和词之间的“相关性”,值越大,相关性越强
    private int weight;
}
/**
 * 这个类表示后端返回给前端的数据
 */
@Data
public class Result {
    private String title;
    private String url;
    private String desc;//表示一段摘要
}
/**
 * 这个类用来表示词频
 */
@Data
public class WordCnt {
    //表示这个词在标题中出现的次数
    public int titleCount;
    //表示这个词在正文中出现的次数
    public int contentCount;
}

关于这些类是表示什么意思,注释都有写,现在看不懂没关系,后面会明白的

实现索引模块

实现Index类

Index 负责构建索引数据结构. 主要提供以下方法:

  • getDocInfo: 根据 docId 查正排.
  • getInverted :根据关键词查倒排.
  • addDoc :往索引中新增一个文档(正排索引和倒排索引都要新增).
  • save :往磁盘中写索引数据
  • load :从磁盘加载索引数据

代码的大致框架

@Service
public class Index {
	
	//作为锁对象,其用途在后面会知道
	private Object locker1 = new Object();
    private Object locker2 = new Object();
    //索引制作完成后,写入磁盘时,索引数据保存的文件路径
    private static final String INDEX_PATH = "D:/doc_searcher_index/";

     //转成json格式要用到的
    private ObjectMapper objectMapper = new ObjectMapper();

    //正排索引,数组下标表示文档ID也就是docId
    private ArrayList<DocInfo> forwardIndex = new ArrayList<>();

    //使用哈希表来作为倒排索引的数据结构,key表示词,val表示一组和这个词相关的文章
    private HashMap<String,ArrayList<Weight>> invertedIndex = new HashMap<>();

    /**
     * 根据文档id查正排
     * @param docId
     * @return
     */
    public DocInfo getDocInfo(int docId) {

    }

    /**
     * 根据查询词查倒排,返回一个倒排拉链
     * @param term
     * @return
     */
    public List<Weight> getInverted(String term) {

    }

    /**
     * 往索引中添加文档,正排索引的倒排索引都要添加
     * @param title
     * @param url
     * @param content
     */
    public void addDoc(String title,String url,String content) {

    }

    /**
     * 将索引数据保存到本地磁盘中
     */
    public void save() {

    }

    /**
     * 将索引数据从本地磁盘中加载到内存中
     */
    public void load() {

    }


}

只要把这几个方法实现完成,那么Index就算是完成了

实现getDocInfo 和 getInverted

这两个方法比较简单,因为我们构建完的正排索引和倒排索引是由下面这两个数据结构来进行保存的

//正排索引,数组下标表示文档ID也就是docId
    private ArrayList<DocInfo> forwardIndex = new ArrayList<>();

    //使用哈希表来作为倒排索引的数据结构,key表示词,val表示一组和这个词相关的文章
    private HashMap<String,ArrayList<Weight>> invertedIndex = new HashMap<>();

所以直接返回这两个数据结构的get方法即可

 /**
     * 根据文档id查正排
     * @param docId
     * @return
     */
    public DocInfo getDocInfo(int docId) {
        return forwardIndex.get(docId);
    }

    /**
     * 根据查询词查倒排,返回一个倒排拉链
     * @param term
     * @return
     */
    public List<Weight> getInverted(String term) {
        return invertedIndex.get(term);
    }

这两个方法相当于,先根据词调用getInverted()方法,然后得到的文档列表再去正排查,然后就能拿到文档的title,url,content;可能现在有点抽象,不过往后看就不难了

实现addDoc方法

当调用addDoc方法时,就会往正排索引(forwardIndex)和倒排索引(invertedIndex)中添加新文档

public void addDoc(String title,String url,String content) {
        //往正排索引添加文档
        DocInfo docInfo = buildForward(title,url,content);
        //往倒排索引添加文档
        buildInverted(docInfo);
    }
实现buildForward方法

我们先来实现比较简单的,往正排索引添加一个新文档
步骤1:新建一个DocInfo对象,将对应的属性填入
步骤2:将这个DocInfo对象,add到forwardIndex的末尾

private DocInfo buildForward(String title,String url,String content) {
        //1.新建一个DocInfo对象,将对应的属性填入
        DocInfo docInfo = new DocInfo();
        docInfo.setTitle(title);
        docInfo.setUrl(url);
        docInfo.setContent(content);
        //关于这里为什么要进行加锁操作,后面会详细说明
        synchronized (locker1) {
            docInfo.setDocId(forwardIndex.size());
            //2.往forwardIndex中add这个docInfo对象
            forwardIndex.add(docInfo);
        }
        return docInfo;
    }
实现buildInverted方法

通过这个方法往invertedIndex这个数据结构新增文档
步骤1:针对文档标题进行分词
步骤2:遍历分词结果,统计每个词出现的次数
步骤3:针对文档内容进行分词
步骤4:遍历分词结果,统计每个词出现的次数
步骤5:将上面结果汇总到一个HashMap里(最终对文档的权重的计算这里提供一个:weight = 词在标题出现次数*10 + 词在正文中出现次数)
步骤6:遍历刚才的hashmap,依次来更新倒排索引的结构

/**
     * 往倒排索引中添加新文档(构建倒排索引)
     * @param docInfo
     */
    private void buildInverted(DocInfo docInfo) {
        //这个hashmap用来统计词频
        HashMap<String, WordCnt> wordCntHashMap = new HashMap<>();
        //1.针对文档标题进行分词
        List<Term> terms = ToAnalysis.parse(docInfo.getTitle()).getTerms();
        //2.遍历分词结果,统计每个词出现的次数
        for (Term term : terms) {
            String word = term.getName();
            WordCnt wordCnt = wordCntHashMap.get(term);
            //先判断term是否存在
            if(wordCnt==null) {
                //若不存在,新建一个键值对,将titleCount设为1
                WordCnt newWordCnt = new WordCnt();
                newWordCnt.titleCount=1;
                newWordCnt.contentCount=0;
                wordCntHashMap.put(word,newWordCnt);
            } else {
                //若存在则将titleCount加1
                wordCnt.titleCount+=1;
            }
        }
        //3.针对文档内容进行分词
        terms = ToAnalysis.parse(docInfo.getContent()).getTerms();
        //4.遍历分词结果,统计每个词出现的次数
        for(Term term : terms) {
            String word = term.getName();
            WordCnt wordCnt = wordCntHashMap.get(term);
            //先判断term是否存在
            if(wordCnt==null) {
                //若不存在,新建一个键值对,将titleCount设为1
                WordCnt newWordCnt = new WordCnt();
                newWordCnt.titleCount = 1;
                newWordCnt.contentCount = 0;
                wordCntHashMap.put(word,newWordCnt);
            } else {
                //若存在,则将contentCount加1
                wordCnt.contentCount+=1;
            }
        }
        //5.把上面结果汇总到一个hashmap只能(最终权重计算:titleCount*10+contentCount)
        //6.遍历刚才这个hashmap,依次来更新倒排索引中的结构
        for(Map.Entry<String,WordCnt> entry : wordCntHashMap.entrySet()) {
            synchronized (locker2) {
                //先根据这里的词去倒排索引中查一查
                //倒排拉链
                List<Weight> invertedList = invertedIndex.get(entry.getKey());
                if(invertedList==null) {
                    //若为空则插入新的键值对
                    ArrayList<Weight> newInvertedList = new ArrayList<>();
                    //把新的文档构造成weight对象,插入进入
                    Weight weight = new Weight();
                    weight.setDocId(docInfo.getDocId());
                    weight.setWeight(entry.getValue().titleCount*10 + entry.getValue().contentCount);
                    newInvertedList.add(weight);
                    invertedIndex.put(entry.getKey(),newInvertedList);
                } else {
                    //若非空,就把当前文档构造成一个weight对象,插入到倒排拉链中
                    Weight weight = new Weight();
                    weight.setDocId(docInfo.getDocId());
                    //权重计算
                    weight.setWeight(entry.getValue().titleCount*10 + entry.getValue().contentCount);
                    invertedList.add(weight);
                }

            }
        }

    }
关于buildForward和buildInverted为什么有些代码有进行加锁

Java文档搜索引擎
Java文档搜索引擎
因为后面我们是通过多线程来制作索引的,那么多个线程在调用addDoc方法时,就会调用buildForward和buildInverted方法,而这两个方法会去操作存放文档的正排索引(forwardIndex)和倒排索引(invertedIndex),由于这两个数据结构是公共的,所以可能会出现多个线程修改同一个变量的问题。
Java文档搜索引擎

实现save方法

保存索引到文件中.

生成两个文件: forward.txt 和 inverted.txt. 通过 json 格式来写入

/**
     * 将索引数据保存到本地磁盘中
     */
    public void save() {
        long beg = System.currentTimeMillis();
        //使用两个文件分别保存正排索引和倒排索引的数据的数据
        File indexPathFile = new File(INDEX_PATH);
        //1.先判定一下索引目录是否存在,如果不存在,则创建
        if(!indexPathFile.exists()) {
            indexPathFile.mkdirs();
        }
        File forwardIndexFile = new File(INDEX_PATH + "forward.txt");
        File invertedIndexFile = new File(INDEX_PATH + "inverted.txt");
        try {
            objectMapper.writeValue(forwardIndexFile,forwardIndex);
            objectMapper.writeValue(invertedIndexFile,invertedIndex);
        } catch (IOException e) {
            e.printStackTrace();
        }
        long end = System.currentTimeMillis();
        System.out.println("索引保存完成,消耗时间:"+ (end-beg));
    }
实现load方法

把索引文件的内容加载到内存中,赋值给两个数据结构

/**
    * 将索引数据从本地磁盘中加载到内存中
    */
   public void load() {
       long beg = System.currentTimeMillis();
       //1.先设置一下加载索引的路径
       File forwardIndexFile = new File(INDEX_PATH + "forward.txt");
       File invertedIndexFile = new File(INDEX_PATH + "inverted.txt");
       try {
           //从文件中读取json格式数据,然后转成forwardIndex的数据结构
           forwardIndex = objectMapper.readValue(forwardIndexFile, new TypeReference<ArrayList<DocInfo>>() {});
           //从文件中读取json格式数据,然后转invertedIndex的数据结构
           invertedIndex = objectMapper.readValue(invertedIndexFile, new TypeReference<HashMap<String, ArrayList<Weight>>>() {});
       } catch (IOException e) {
           e.printStackTrace();
       }
       long end = System.currentTimeMillis();
       System.out.println("索引加载消耗时间:"+(end-beg));
   }

实现Parser类

通过这个Parser类来完成制作索引的过程
Parser:读取之前下载好的这些文档,然后去解析文档的内容,并完成索引的制作

  • 从制定的路径中枚举出所有的文件
  • 读取每个文件, 从文件中解析出 HTML 的标题, 正文, URL
    代码大致框架
public class Parser {
    //先指定一个加载文档的路径
    private static final String INPUT_PATH="D:/doc_searcher_index/jdk-8u361-docs-all/docs/api";

 	//创建Index实例
    private Index index = new Index;

    public static void main(String[] args) {
        //制作索引的入口
        Parser parser = new Parser();
        parser.runByThread();
    }

    /**
     * 通过这个方法多线程制作索引
     */
    private void runByThread() throws InterruptedException {
        long beg = System.currentTimeMillis();
        //1.根据上面指定的路径,枚举出该路径中所有的文件(只限html)放到file里面(递归)
        ArrayList<File> files = new ArrayList<>();
        enumFile(INPUT_PATH,files);
        //2.//2.循环遍历文件,多线程制作索引
        CountDownLatch latch = new CountDownLatch(files.size());
        ExecutorService executorService = Executors.newFixedThreadPool(4);
        for (File f : files) {
            executorService.submit(new Runnable() {
                @Override
                public void run() {
                    System.out.println("开始解析:"+f.getAbsolutePath());
                    //解析html
                    parseHTML(f);
                    latch.countDown();
                }
            });
        }

        //3.把内存中构造好的索引数据结构保存到指定的文件中
        latch.await();
        executorService.shutdown();//手动关闭线程池
        index.save();
        long end = System.currentTimeMillis();
        System.out.println("索引制作消耗时间:"+(end-beg));
    }

    /**
     * 通过这个方法,递归扫描文档
     * @param inputPath
     * @param files
     */
    private void enumFile(String inputPath,ArrayList<File> files) {

    }

    /**
     * 通过这个方法解析Html文档,然后将文档新增到索引中去
     * 一条搜索结果要展示标题,描述,URL,这些信息就来自于要解析html,要得到描述要先得到正文
     * @param f
     */
    private void parseHTML(File f) {

    }
}

只要把上面的方法实现完成,Parser类就算是完成了,之后只有运行这个Parser类,这样就会将本地的java文档扫描一遍,然后制作索引,将索引的数据保存到本地文件中,这样等需要搜索时,就可以直接从本地读取索引数据,就不需要每次搜索都制作一遍索引。

实现enumFile方法

这个方法会递归遍历我们指定的路径,然后将是html文件的文档加入结果集,比较简单,不难实现,主要涉及到文件操作

 /**
     * 通过这个方法,递归扫描文档
     * @param inputPath
     * @param fileList
     */
    private void enumFile(String inputPath,ArrayList<File> fileList) {
        File rootPath = new File(inputPath);
        //listFiles方法能获取到当前目录的文件和方法
        File[] files = rootPath.listFiles();
        for(File file : files) {
            if(file.isDirectory()) {
                enumFile(file.getAbsolutePath(),fileList);
            } else {
                if(file.getAbsolutePath().endsWith(".html")) {
                    fileList.add(file);
                }
            }
        }
    }
实现parseHTML方法
 /**
     * 通过这个方法解析Html文档,然后将文档新增到索引中去
     * 一条搜索结果要展示标题,描述,URL,这些信息就来自于要解析html,要得到描述要先得到正文
     * @param f
     */
    private void parseHTML(File f) {
        //1.解析出html的标题
        String title = parseTitle(f);
        //2.解析出html的url
        String url = parseURL(f);
        //3.解析出html的正文
        String content = parseContentByRegex(f);
        //4.将解析出来的信息加入到索引中去
        index.addDoc(title,url,content);

    }

从上面代码可以看出,parseHTML的工作就是解析标题,url,content,然后把解析出来的内容加入到索引当中去,从而构造索引,而addDoc在Index已经实现,所以我们调用就可以了,所以只需要实现这3个方法即可

实现parseTitle方法

首先我们知道html文件的源代码都是由各种标签构成,所以title标签顾名思义就是标题了
Java文档搜索引擎
但是要一个一个字符读取然后截取出title标签的内容效率太低,所以我们可以用离线文档的文件名作为文档的标题
Java文档搜索引擎
可以看到文件名和上面的title标签的内容基本一样,所以就选择用文件名来作为文档的标题了

private String parseTitle(File f) {
        //由于文件名就是标题,所以直接提取文件名即可
        String name = f.getName();
        //取文件名作为标题,但是要把.html后缀给删除掉
        return name.substring(0,name.length()-".html".length());
    }
实现parseURL方法

在真实的搜索引擎中,展示URL和跳转URL是不同的URL,但是我们当前就按照一个URL处理即可(因为我们也没有其他业务)
Java API文档存在两份

  1. 线上文档
  2. 线下文档(下载到本地的文档)
    我们的期望就是用户点击搜索结果时,就能跳转到对应的线上文档页面。
    首先下载之后看到一个 docs 目录, 里面存在一个 api 目录. 这里的 html 就和线上版本的文档是一一对应的.
    例如, 我们熟悉的 java.util.Collection 类,

在线文档的链接是 https://docs.oracle.com/javase/8/docs/api/java/util/Collection.html

下载的文档的本地目录是 D:\doc_searcher_index\jdk-8u361-docs-all\docs\api\java\util\Collection.html

这两者存在一定的对应关系.
我们可以发现后半部分是相同的:api/java/util/Collection.html

所以我们最终跳转的URL以 https://docs.oracle.com/javase8/docs/api 为固定前缀,然后根据当前本地文档所在的路径去和前缀拼接;也就是说,把本地文档路径后半部分提取出来和前缀拼接,就构成了我们最后能够跳转的URL

/**
     * 最终跳转的URL以 https://docs.oracle.com/javase8/docs/api 为固定前缀
     * 然后提取本地文档路径的后半部分去和前缀拼接
     * @param f
     * @return
     */
    private String parseURL(File f) {
        String part1 = "https://docs.oracle.com/javase/8/docs/api";
        String part2 = f.getAbsolutePath().substring(INPUT_PATH.length());
        return part1+part2;
    }

实现parseContentByRegex方法

这个方法我们采用正则表达式来实现,首先我们先看html都是什么内容
Java文档搜索引擎
可以发现html是由各种标签构成的那我们有做到3件事

/**
     * 这个方法内部就是基于正则表达式实现去标签
     * @param f
     * @return
     */
    private String parseContentByRegex(File f) {
        //1.先把整个文件读到一个String中
        String content = readFile(f);
        //2.替换掉script标签
        content = content.replaceAll("<script.*?>(.*?)</script>"," ");
        //3.替换掉普通的html标签
        content = content.replaceAll("<.*?>"," ");
        //4.将多余空格删除
        content = content.replaceAll("\\s+"," ");
        return content;
    }

    private String readFile(File f) {
        try(BufferedReader bufferedReader = new BufferedReader(new FileReader(f))) {
            StringBuilder content = new StringBuilder();
            while(true) {
                int ret = bufferedReader.read();
                if(ret==-1) {
                    //说明读取完毕
                    break;
                }
                char c= (char) ret;
                if(c=='\n' || c=='\r') {
                    c=' ';
                }
                content.append(c);
            }
            return content.toString();
        } catch (IOException e) {
            e.printStackTrace();
        }
        return "";
    }

到这里就可以点击运行制作索引了
Java文档搜索引擎
运行结果:
Java文档搜索引擎
Java文档搜索引擎
可以看到索引数据被保存到这两个文件,当我们需要搜索时,只需要加载这两个文件即可

实现搜索模块

搜索模块:调用索引模块,来完成搜索的核心过程

  1. 分词,针对用户输入的查询词进行分词(用户输入查询词,可能不是一个词,可能是一句话)
  2. 暂停词过滤:针对分词结果进行暂停词过滤
  3. 触发,拿着每个分词结果,去倒排索引中查,找到具有相关性的文档
  4. 合并:针对多个分词结果触发的相同的文档进行合并(将相同文档的权重进行合并)
  5. 排序,针对上面触发的结果,进行排序(按相关性降序排序)
  6. 包装结果,根据排序后的结果,依次查正排,获取每个文档的详细信息,包装成一定结果的数据返回出去

所谓暂停词就是没啥意义,但有很高频率出现的词,但是像这样的词按道理来说是不应该被搜索的,举个例子
搜索 array list,按ansj这个库的分词结果是:array 空格 list 那如果我们把空格这样的暂停词也给进行搜索,那几乎所有的文档都有空格,所有我们应该把空格过滤掉。
实际上, 不只空格, 像a, is, have 等高频词语,而且没有意义的词都应该过滤掉,那什么词叫暂停词呢,这种东西, 网上一搜索暂停词表就能搜到.
把搜到的暂停词结果, 放到一个文件中, 每个词占一行. D:\doc_searcher_index\stop_word.txt

Java文档搜索引擎
大概长这样子
Java文档搜索引擎

合并这一步骤可能不太理解,这里多解释一下,当搜索的查询词包含多个单词的时候, 可能同一个文档中, 会同时包含这多个分词结果.像这样的文档应该要提高权重.
例如 查询词为 “array list”
那么分词结果就是array和list,那么肯定会有文档同时出现array和list这样的词,那么当我们搜索array这个词是会触发一次文档,当我们搜索list又会触发一次文档,这样就会出现相同的文档出现两次,那么我们只要把这两个相同的文档合并成一个,其实就是把它们的权重相加
合并的思路就是多个有序数组合并成一个数组的思路,看图就能理解了
Java文档搜索引擎
如果读者还不理解合并的思路,后序可以出一篇文章专门详细讲一讲,这里篇幅有限,就不展开了

@Service
public class DocSearcher {

    private Index index ;
    
    //暂停词存放路径
    private static final String STOP_WORD_PATH = "D:/doc_searcher_index/stop_word.txt";

    //使用这个hashset来保存暂停词
    private HashSet<String> stopWords = new HashSet<>();

    @Autowired
    public DocSearcher(Index index) {
        this.index = index;
        index.load();
        //这个方法用来加载暂停词到hashset当中
        loadStopWords();
    }

    /**
     * 通过这个方法来加载暂停词保存到hashset中
     */
    private void loadStopWords() {
        
    }
    /**
     * 这个方法会根据查询词, 进行搜索, 得到搜索结果集合.
     *  结果集合中包含若干条记录, 每个记录中包含搜索结果的标题, 描述, url
     * @param query
     * @return
     */
    private List<Result> searcher (String query) {

    }
}

只要把上面这两个方法实现那么这个类也算是完成了

实现loadStopWords方法

 /**
     * 通过这个方法来加载暂停词保存到hashset中
     */
    private void loadStopWords() {
        try(BufferedReader bufferedReader = new BufferedReader(new FileReader(STOP_WORD_PATH))) {
            while(true) {
                String line = bufferedReader.readLine();
                if(line == null) {
                    //读取完毕
                    break;
                }
                stopWords.add(line);
            }

        } catch (IOException e) {
            e.printStackTrace();
        }
    }

实现searcher方法

步骤1:分词:针对query这个查询词进行分词
步骤2:针对分词结果使用暂停词进行过滤
步骤3:触发:针对分词结果进行查倒排,
步骤4:合并:针对多个分词结果触发的相同的文档进行合并
步骤5:排序:针对触发结果按权重排序
步骤6:包装结果:针对排序结果去查正排,构造返回数据

/**
     * 这个方法会根据查询词, 进行搜索, 得到搜索结果集合.
     *  结果集合中包含若干条记录, 每个记录中包含搜索结果的标题, 描述, url
     * @param query
     * @return
     */
    private List<Result> searcher (String query) {
        //步骤1:分词:针对query这个查询词进行分词
        List<Term> oldTerms = ToAnalysis.parse(query).getTerms();
        List<Term> terms = new ArrayList<>();
        //步骤2:针对分词结果使用暂停词进行过滤
        for (Term term : oldTerms) {
            String word = term.getName();
            if(stopWords.contains(word)) {
                continue;
            }
            terms.add(term);
        }
        //步骤3:触发:针对分词结果进行查倒排,
        List<List<Weight>> termResult = new ArrayList<>();
        for (Term term : terms) {
            String word = term.getName();
            List<Weight> invertedList = index.getInverted(word);
            if(invertedList==null) {
                //说明这个词在所有文档中不存在
                continue;
            }
            termResult.add(invertedList);
        }
        //步骤4:合并:针对多个分词结果触发的相同的文档进行合并
        List<Weight> allTermResult = mergeResult(termResult);
        //步骤5:排序:针对触发结果按权重排序
        allTermResult.sort(new Comparator<Weight>() {
            @Override
            public int compare(Weight o1, Weight o2) {
                //权重高的排前面
                return o2.getWeight()-o1.getWeight();
            }
        });
        //步骤6:包装结果:针对排序结果去查正排,构造返回数据
        List<Result> results = new ArrayList<>();
        for (Weight weight : allTermResult) {
            DocInfo docInfo = index.getDocInfo(weight.getDocId());
            Result result = new Result();
            result.setTitle(docInfo.getTitle());
            result.setUrl(docInfo.getUrl());
            //通过getDesc方法获取摘要
            result.setDesc(getDesc(docInfo.getContent(),terms));
            results.add(result);
        }
        return results;
    }

可以看到searcher方法还涉及到mergeResult方法和getDesc方法
mergeResult方法会针对多个分词结果触发的相同文档进行合并

实现mergeResult方法
/**
     * 进行合并操作
     * 在进行合并的时候, 是把多个行合并成一行了.
     * 合并过程中势必是需要操作这个二维数组(二维List) 里面的每个元素
     *   操作元素就涉及到 "行" "列" 这样的概念~~ 要想确定二维数组中的一个元素, 就需要明确知道 行 和 列
     *   所以我们建一个内部类表示二维数组中的元素在几行几列
     * @param source
     * @return
     */
    private List<Weight> mergeResult(List<List<Weight>> source) {
        //1.先针对每一行进行排序(按文档id进行升序排序)
        for(List<Weight> curRow : source) {
            curRow.sort(new Comparator<Weight>() {
                @Override
                public int compare(Weight o1, Weight o2) {
                    return o1.getDocId()-o2.getDocId();
                }
            });
        }
        //2.借助优先级队列进行合并
        List<Weight> target = new ArrayList<>();
        PriorityQueue<Pos> queue = new PriorityQueue<>(new Comparator<Pos>() {
            @Override
            public int compare(Pos o1, Pos o2) {
                //先根据pos值找对应的weight对象,然后根据Weight的docId来排序
                Weight w1 = source.get(o1.row).get(o1.col);
                Weight w2 = source.get(o2.row).get(o2.col);
                return w1.getDocId()-w2.getDocId();
            }
        });
        //2.1 把每一行的每一个元素都放到优先级队列里
        for (int row = 0;row<source.size();row++) {
            queue.offer(new Pos(row,0));
        }
        //2.2循环取队首元素
        while (!queue.isEmpty()) {
            Pos minPos = queue.poll();
            Weight curWeight = source.get(minPos.row).get(minPos.col);
            //2.3看这个取的Weight的docId是否和前一个插入到target中的结果是一样的docId,如果是就合并
            if(target.size()>0) {
                //取出上次插入的元素
                Weight lastWeight = target.get(target.size()-1);
                if(lastWeight.getDocId()==curWeight.getDocId()) {
                    //合并权重
                    lastWeight.setWeight(lastWeight.getWeight()+curWeight.getWeight());
                } else {
                    target.add(curWeight);
                }
            } else {
                target.add(curWeight);
            }
            //2.4当前元素处理完毕后,当前元素所在的列表col++(光标往后移,处理下一个元素)
            Pos newPos = new Pos(minPos.row,minPos.col+1);
            if(newPos.col>=source.get(newPos.row).size()) {
                //如果当前列表到达最后一个元素
                continue;
            }
            queue.offer(newPos);

        }
        return target;
    }

如果看不懂实现的思路可以在评论区留言,后续可以考虑出一篇文章来进行细讲

实现getDesc方法

我们遍历分词结果的关键词,然后在正文中找到这个关键词之后,把这个关键词往前50个字符作为起点,然后往后150个字符作为终点,截取出来,这截取出来的部分就作为摘要(这部分要提取多少个字符都可以,只要到时前端页面不要太难看都可以)
这个方法还要做一个工作就是当我们把摘要提取出来后,要找到摘要中的关键词然后给它套上一层标签,这样我们在后面可以对关键词进行标红处理
举个例子:
Java文档搜索引擎
当我们在百度搜索引擎上输入关键词arraylist时,出来的搜索结果的关键词arraylist会被标红处理,那我们也可以模仿这样展示

这里的实现主要涉及到正则表达式

 /**
    * 通过这个方法来获取摘要
    * @param content
    * @param terms
    * @return
    */
   private String getDesc(String content, List<Term> terms) {
       //1.先遍历content,看哪个关键词在content中出现
       int firstPos = -1;
       //分词会直接针对词进行转小写,所以要把正文转成小写
       content = content.toLowerCase();
       for(Term term : terms) {
           String word = term.getName();
           //此处采用“全写匹配”,让word独立成词,才要查找出来,而不是作为词的一部分
           //这里的正则表达式表示将  分隔符word分隔符替换成 空格word空格,只要查询就会找到整个单词而不是单词的一部分
           //比如输入array,但是搜索结果是arraylist,是它的一部分,所以要找到单独成词
           content = content.replaceAll("\\b" + word + "\\b"," " + word + " ");
           firstPos = content.indexOf(" " + word + " ");
           if(firstPos!=-1) {
               //找到关键词
               break;
           }
       }
       if(firstPos == -1) {
           //所有分词结果都不再正文中存在,这属于极端情况,直接返回一个空或正文前150个字符
           if(content.length()<150) {
               return content;
           }
           return content.substring(0,150) + "...";
       }
       //以firstPos作为基准位置,往前找50个字符,作为描述起始位置
       String desc = "";
       int descBeg = firstPos >50 ? firstPos-50 : 0;
       if(descBeg+150 > content.length()) {
           desc = content.substring(descBeg);
       } else {
           desc = content.substring(descBeg,descBeg+150);
       }
       //在此处加上一个替换操作,把描述中和分词结果相同的词加上一层<i>标签,可以通过replace实现(正则表达式)
       for(Term term : terms) {
           String word = term.getName();
           //注意此处要全字匹配,(?i) 表示所在位置右侧的表达式开启忽略大小写模式
           desc = desc.replaceAll("(?i) " + word +" ","<i> " + word + " </i>");
       }
       return desc;
   }

到这里搜索模块也完成了

实现 web模块

提供一个web接口,最终以网页的形式把程序呈现给用户
前端(html+css+js)+后端(java,spring boot)
我们约定前端是GET请求,url是/searcher?query=关键词
后端返回json格式数据,当然这里我用spring boot的统一返回数据格式处理,给它包上一层hashmap,然后直接返回
我们先来实现统一返回数据格式处理的代码
先看一下它的目录
Java文档搜索引擎
对于统一返回数据格式的处理的写法,通过@ControllerAdvice 注解和实现接口 ResponseBodyAdvice 来实现,然后重写supports 方法和beforeBodyWrite即可,这里就不做展开直接展示代码

@ControllerAdvice
public class ResponseAdvice implements ResponseBodyAdvice {

    @Override
    public boolean supports(MethodParameter returnType, Class converterType) {
        return true;
    }
	@SneakyThrows
    @Override
    public Object beforeBodyWrite(Object body, MethodParameter returnType, MediaType selectedContentType, Class selectedConverterType, ServerHttpRequest request, ServerHttpResponse response) {
        if(body instanceof HashMap) {
            return body;
        }
        //如果body是字符串需要进行特殊处理,将返回值进行手动转换
        if(body instanceof String) {
            ObjectMapper objectMapper = new ObjectMapper();
            return objectMapper.writeValueAsString(AjaxResult.success(body));
        }
        return AjaxResult.success(body);
    }
}

/**
 * 自定义统一返回对象
 */
public class AjaxResult {
    /**
     * 业务执行成功进行返回的方法
     * @param data
     * @return
     */
  public static HashMap<String,Object> success(Object data) {
      HashMap<String,Object> result = new HashMap<>();
      result.put("code",200);
      result.put("msg","");
      result.put("data",data);
      return result;
  }
}

那么接下来就是web后端处理前端发送过来的http请求的代码
Java文档搜索引擎

@RestController
public class DocSearcherController {
    @Autowired
    private  DocSearcher docSearcher;

    @RequestMapping(value = "/searcher", produces = "application/json;charset=utf-8")
    @ResponseBody
    public List<Result> search(@RequestParam("query") String query) throws JsonProcessingException {
        
        //参数query是来自于url中的query string中的query中的key
        List<Result> results = docSearcher.searcher(query);
        return results;
        

    }
}

接下来就是前端的代码就直接展示吧

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta http-equiv="X-UA-Compatible" content="IE=edge">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>java_doc_search</title>
</head>
<body>
   

    <!-- 通过.container 来表示整个页面元素的容器 -->
    <div class="container">
         <!-- 1.搜索框 + 搜索按钮 -->
        <div class="header">
            <input type="text">
            <button id="search-btn">搜索</button>
        </div>
        <!-- 2.显示搜索结果 -->
        <div class="result">
            <!-- 包含很多条记录 -->
            <!-- 每条.item就表示一条记录 -->
            <!-- <div class="item">
                <a href="#">我是标题</a>
                <div class="desc">我是描述 Lorem, ipsum dolor sit amet consectetur adipisicing elit. Inventore adipisci qui ratione minus aliquid aperiam tenetur quidem atque sunt perferendis architecto, a quia veniam facilis cupiditate porro. Totam, perferendis provident.</div>
                <div class="url">我是url</div>
            </div>
            <div class="item">
                <a href="#">我是标题</a>
                <div class="desc">我是描述 Lorem, ipsum dolor sit amet consectetur adipisicing elit. Inventore adipisci qui ratione minus aliquid aperiam tenetur quidem atque sunt perferendis architecto, a quia veniam facilis cupiditate porro. Totam, perferendis provident.</div>
                <div class="url">我是url</div>
            </div>
            <div class="item">
                <a href="#">我是标题</a>
                <div class="desc">我是描述 Lorem, ipsum dolor sit amet consectetur adipisicing elit. Inventore adipisci qui ratione minus aliquid aperiam tenetur quidem atque sunt perferendis architecto, a quia veniam facilis cupiditate porro. Totam, perferendis provident.</div>
                <div class="url">我是url</div>
            </div>
            <div class="item">
                <a href="#">我是标题</a>
                <div class="desc">我是描述 Lorem, ipsum dolor sit amet consectetur adipisicing elit. Inventore adipisci qui ratione minus aliquid aperiam tenetur quidem atque sunt perferendis architecto, a quia veniam facilis cupiditate porro. Totam, perferendis provident.</div>
                <div class="url">我是url</div>
            </div> -->
            <!-- 接下来通过访问服务器的方式搜索结果,并且由js动态调整 -->
            
        </div>
    </div>

    <style>
        /* 这部分代码用来写样式 */
        /* 先去掉浏览器的默认样式 */
        * {
            margin: 0;
            padding: 0;
            box-sizing: border-box;
        }

        /* 给整体页面指定一个高度(和浏览器窗口一样高) */
        html,body {
            height: 100%;
            /* 设置背景图 */
            background-image: url(image/background.jpg);
            /* 设置不平铺 */
            background-repeat: no-repeat;
            /* 设置背景图位置 */
            background-position: center center;
            /* 设置背景图大小 */
            background-size: cover;
        }

        /* 针对.container也设置样式,实现版心效果 */
        .container {
            /* 此处的宽度也可以设置成百分数的形式,当前使用一个固定宽度 */
            width: 1200px;
            height: 100%;
            /* 设置水平居中 */
            margin: 0 auto;
            /* 设置背景色,让版心和背景图能够区分开 */
            background-color: rgba(255, 255, 255, 0.8);
            /* 设置圆角矩形 */
            border-radius: 10px;
            /* 设置内边距,避免文字内容紧贴着边距 */
            padding: 20px;

            /* 超出元素的部分会自动加一个滚动条 */
            overflow: auto;
        }

        .header {
            width: 100%;
            height: 50px;
            display: flex;
            justify-content: space-between;
            align-items: center;
        }

        .header>input {
            width: 1000px;
            height: 50px;
            font-size: 22px;
            line-height: 50px;
            padding-left: 10px;
            border-radius: 10px;
        }

        .header>button {
            width: 100px;
            height: 50px;
            background-color: rgb(42, 107, 205);
            color: #fff;
            font-size: 22px;
            line-height: 50px;
            border-radius: 10px;
            border: none;
        }

        .header>button:active {
            background: gray;
        }

        .item {
            width: 100%;
            margin-top: 20px;
        }

        .item a {
            display: block;
            height: 40px;

            font-size: 22px;
            line-height: 40px;
            font-weight: 700;

            color: rgb(100, 107, 205);
        }

        .item .desc {
            font-size: 18px;

        }

        .item .url {
            font-size: 18px;
            color: rgb(0, 128, 0);
        }

        .item .desc i {
            color: red;
            font-style: normal;
        }

        .result .count {
            color: gray;
            margin-top: 10px;
        }
    </style>

    <script src="js/jquery.min.js"></script>
    <script>
        let button = document.querySelector("#search-btn");
        button.onclick = function() {
            //先获取输入框的内容
            let input = document.querySelector(".header input");
            let query = input.value;
            console.log("query:"+query);
            jQuery.ajax({
                type:"GET",
                url: "searcher?query=" + query,
                success:function(body,status) {
                    if(body.code==200) {
                        //body参数表示拿到结果数据
                        //status参数表示http状态码
                        buildResult(body.data);
                    }
                }
            });
        }

        //通过这个方法把响应数据进行构造页面
        function buildResult(data) {
            let result = document.querySelector(".result");
            result.innerHTML = '';
            let countDiv = document.createElement('div');
            countDiv.innerHTML = '当前找到' + data.length + '个结果!';
            countDiv.className = 'count';
            result.appendChild(countDiv);
            for(let item of data) {
                let itemDiv = document.createElement('div');
                itemDiv.className = 'item';
                let title = document.createElement('a');
                title.href = item.url;
                title.innerHTML = item.title;
                title.target = '_blank';
                itemDiv.append(title);
                let desc = document.createElement('div');
                desc.className = 'desc';
                desc.innerHTML = item.desc;
                itemDiv.appendChild(desc);
                let url = document.createElement('div');
                url.className = 'url';
                url.innerHTML = item.url;
                itemDiv.appendChild(url);
                result.appendChild(itemDiv);
            }
        }
    </script>
</body>
</html>

最后运行效果:
Java文档搜索引擎
源码链接:
https://gitee.com/maze-white/project/tree/master/java_doc_searcher_ssm

成品链接:
http://43.139.58.117:7070/index.html文章来源地址https://www.toymoban.com/news/detail-402068.html

到了这里,关于Java文档搜索引擎的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 360、搜狗、必应搜索引擎排名规则与SEO优化怎么做?

    上周五,一个微信好友问我什么时候写一篇必应SEO,其实我在做搜索也有关注必应排名,所以就来分享下,顺带也分享下360和搜狗的。 大纲如下: 1、为什么要关注除百度外其它搜索引擎? 2、360搜索引擎排名规则与SEO优化怎么做? 3、搜狗搜索引擎排名规则与SEO优化怎么做?

    2024年02月03日
    浏览(79)
  • 【Java】花费数十小时,带你体验Java文档搜索引擎的实现过程

    我们先来看看搜索引擎是啥? 我们经常使用的百度搜索引擎就是一个这样的,看起来页面很简单,但是里面的代码是十分的复杂的。 我们去搜索其实就发现搜索引擎核心功能就是查找到一组和用户输入的词or一句话 像这个蛋糕两个字,我们称它为 查询词 ,我们搜索到的内容

    2024年02月03日
    浏览(53)
  • 如何(正确)使用搜索引擎?使用搜索引擎的高效技巧(例如:百度、谷歌)

              提起这个搜索引擎,我们对它就有三种级别的认识          第一种:完全不知道“搜索引擎”是什么或者是“我只知道浏览器”          第二种:知道搜索引擎,但不知道这玩意还有使用方式!          第三种:知道搜索引擎并知道怎么使用的大量相关知识

    2024年02月04日
    浏览(67)
  • 百度搜索引擎使用技巧

    作为和一个合格的ccv程序员,掌握搜索引擎的高级搜索语法是必不可少的技能,下面列举出百度搜索引擎常见的几种搜索语法。 普通人是直接搜索,比如:前端开发。 搜索范围限定在包含 keyword 的网页标题中,这也是最普通的搜索。 语法: intitle:和后面的之间

    2024年02月06日
    浏览(55)
  • 15 个百度网盘搜索引擎

    1、云铺子 - 百度网盘搜索引擎 地址:http://www.yunpz.net/ 查看方式:直接打开 推荐指数:★★★★★ 备注:聚合类,体验好, 推荐! 2、橘子盘搜-好用的影视资源搜索引擎 地址:https://www.nmme.cc/ 查看方式:直接打开 推荐指数:★★★★★ 备注:专攻影视搜索,度盘、迅雷、

    2023年04月08日
    浏览(84)
  • 2023年除了百度还有哪些搜索引擎推荐?

    搜狗 https://sogou.com 搜索最早起源于搜狐,后来被腾讯收购。整体感觉,反应速度比较快,广告不算很多,大部分中文网站都有收录,有时候收录速度比较慢。 Bing.com https://cn.bing.com Bing是来自微软的搜索引擎,也是做的比较早,大概和搜狗同时起步的,搜索结果比较全面,性

    2024年02月04日
    浏览(95)
  • 百度--搜索引擎是怎么实现的--如何制作一个搜索浏览器

    1.搜索引擎是怎么实现的? 搜索引擎是通过以下步骤实现的: 网页抓取(Crawling) :搜索引擎会使用网络爬虫(Web Crawler)自动地从互联网上抓取网页内容。爬虫按照一定的规则遍历网页并提取网页内容,包括文本、链接、标签等。 网页索引(Indexing) :抓取到的网页内容会

    2024年02月12日
    浏览(59)
  • chrome谷歌浏览器更改默认搜索引擎为百度搜索

    2022年10月31日安装了新的chrome浏览器,版本 107.0.5304.88(正式版本) (64 位),居然没有默认内置的百度搜索,添加内置百度搜索 搜索引擎:baidu 快捷字词:baidu.com 网址格式(用“%s”代替搜索字词):https://www.baidu.com/s?wd=%s 2021-10-14 谷歌浏览器更改默认搜索引擎

    2024年02月13日
    浏览(64)
  • 百度、谷歌等搜索引擎高效搜索方法 —— 更快速搜索到你想要内容

    又被称为去广告搜索法,intitle命令,即in title(在标题里)返回的的结果是网页的标题包含该。一般情况下搜索的都会在标题里出现,使用intitle命令一般是在特殊需求下,比如SEO优化等。   又被称为减号搜索法,“1 -2”,减号顾名思义,搜索引擎

    2024年02月04日
    浏览(94)
  • 网站上的网页,无法通过百度和bing搜索引擎来搜索

    最近搜索某公司网站上的技术资料,百度/bing都不能工作,纳闷 看了下该网站的robots.txt 明白了 参考: 网站 robots.txt 文件配置方法,如何禁止搜索引擎收录指定网页内容 - 知乎

    2024年02月12日
    浏览(63)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包