admin 管理员组文章数量: 886993
lucence 全文搜索
什么是全文搜索?
数据的分类
- 结构化数据:指具有固定格式或有限长度的数据,如数据库,元数据等。
- 非结构化数据:指不定长或无固定格式的数据,如邮件,word文档等磁盘上的文件
查询方法:
顺序扫描:从头看到尾,如果此文档包含此字符串,则此文档为我们要找的文,接着看下一个文件,直到扫描完所有的文件。如利用windows的搜索也可以搜索文件内容,只是相当的慢。
全文检索:将非结构化数据中的一部分信息提取出来,重新组织,使其变得有一定结构,然后对此有一定结构的数据进行搜索,从而达到搜索相对较快的目的。这部分从非结构化数据中提取出的然后重新组织的信息,我们称之索引。
例如:字典。字典的拼音表和部首检字表就相当于字典的索引,对每一个字的解释是非结构化的,如果字典没有音节表和部首检字表,在茫茫辞海中找一个字只能顺序扫描。然而字的某些信息可以提取出来进行结构化处理,比如读音,就比较结构化,分声母和韵母,分别只有几种可以一一列举,于是将读音拿出来按一定的顺序排列,每一项读音都指向此字的详细解释的页数。我们搜索时按结构化的拼音搜到读音,然后按其指向的页数,便可找到我们的非结构化数据——也即对字的解释。
这种先建立索引,再对索引进行搜索的过程就叫全文检索(Full-text Search)。
虽然创建索引的过程也是非常耗时的,但是索引一旦创建就可以多次使用,全文检索主要处理的是查询,所以耗时间创建索引是值得的。
应用场景:对于数据量大、数据结构不固定的数据可采用全文检索方式搜索,比如百度、Google等搜索引擎、论坛站内搜索、电商网站站内搜索等。
Lucene实现全文检索
1、绿色表示索引过程,对要搜索的原始内容进行索引构建一个索引库,索引过程包括:
确定原始内容即要搜索的内容—》采集文档----》创建文档----》分析文档—》索引文档
2、红色表示搜索过程,从索引库中搜索内容,搜索过程包括:
用户通过搜索界面—》创建查询—》执行搜索,从索引库搜索—》渲染搜索结果
配置开发环境
lucence下载
Lucene是开发全文检索功能的工具包,从官方网站下载Lucene4.10.3,并解压。
官方网站:/
jar包
其它:
commons-io-2.4.jar
junit-4.9.jar
入门小程序
实现一个文件的搜索功能,通过关键字搜索文件,凡是文件名或文件内容包括关键字的文件都需要找出来。还可以根据中文词语进行查询,并且需要支持多个条件查询。
创建索引
(0)创建一个java工程,导入上面的四个jar包
(1)指定索引库存放的路径
(2)创建indexwriter对象
a.指定索引库的存放位置
b.指定一个分析器,对文档内容进行分析
(3)创建docunment对象
(4)创建field对象,将filed添加到document对象中
(5)使用indexwriter对象将document对象写入索引库,此过程进行索引创建。并将索引和document对象写入索引库。
(6)关闭IndexWriter对象。
//创建索引@Testpublic void createIndex() throws Exception {//指定索引库存放的路径//D:\temp\0108\indexDirectory directory = FSDirectory.open(new File("D:\\temp\\0108\\index"));//索引库还可以存放到内存中//Directory directory = new RAMDirectory();//创建一个标准分析器Analyzer analyzer = new StandardAnalyzer();//创建indexwriterCofig对象//第一个参数: Lucene的版本信息,可以选择对应的lucene版本也可以使用LATEST//第二根参数:分析器对象IndexWriterConfig config = new IndexWriterConfig(Version.LATEST, analyzer);//创建indexwriter对象IndexWriter indexWriter = new IndexWriter(directory, config);//原始文档的路径D:\传智播客\01.课程\04.lucene\01.参考资料\searchsourceFile dir = new File("D:\\传智播客\\01.课程\\04.lucene\\01.参考资料\\searchsource");for (File f : dir.listFiles()) {//文件名String fileName = f.getName();//文件内容String fileContent = FileUtils.readFileToString(f);//文件路径String filePath = f.getPath();//文件的大小long fileSize = FileUtils.sizeOf(f);//创建文件名域//第一个参数:域的名称//第二个参数:域的内容//第三个参数:是否存储Field fileNameField = new TextField("filename", fileName, Store.YES);//文件内容域Field fileContentField = new TextField("content", fileContent, Store.YES);//文件路径域(不分析、不索引、只存储)Field filePathField = new TextField("path", filePath);//文件大小域Field fileSizeField = new TextField("size", fileSize + "", Store.YES);//创建document对象Document document = new Document();document.add(fileNameField);document.add(fileContentField);document.add(filePathField);document.add(fileSizeField);//创建索引,并写入索引库indexWriter.addDocument(document);}//关闭indexwriterindexWriter.close();}
查询索引
第一步:创建一个Directory对象,也就是索引库存放的位置。
第二步:创建一个indexReader对象,需要指定Directory对象。
第三步:创建一个indexsearcher对象,需要指定IndexReader对象
第四步:创建一个TermQuery对象,指定查询的域和查询的关键词。
第五步:执行查询。
第六步:返回查询结果。遍历查询结果并输出。
第七步:关闭IndexReader对象
//查询索引库@Testpublic void searchIndex() throws Exception {//指定索引库存放的路径//D:\temp\0108\indexDirectory directory = FSDirectory.open(new File("D:\\temp\\0108\\index"));//创建indexReader对象IndexReader indexReader = DirectoryReader.open(directory);//创建indexsearcher对象IndexSearcher indexSearcher = new IndexSearcher(indexReader);//创建查询Query query = new TermQuery(new Term("filename", "apache"));//执行查询//第一个参数是查询对象,第二个参数是查询结果返回的最大值TopDocs topDocs = indexSearcher.search(query, 10);//查询结果的总条数System.out.println("查询结果的总条数:"+ topDocs.totalHits);//遍历查询结果//topDocs.scoreDocs存储了document对象的idfor (ScoreDoc scoreDoc : topDocs.scoreDocs) {//scoreDoc.doc属性就是document对象的id//根据document的id找到document对象Document document = indexSearcher.doc(scoreDoc.doc);System.out.println(document.get("filename"));//System.out.println(document.get("content"));System.out.println(document.get("path"));System.out.println(document.get("size"));}//关闭indexreader对象indexReader.close();}
分词器
//查看标准分析器的分词效果public void testTokenStream() throws Exception {//创建一个标准分析器对象Analyzer analyzer = new StandardAnalyzer();//获得tokenStream对象//第一个参数:域名,可以随便给一个//第二个参数:要分析的文本内容TokenStream tokenStream = analyzer.tokenStream("test", "The Spring Framework provides a comprehensive programming and configuration model.");//添加一个引用,可以获得每个关键词CharTermAttribute charTermAttribute = tokenStream.addAttribute(CharTermAttribute.class);//将指针调整到列表的头部tokenStream.reset();//遍历关键词列表,通过incrementToken方法判断列表是否结束while(tokenStream.incrementToken()) {//取关键词System.out.println(charTermAttribute);}tokenStream.close();}
Analyzer 每个分词器tokenStream方法
// Analyzer analyzer = new StandardAnalyzer(); //英文按照空格分词,中文一个字一个字
// Analyzer analyzer = new CJKAnalyzer(); //中文两个字两个字
// 需要导入lucene-analyzers-smartcn-4.10.3.jar
// Analyzer analyzer = new SmartChineseAnalyzer(); //中文还可以,但是英文容易出现缺字母
// 第三方分词器IK-Analyzer
// 需要导入jar IKAnalyzer2012FF_u1.jar
Analyzer analyzer = new IKAnalyzer();
本文标签: lucence 全文搜索
版权声明:本文标题:lucence 全文搜索 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.freenas.com.cn/jishu/1732360083h1534968.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论