全文检索引擎及工具
lucence
lucence是一个全文检索引擎。
lucence代码级别的使用步骤大致如下:
- 创建文档(org.apache.lucene.document.Document),并通过Document的add方法为其添加字段(lucence.document.Field)
- 创建lucence.index.IndexWriter,通过addDocument或addDocuments方法添加构建好的诸多Document
- 通过close方法关闭IndexWriter
- 创建索引搜索器lucence.search.IndexSearcher,需要传入索引仓库阅读器(lucenc.index.DirectoryReader)参数
- 通过search方法在搜索器上执行查询,参数是ucence.search.Query对象,通过查询解析器lucene.queryparser.classic.QueryParser的实例parse(String)方法来构建一个查询,QueryParser实例可以通过new标准解析器lucene.queryparser.flexible.standard.StandardQueryParser得到
中文文本索引构建及查询示例
(以下涉及的是6.4.2版本的lucene)
对中文文本构建索引时,不能使用StandardAnalyzer
,它会把中文文本按单个字符分割,而非按词语分割,因而需要使用中文分词器,使用自定义的Analyzer。maven包org.apache.lucene:lucene-analyzers-common(由Lucene开发)带一个声称可以对CJK(Chinese、Japanese、Korean)文本分词的的分析器lucene.analysis.cjk.CJKAnalyzer
,但其效果相当不好,几乎不可用,比如文本“白玫瑰的鲜花花语是什么?白色玫瑰花的花语:天真、纯洁、尊敬、谦卑,我足以与你相配。”
的分词结果是“白玫, 玫瑰, 瑰的, 的鲜, 鲜花, 花花, 花语, 语是, 是什, 什么, 白色, 色玫, 玫瑰, 瑰花, 花的, 的花, 花语, 天真, 纯洁, 尊敬, 谦卑, 我足, 足以, 以与, 与你, 你相, 相配”
。除此,smartcn(6.4.2版本maven包为org.apache.lucene:lucene-analyzers-smartcn:6.4.2中,其artifactId不同于版本3.6.2,后者为lucene-smartcn),是随lucene发布的用于处理中文文本的analyzer包,分词特点是词语分割得比较碎,比如上述文本的分词结果是“白, 玫瑰, 的, 鲜花, 花, 语, 是, 什么, 白色, 玫瑰花, 的, 花, 语, 天, 真, 纯洁, 尊敬, 谦卑, 我, 足以, 与, 你, 相, 配”
。
- 以自带的smartcn分析包创建索引
以下代码为scala语言所写,用到的东西不复杂,即使不清楚scala语法也不需要害怕,能看懂构建索引和查询的逻辑过程即可。
代码满足这样的场景需求:假设文件$lucene.wikiIdTitle中有很多行,每行有两列,第一列是数字,第二列是字符串,他们以TAB字符分割,字符串代表一个文档的文本内容,数字代表文档的唯一编号,我们要为文档建立索引,查询时,给出关键词,输出文档唯一编号。
import org.slf4j.LoggerFactory import com.typesafe.config.{ConfigFactory, _} import org.apache.lucene import lucene.index.{DirectoryReader, IndexWriter, IndexWriterConfig, _} import lucene.document.{Field, FieldType, _} import lucene.analysis.{CharArraySet, _} import lucene.search.{IndexSearcher, _} import lucene.store.{RAMDirectory, _} import lucene.analysis.cn.smart.{SmartChineseAnalyzer, _} import org.apache.lucene.index.IndexWriterConfig.OpenMode import org.apache.lucene.queryparser.classic.QueryParser import scala.collection.convert.ImplicitConversions._ import scala.io.Source import scala.util.{Failure, Success, Try} val log = LoggerFactory.getLogger(this.getClass) val conf = ConfigFactory.load("app") // 读取文件配置,对Java程序员来说相当于读 app.properties配置文件 log.info("creating lucene index for wikipedia titles...") // 保存lucene索引文件的目录,例如/path/to/index/ val indexDir = conf.getString("lucene.indexDir") log.debug(s"lucene index writing direcotry: $indexDir") import org.apache.lucene // 创建Directory对象,或创建写入硬盘的(FSDirectory)或直接在内存中操作的(RAMDirectory)。前者需要提供一个写入索引的目录参数。 // val idxDir = FSDirectory.open(java.nio.file.Paths.get(indexDir)) //小示例,直接在内存中操作算了 val idxDir = new RAMDirectory() val stopWordsFiles = conf.getString("lucene.stopWordsFiles") log.debug(s"lucene.stopWordsFiles: $stopWordsFiles") // “停用词”表,以过滤分词结果中没啥用处的停用词 val stopWords = stopWordsFiles.split(",").flatMap(f => Try { if (f.trim.nonEmpty) Source.fromFile(f).getLines() else Iterator.empty } match { case Success(x) => x case Failure(e) => log.warn(s"error in loading stop words file: $f", e) Iterator.empty }).toList log.debug(s"stop words size: ${stopWords.length}") val smartcn = new SmartChineseAnalyzer(new CharArraySet(stopWords, true)) val iwConf = new IndexWriterConfig(smartcn) // iwConf.setOpenMode(OpenMode.CREATE) // RAM中操作“重新创建”、“追加”几种写入模式都无所谓了 val indexWriter = new IndexWriter(idxDir, iwConf) // $lucene.wikiIdTitle表示文档集合文件的路径,示例中该文件内容如下 /* 1832186 义胆雄心 5376724 龙山洞 5420049 地下情人 5431949 里弗顿 5455483 长隆 5463308 阿尔伯特桥 5470979 冈田 5511092 肖迪奇站 5544906 莫农加希拉_(消歧义) 5553846 蓬莱洞 5553849 南山洞 5566592 开水 5566629 氧化锑 */ val pgIdTtls=Source.fromFile(conf.getString("lucene.wikiIdTitle")) .getLines() .filter(ln => ln.nonEmpty) .map(ln => { val idTtl = ln.split("\t") (idTtl(0), idTtl(1)) }) //pgIdTtls变量是一个二元组,对于Java程序员,不必了解什么是二元组,可想象成两列,第一列是唯一id,第二列是文本 pgIdTtls.foreach(e => { import lucene.document._ //创建一个Document val ldoc = new lucene.document.Document() //由于第一列是文档唯一id,不需要被索引,但需要被保存,以便在检索到结果之后能“看到”这个id字段,不保存(.setStored(false))则即使被添加到document对象,在结果中也看不到该字段 val pageIdFieldType = new FieldType() pageIdFieldType.setStored(true) // 要保存,因为我们想在结果中得到这个值 pageIdFieldType.setIndexOptions(lucene.index.IndexOptions.NONE) //别在id字段上做索引 // 事实上,为了性能,可以把pageIdFieldType移到循环外,示例中放在这里是为了让FieldType的出现看起来更合理 // 为文档创建字段,名为pageId(字段名随意取,不过在检索结果中提取时你得记得这个字段的名字),值为第一列(即文档唯一编号) val piFld = new lucene.document.Field("pageId", e._1, pageIdFieldType) ldoc.add(piFld) //把文档的文本内容添加到title字段,要保存(Field.Store.YES) ldoc.add(new lucene.document.TextField("title", e._2, Field.Store.YES)) indexWriter.addDocument(ldoc) // 写入index }) //indexWriter.close() // 如果用硬盘写入(FSDirectory.open方式),要记得关闭 val searcher = new IndexSearcher(DirectoryReader.open(indexWriter)) // 如果是读取某个目录下的index,则应该用 // val searcher = new IndexSearcher(DirectoryReader.open(FSDirectory.open(java.nio.file.Paths.get("/path/to/index/")))) import lucene.queryparser.classic._ // 在title字段上搜索 val queryParser = new QueryParser("title", smartcn) // 搜索“南山洞” val query = queryParser.parse("南山洞") // val hitPageIdTitles = searcher .search(query, 30) // 最多返回30个结果,还有更多我也不想要了(类似SQL的limit 30 .scoreDocs.map(searcher doc _.doc) .map(d => (d.get("pageId"), d.get("title"))) //上一scala语句对java程序员来说理解起来可能稍微有点费力,翻译为java,是这样的 /* ScoreDoc[] scoreDocs=searcher.search(query,30).scoreDocs; for (ScoreDoc scoreDoc : scoreDocs) { //得到检索到的Document org.apache.lucene.document.Document d= searcher.doc(scoreDoc.doc); // 从Document中获取文档编号和文本内容 System.out.println(d.get("pageId")+", "+d.get("title")) } */ //检索到两个结果(5553849,南山洞), (5376724,龙山洞)
- 编写
Analyzer
子类,实现使用自定义分词工具分词
//TODO
solr
solr是一个构建在lucence之上的应用服务器,属于一个全文检索工具,以http提供服务。
来源:https://www.cnblogs.com/xmaples/p/6562403.html