IKAnalyzer中文分词,计算句子相似度
IKAnalyzer中文分词,计算句子相似度 一、简介 IKAnalyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包。以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。独立于Lucene项目,同时提供了对Lucene的默认优化实现。(简介来源: 百度百科 ) 二、准备 项目结构: IKAnalyzer2012FF_u1.jar 下载 lucene-core-4.6.1.jar 下载 ext.dic stopword.dic IKAnalyzer.cfg.xml 三、分词 分词由于比较简单,就直接粘贴代码了 public static Vector<String> participle( String str ) { Vector<String> str1 = new Vector<String>() ;//对输入进行分词 try { StringReader reader = new StringReader( str ); IKSegmenter ik = new IKSegmenter(reader,true);//当为true时,分词器进行最大词长切分 Lexeme lexeme = null ; while( ( lexeme = ik.next() ) != null ) { str1.add( lexeme