9159金沙游艺场-奥门金沙游艺场-[欢迎您]

9159金沙游艺场为您呈现最新的面貌!,目前注册送体验金,欢迎您将成为影视娱乐行业新的风向标,是亚洲的优质娱乐先锋。

API使用方式与和属性优化

日期:2019-11-06编辑作者:服务器

1 lucene简介
 1.1 什么是lucene
 Lucene是一个全文搜索框架,而不是应用产品。因此它并不像百度或者google Desktop那么拿来就能用,它只是提供了一种工具让你能实现这些产品。
 
1.2 lucene能做什么
 要回答这个问题,先要了解lucene的本质。实际上lucene的功能很单一,说到底,就是你给它若干个字符串,然后它为你提供一个全文搜索服务,告诉你你要搜索的关键词出现在哪里。知道了这个本质,你就可以发挥想象做任何符合这个条件的事情了。你可以把站内新闻都索引了,做个资料库;你可以把一个数据库表的若干个字段索引起来,那就不用再担心因为“%like%”而锁表了;你也可以写个自己的搜索引擎……
 
1.3 你该不该选择lucene
 下面给出一些测试数据,如果你觉得可以接受,那么可以选择。
 测试一:250万记录,300M左右文本,生成索引380M左右,800线程下平均处理时间300ms。
 测试二:37000记录,索引数据库中的两个varchar字段,索引文件2.6M,800线程下平均处理时间1.5ms。

基于Lucene多索引进行索引和搜索 http://www.linuxidc.com/Linux/2012-05/59757.htm

Lucene 实战(第2版) 中文版 配套源代码 http://www.linuxidc.com/Linux/2013-10/91055.htm

Lucene 实战(第2版) PDF高清中文版 http://www.linuxidc.com/Linux/2013-10/91052.htm

使用Lucene-Spatial实现集成地理位置的全文检索 http://www.linuxidc.com/Linux/2012-02/53117.htm

Lucene + Hadoop 分布式搜索运行框架 Nut 1.0a9 http://www.linuxidc.com/Linux/2012-02/53113.htm

Lucene + Hadoop 分布式搜索运行框架 Nut 1.0a8 http://www.linuxidc.com/Linux/2012-02/53111.htm

Lucene + Hadoop 分布式搜索运行框架 Nut 1.0a7 http://www.linuxidc.com/Linux/2012-02/53110.htm

Project 2-1: 配置Lucene, 建立WEB查询系统[Ubuntu 10.10] http://www.linuxidc.com/Linux/2010-11/30103.htm
 
2 lucene的工作方式
 lucene提供的服务实际包含两部分:一入一出。所谓入是写入,即将你提供的源(本质是字符串)写入索引或者将其从索引中删除;所谓出是读出,即向用户提供全文搜索服务,让用户可以通过关键词定位源。
 
2.1写入流程
 源字符串首先经过analyzer处理,包括:分词,分成一个个单词;去除stopword(可选)。
 将源中需要的信息加入Document的各个Field中,并把需要索引的Field索引起来,把需要存储的Field存储起来。
 将索引写入存储器,存储器可以是内存或磁盘。
 
2.2读出流程
 用户提供搜索关键词,经过analyzer处理。
 对处理后的关键词搜索索引找出对应的Document。
 用户根据需要从找到的Document中提取需要的Field。
 
3 一些需要知道的概念
 lucene用到一些概念,了解它们的含义,有利于下面的讲解。
 
3.1 analyzer
 Analyzer是分析器,它的作用是把一个字符串按某种规则划分成一个个词语,并去除其中的无效词语,这里说的无效词语是指英文中的“of”、 “the”,中文中的“的”、“地”等词语,这些词语在文章中大量出现,但是本身不包含什么关键信息,去掉有利于缩小索引文件、提高效率、提高命中率。
 分词的规则千变万化,但目的只有一个:按语义划分。这点在英文中比较容易实现,因为英文本身就是以单词为单位的,已经用空格分开;而中文则必须以某种方法将连成一片的句子划分成一个个词语。具体划分方法下面再详细介绍,这里只需了解分析器的概念即可。
 
3.2 document
 用户提供的源是一条条记录,它们可以是文本文件、字符串或者数据库表的一条记录等等。一条记录经过索引之后,就是以一个Document的形式存储在索引文件中的。用户进行搜索,也是以Document列表的形式返回。
 
3.3 field
 一个Document可以包含多个信息域,例如一篇文章可以包含“标题”、“正文”、“最后修改时间”等信息域,这些信息域就是通过Field在Document中存储的。
 Field有两个属性可选:存储和索引。通过存储属性你可以控制是否对这个Field进行存储;通过索引属性你可以控制是否对该Field进行索引。这看起来似乎有些废话,事实上对这两个属性的正确组合很重要,下面举例说明:
 还是以刚才的文章为例子,我们需要对标题和正文进行全文搜索,所以我们要把索引属性设置为真,同时我们希望能直接从搜索结果中提取文章标题,所以我们把标题域的存储属性设置为真,但是由于正文域太大了,我们为了缩小索引文件大小,将正文域的存储属性设置为假,当需要时再直接读取文件;我们只是希望能从搜索解果中提取最后修改时间,不需要对它进行搜索,所以我们把最后修改时间域的存储属性设置为真,索引属性设置为假。上面的三个域涵盖了两个属性的三种组合,还有一种全为假的没有用到,事实上Field不允许你那么设置,因为既不存储又不索引的域是没有意义的。
 
3.4 term
 term是搜索的最小单位,它表示文档的一个词语,term由两部分组成:它表示的词语和这个词语所出现的field。
 
3.5 tocken
 tocken是term的一次出现,它包含trem文本和相应的起止偏移,以及一个类型字符串。一句话中可以出现多次相同的词语,它们都用同一个term表示,但是用不同的tocken,每个tocken标记该词语出现的地方。
 
3.6 segment
 添加索引时并不是每个document都马上添加到同一个索引文件,它们首先被写入到不同的小文件,然后再合并成一个大索引文件,这里每个小文件都是一个segment。
 
4 lucene的结构
 lucene包括core和sandbox两部分,其中core是lucene稳定的核心部分,sandbox包含了一些附加功能,例如highlighter、各种分析器。
 Lucene core有七个包:analysis,document,index,queryParser,search,store,util。
 4.1 analysis
 Analysis包含一些内建的分析器,例如按空白字符分词的WhitespaceAnalyzer,添加了stopwrod过滤的StopAnalyzer,最常用的StandardAnalyzer。
 4.2 document
 Document包含文档的数据结构,例如Document类定义了存储文档的数据结构,Field类定义了Document的一个域。
 4.3 index
 Index包含了索引的读写类,例如对索引文件的segment进行写、合并、优化的IndexWriter类和对索引进行读取和删除操作的 IndexReader类,这里要注意的是不要被IndexReader这个名字误导,以为它是索引文件的读取类,实际上删除索引也是由它完成, IndexWriter只关心如何将索引写入一个个segment,并将它们合并优化;IndexReader则关注索引文件中各个文档的组织形式。
 4.4 queryParser
 QueryParser包含了解析查询语句的类,lucene的查询语句和sql语句有点类似,有各种保留字,按照一定的语法可以组成各种查询。 Lucene有很多种Query类,它们都继承自Query,执行各种特殊的查询,QueryParser的作用就是解析查询语句,按顺序调用各种 Query类查找出结果。
 4.5 search
 Search包含了从索引中搜索结果的各种类,例如刚才说的各种Query类,包括TermQuery、BooleanQuery等就在这个包里。
 4.6 store
 Store包含了索引的存储类,例如Directory定义了索引文件的存储结构,FSDirectory为存储在文件中的索引,RAMDirectory为存储在内存中的索引,MmapDirectory为使用内存映射的索引。
 4.7 util
 Util包含一些公共工具类,例如时间和字符串之间的转换工具。
 5 如何建索引
 5.1 最简单的能完成索引的代码片断

IndexWriter writer = new IndexWriter(“/data/index/”, new StandardAnalyzer(), true);
 Document doc = new Document();
 doc.add(new Field(“title”, ”lucene introduction”, Field.Store.YES, Field.Index.TOKENIZED));
 doc.add(new Field(“content”, ”lucene works well”, Field.Store.YES, Field.Index.TOKENIZED));
 writer.addDocument(doc);
 writer.optimize();
 writer.close();
 
下面我们分析一下这段代码。
 首先我们创建了一个writer,并指定存放索引的目录为“/data/index”,使用的分析器为StandardAnalyzer,第三个参数说明如果已经有索引文件在索引目录下,我们将覆盖它们。
 然后我们新建一个document。
 我们向document添加一个field,名字是“title”,内容是“lucene introduction”,对它进行存储并索引。
 再添加一个名字是“content”的field,内容是“lucene works well”,也是存储并索引。
 然后我们将这个文档添加到索引中,如果有多个文档,可以重复上面的操作,创建document并添加。
 添加完所有document,我们对索引进行优化,优化主要是将多个segment合并到一个,有利于提高索引速度。
 随后将writer关闭,这点很重要。
 
对,创建索引就这么简单!
 当然你可能修改上面的代码获得更具个性化的服务。
 
5.2 将索引直接写在内存
 你需要首先创建一个RAMDirectory,并将其传给writer,代码如下:
 
Directory dir = new RAMDirectory();
 IndexWriter writer = new IndexWriter(dir, new StandardAnalyzer(), true);
 Document doc = new Document();
 doc.add(new Field(“title”, ”lucene introduction”, Field.Store.YES, Field.Index.TOKENIZED));
 doc.add(new Field(“content”, ”lucene works well”, Field.Store.YES, Field.Index.TOKENIZED));
 writer.addDocument(doc);
 writer.optimize();
 writer.close();
 
5.3 索引文本文件
 如果你想把纯文本文件索引起来,而不想自己将它们读入字符串创建field,你可以���下面的代码创建field:
 
Field field = new Field(“content”, new FileReader(file));
 
这里的file就是该文本文件。该构造函数实际上是读去文件内容,并对其进行索引,但不存储。

更多详情见请继续阅读下一页的精彩内容: http://www.linuxidc.com/Linux/2014-06/102857p2.htm

图片 1

本文由9159金沙游艺场-奥门金沙游艺场-[欢迎您]发布于服务器,转载请注明出处:API使用方式与和属性优化

关键词:

Redis搭建Nginx日志分析平台

使用ELK+Redis搭建Nginx日志分析平台 logstash,elasticsearch,kibana怎么进行nginx的日志分析呢?首先,架构方面,nginx是有日志...

详细>>

6个基本用法整理

Spring mvc中@RequestMapping 6个基本用法整理,[email protected] 继续整理,这个是前段时间用jsp开发的一个站点,说起来php程...

详细>>

在 CentOS7 上安装 Zookeeper9159金沙游艺场-3.4.9 服务

选择ZooKeeper完结分布式分享锁http://www.linuxidc.com/Linux/2013-06/85550.htm 在 CentOS7 上安装zookeeper-3.4.9 服务 CentOS 6安装sheepd...

详细>>

将具备同步还原功能

以下音讯已不是传言,那么些意义将最后会在Ubuntu尔后的版本中完毕. 提个很简短的例子,当本身要重装Ubuntu系统,笔...

详细>>