Annotated Lucene(中文版)
Annotated Lucene 作者:naven
1 Lucene是什么
Apache Lucene是一個高性能(high-performance)的全能的全文檢索(full-featured text search engine)的搜索引擎框架庫,完全(entirely)使用Java開發。它是一種技術(technology),適合于(suitable for)幾乎(nearly)任何一種需要全文檢索(full-text search)的應用,特別是跨平臺(cross-platform)的應用。
Lucene 通過一些簡單的接口(simple API)提供了強大的特征(powerful features):
可擴展的高性能的索引能力(Scalable, High-Performance Indexing)
ü 超過20M/分鐘的處理能力(Pentium M 1.5GHz)
ü 很少的RAM內存需求,只需要1MB heap
ü 增量索引(incremental indexing)的速度與批量索引(batch indexing)的速度一樣快
ü 索引的大小粗略(roughly)為被索引的文本大小的20-30%
強大的精確的高效率的檢索算法(Powerful, Accurate and Efficient Search Algorithms)
ü 分級檢索(ranked searching)能力,最好的結果優先推出在前面
ü 很多強大的query種類:phrase queries, wildcard queries, proximity queries, range queries等
ü 支持域檢索(fielded searching),如標題、作者、正文等
ü 支持日期范圍檢索(date-range searching)
ü 可以按任意域排序(sorting by any field)
ü 支持多個索引的檢索(multiple-index searching)并合并結果集(merged results)
ü 允許更新和檢索(update and searching)并發進行(simultaneous)
跨平臺解決方案(Cross-Platform Solution)
ü 以Open Source方式提供并遵循Apache License,允許你可以在即包括商業應用也包括Open Source程序中使用Lucene
ü 100%-pure Java(純Java實現)
ü 提供其他開發語言的實現版本并且它們的索引文件是兼容的
Lucene API被分成(divide into)如下幾種包(package)
org.apache.lucene.analysis 定義了一個抽象的Analyser API,用于將text文本從一個java.io.Reader轉換成一個TokenStream,即包括一些Tokens的枚舉容器(enumeration)。一個TokenStream的組成(compose)是通過在一個Tokenizer的輸出的結果上再應用TokenFilters生成的。一些少量的Analysers實現已經提供,包括StopAnalyzer和基于語法(gramar-based)分析的StandardAnalyzer。
org.apache.lucene.document 提供一個簡單的Document類,一個document只不過包括一系列的命名了(named)的Fields(域),它們的內容可以是文本(strings)也可以是一個java.io.Reader的實例。
org.apache.lucene.index 提供兩個主要地餓類,一個是IndexWriter用于創建索引并添加文檔(document),另一個是IndexReader用于訪問索引中的數據。
org.apache.lucene.search 提供數據結構(data structures)來呈現(represent)查詢(queries):TermQuery用于單個的詞(individual words),PhraseQuery用于短語,BooleanQuery用于通過boolean關系組合(combinations)在一起的queries。而抽象的Searcher用于轉變queries為命中的結果(hits)。IndexSearcher實現了在一個單獨(single)的IndexReader上檢索。
org.apache.lucene.queryParser 使用JavaCC實現一個QueryParser。
org.apache.lucene.store 定義了一個抽象的類用于存儲呈現的數據(storing persistent data),即Directory(目錄),一個收集器(collection)包含了一些命名了的文件(named files),它們通過一個IndexOutput來寫入,以及一個IndexInput來讀取。提供了兩個實現,FSDirectory使用一個文件系統目錄來存儲文件,而另一個RAMDirectory則實現了將文件當作駐留內存的數據結構(memory-resident data structures)。
org.apache.lucene.util 包含了一小部分有用(handy)的數據結構,如BitVector和PriorityQueue等。
2 Hello World!
下面是一段簡單的代碼展示如何使用Lucene來進行索引和檢索(使用JUnit來檢查結果是否是我們預期的):
1
// Store the index in memory:
2
Directory directory = new RAMDirectory();
3
// To store an index on disk, use this instead:
4
//Directory directory = FSDirectory.getDirectory("/tmp/testindex");
5
IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
6
iwriter.setMaxFieldLength(25000);
7
Document doc = new Document();
8
String text = "This is the text to be indexed.";
9
doc.add(new Field("fieldname", text, Field.Store.YES,
10
Field.Index.TOKENIZED));
11
iwriter.addDocument(doc);
12
iwriter.optimize();
13
iwriter.close();
14
15
// Now search the index:
16
IndexSearcher isearcher = new IndexSearcher(directory);
17
// Parse a simple query that searches for "text":
18
QueryParser parser = new QueryParser("fieldname", analyzer);
19
Query query = parser.parse("text");
20
Hits hits = isearcher.search(query);
21
assertEquals(1, hits.length());
22
// Iterate through the results:
23
for (int i = 0; i < hits.length(); i++)
{
24
Document hitDoc = hits.doc(i);
25
assertEquals("This is the text to be indexed.", hitDoc.get("fieldname"));
26
}
27
isearcher.close();
28
directory.close();
為了使用Lucene,一個應用程序需要做如下幾件事:
1. 通過添加一系列Fields來創建一批Documents對象。
2. 創建一個IndexWriter對象,并且調用它的AddDocument()方法來添加進Documents。
3. 調用QueryParser.parse()處理一段文本(string)來建造一個查詢(query)對象。
4. 創建一個IndexReader對象并將查詢對象傳入到它的search()方法中。
Annotated Lucene 作者:naven 日期:2007-5-1