~slub.team/goobi-indexserver/3.x

« back to all changes in this revision

Viewing changes to lucene/src/java/org/apache/lucene/analysis/ReusableAnalyzerBase.java

  • Committer: Sebastian Meyer
  • Date: 2012-08-03 09:12:40 UTC
  • Revision ID: sebastian.meyer@slub-dresden.de-20120803091240-x6861b0vabq1xror
Remove Lucene and Solr source code and add patches instead
Fix Bug #985487: Auto-suggestion for the search interface

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
/**
2
 
 * Licensed to the Apache Software Foundation (ASF) under one or more
3
 
 * contributor license agreements.  See the NOTICE file distributed with
4
 
 * this work for additional information regarding copyright ownership.
5
 
 * The ASF licenses this file to You under the Apache License, Version 2.0
6
 
 * (the "License"); you may not use this file except in compliance with
7
 
 * the License.  You may obtain a copy of the License at
8
 
 *
9
 
 *     http://www.apache.org/licenses/LICENSE-2.0
10
 
 *
11
 
 * Unless required by applicable law or agreed to in writing, software
12
 
 * distributed under the License is distributed on an "AS IS" BASIS,
13
 
 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
14
 
 * See the License for the specific language governing permissions and
15
 
 * limitations under the License.
16
 
 */
17
 
 
18
 
package org.apache.lucene.analysis;
19
 
 
20
 
import java.io.IOException;
21
 
import java.io.Reader;
22
 
 
23
 
/**
24
 
 * An convenience subclass of Analyzer that makes it easy to implement
25
 
 * {@link TokenStream} reuse.
26
 
 * <p>
27
 
 * ReusableAnalyzerBase is a simplification of Analyzer that supports easy reuse
28
 
 * for the most common use-cases. Analyzers such as
29
 
 * {@link PerFieldAnalyzerWrapper} that behave differently depending upon the
30
 
 * field name need to subclass Analyzer directly instead.
31
 
 * </p>
32
 
 * <p>
33
 
 * To prevent consistency problems, this class does not allow subclasses to
34
 
 * extend {@link #reusableTokenStream(String, Reader)} or
35
 
 * {@link #tokenStream(String, Reader)} directly. Instead, subclasses must
36
 
 * implement {@link #createComponents(String, Reader)}.
37
 
 * </p>
38
 
 */
39
 
public abstract class ReusableAnalyzerBase extends Analyzer {
40
 
 
41
 
  /**
42
 
   * Creates a new {@link TokenStreamComponents} instance for this analyzer.
43
 
   * 
44
 
   * @param fieldName
45
 
   *          the name of the fields content passed to the
46
 
   *          {@link TokenStreamComponents} sink as a reader
47
 
   * @param aReader
48
 
   *          the reader passed to the {@link Tokenizer} constructor
49
 
   * @return the {@link TokenStreamComponents} for this analyzer.
50
 
   */
51
 
  protected abstract TokenStreamComponents createComponents(String fieldName,
52
 
      Reader aReader);
53
 
 
54
 
  /**
55
 
   * This method uses {@link #createComponents(String, Reader)} to obtain an
56
 
   * instance of {@link TokenStreamComponents}. It returns the sink of the
57
 
   * components and stores the components internally. Subsequent calls to this
58
 
   * method will reuse the previously stored components if and only if the
59
 
   * {@link TokenStreamComponents#reset(Reader)} method returned
60
 
   * <code>true</code>. Otherwise a new instance of
61
 
   * {@link TokenStreamComponents} is created.
62
 
   * 
63
 
   * @param fieldName the name of the field the created TokenStream is used for
64
 
   * @param reader the reader the streams source reads from
65
 
   */
66
 
  @Override
67
 
  public final TokenStream reusableTokenStream(final String fieldName,
68
 
      final Reader reader) throws IOException {
69
 
    TokenStreamComponents streamChain = (TokenStreamComponents)
70
 
    getPreviousTokenStream();
71
 
    final Reader r = initReader(reader);
72
 
    if (streamChain == null || !streamChain.reset(r)) {
73
 
      streamChain = createComponents(fieldName, r);
74
 
      setPreviousTokenStream(streamChain);
75
 
    }
76
 
    return streamChain.getTokenStream();
77
 
  }
78
 
 
79
 
  /**
80
 
   * This method uses {@link #createComponents(String, Reader)} to obtain an
81
 
   * instance of {@link TokenStreamComponents} and returns the sink of the
82
 
   * components. Each calls to this method will create a new instance of
83
 
   * {@link TokenStreamComponents}. Created {@link TokenStream} instances are 
84
 
   * never reused.
85
 
   * 
86
 
   * @param fieldName the name of the field the created TokenStream is used for
87
 
   * @param reader the reader the streams source reads from
88
 
   */
89
 
  @Override
90
 
  public final TokenStream tokenStream(final String fieldName,
91
 
      final Reader reader) {
92
 
    return createComponents(fieldName, initReader(reader)).getTokenStream();
93
 
  }
94
 
  
95
 
  /**
96
 
   * Override this if you want to add a CharFilter chain.
97
 
   */
98
 
  protected Reader initReader(Reader reader) {
99
 
    return reader;
100
 
  }
101
 
  
102
 
  /**
103
 
   * This class encapsulates the outer components of a token stream. It provides
104
 
   * access to the source ({@link Tokenizer}) and the outer end (sink), an
105
 
   * instance of {@link TokenFilter} which also serves as the
106
 
   * {@link TokenStream} returned by
107
 
   * {@link Analyzer#tokenStream(String, Reader)} and
108
 
   * {@link Analyzer#reusableTokenStream(String, Reader)}.
109
 
   */
110
 
  public static class TokenStreamComponents {
111
 
    protected final Tokenizer source;
112
 
    protected final TokenStream sink;
113
 
 
114
 
    /**
115
 
     * Creates a new {@link TokenStreamComponents} instance.
116
 
     * 
117
 
     * @param source
118
 
     *          the analyzer's tokenizer
119
 
     * @param result
120
 
     *          the analyzer's resulting token stream
121
 
     */
122
 
    public TokenStreamComponents(final Tokenizer source,
123
 
        final TokenStream result) {
124
 
      this.source = source;
125
 
      this.sink = result;
126
 
    }
127
 
    
128
 
    /**
129
 
     * Creates a new {@link TokenStreamComponents} instance.
130
 
     * 
131
 
     * @param source
132
 
     *          the analyzer's tokenizer
133
 
     */
134
 
    public TokenStreamComponents(final Tokenizer source) {
135
 
      this.source = source;
136
 
      this.sink = source;
137
 
    }
138
 
 
139
 
    /**
140
 
     * Resets the encapsulated components with the given reader. This method by
141
 
     * default returns <code>true</code> indicating that the components have
142
 
     * been reset successfully. Subclasses of {@link ReusableAnalyzerBase} might use
143
 
     * their own {@link TokenStreamComponents} returning <code>false</code> if
144
 
     * the components cannot be reset.
145
 
     * 
146
 
     * @param reader
147
 
     *          a reader to reset the source component
148
 
     * @return <code>true</code> if the components were reset, otherwise
149
 
     *         <code>false</code>
150
 
     * @throws IOException
151
 
     *           if the component's reset method throws an {@link IOException}
152
 
     */
153
 
    protected boolean reset(final Reader reader) throws IOException {
154
 
      source.reset(reader);
155
 
      return true;
156
 
    }
157
 
 
158
 
    /**
159
 
     * Returns the sink {@link TokenStream}
160
 
     * 
161
 
     * @return the sink {@link TokenStream}
162
 
     */
163
 
    protected TokenStream getTokenStream() {
164
 
      return sink;
165
 
    }
166
 
 
167
 
  }
168
 
 
169
 
}