~slub.team/goobi-indexserver/3.x

« back to all changes in this revision

Viewing changes to solr/core/src/java/org/apache/solr/analysis/ChineseTokenizerFactory.java

  • Committer: Sebastian Meyer
  • Date: 2012-08-03 09:12:40 UTC
  • Revision ID: sebastian.meyer@slub-dresden.de-20120803091240-x6861b0vabq1xror
Remove Lucene and Solr source code and add patches instead
Fix Bug #985487: Auto-suggestion for the search interface

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
 
2
 
/**
3
 
 * Licensed to the Apache Software Foundation (ASF) under one or more
4
 
 * contributor license agreements.  See the NOTICE file distributed with
5
 
 * this work for additional information regarding copyright ownership.
6
 
 * The ASF licenses this file to You under the Apache License, Version 2.0
7
 
 * (the "License"); you may not use this file except in compliance with
8
 
 * the License.  You may obtain a copy of the License at
9
 
 *
10
 
 *     http://www.apache.org/licenses/LICENSE-2.0
11
 
 *
12
 
 * Unless required by applicable law or agreed to in writing, software
13
 
 * distributed under the License is distributed on an "AS IS" BASIS,
14
 
 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
15
 
 * See the License for the specific language governing permissions and
16
 
 * limitations under the License.
17
 
 */
18
 
 
19
 
 
20
 
package org.apache.solr.analysis;
21
 
 
22
 
import java.io.Reader;
23
 
import java.util.Map;
24
 
 
25
 
import org.apache.lucene.analysis.cn.ChineseTokenizer;
26
 
 
27
 
/** 
28
 
 * Factory for {@link ChineseTokenizer}
29
 
 * @deprecated Use {@link StandardTokenizerFactory} instead.
30
 
 */
31
 
@Deprecated
32
 
public class ChineseTokenizerFactory extends BaseTokenizerFactory {
33
 
  @Override
34
 
  public void init(Map<String,String> args) {
35
 
    super.init(args);
36
 
    warnDeprecated("Use StandardTokenizerFactory instead.");
37
 
  }
38
 
  
39
 
  public ChineseTokenizer create(Reader in) {
40
 
    return new ChineseTokenizer(in);
41
 
  }
42
 
}
43