~slub.team/goobi-indexserver/3.x

« back to all changes in this revision

Viewing changes to lucene/contrib/benchmark/conf/wikipedia-flush-by-RAM.alg

  • Committer: Sebastian Meyer
  • Date: 2012-08-03 09:12:40 UTC
  • Revision ID: sebastian.meyer@slub-dresden.de-20120803091240-x6861b0vabq1xror
Remove Lucene and Solr source code and add patches instead
Fix Bug #985487: Auto-suggestion for the search interface

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
#/**
2
 
# * Licensed to the Apache Software Foundation (ASF) under one or more
3
 
# * contributor license agreements.  See the NOTICE file distributed with
4
 
# * this work for additional information regarding copyright ownership.
5
 
# * The ASF licenses this file to You under the Apache License, Version 2.0
6
 
# * (the "License"); you may not use this file except in compliance with
7
 
# * the License.  You may obtain a copy of the License at
8
 
# *
9
 
# *     http://www.apache.org/licenses/LICENSE-2.0
10
 
# *
11
 
# * Unless required by applicable law or agreed to in writing, software
12
 
# * distributed under the License is distributed on an "AS IS" BASIS,
13
 
# * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
14
 
# * See the License for the specific language governing permissions and
15
 
# * limitations under the License.
16
 
# */
17
 
# -------------------------------------------------------------------------------------
18
 
# multi val params are iterated by NewRound's, added to reports, start with column name.
19
 
#
20
 
# based on micro-standard
21
 
#
22
 
# modified to use wikipedia sources and index entire docs
23
 
# currently just used to measure ingest rate
24
 
 
25
 
#merge.factor=mrg:10:100:10:100
26
 
#max.buffered=buf:10:10:100:100
27
 
ram.flush.mb=ram:32:40:48:56
28
 
 
29
 
max.field.length=2147483647
30
 
 
31
 
 
32
 
compound=true
33
 
 
34
 
analyzer=org.apache.lucene.analysis.standard.StandardAnalyzer
35
 
directory=FSDirectory
36
 
 
37
 
doc.stored=true
38
 
doc.tokenized=true
39
 
doc.term.vector=false
40
 
log.step=5000
41
 
 
42
 
docs.file=temp/enwiki-20070527-pages-articles.xml
43
 
 
44
 
content.source=org.apache.lucene.benchmark.byTask.feeds.EnwikiContentSource
45
 
 
46
 
query.maker=org.apache.lucene.benchmark.byTask.feeds.ReutersQueryMaker
47
 
 
48
 
# task at this depth or less would print when they start
49
 
task.max.depth.log=2
50
 
 
51
 
log.queries=false
52
 
# -------------------------------------------------------------------------------------
53
 
 
54
 
{ "Rounds"
55
 
 
56
 
    ResetSystemErase
57
 
 
58
 
    { "Populate"
59
 
        CreateIndex
60
 
        { "MAddDocs" AddDoc > : 200000
61
 
        CloseIndex
62
 
    }
63
 
 
64
 
    NewRound
65
 
 
66
 
} : 4
67
 
 
68
 
RepSumByName
69
 
RepSumByPrefRound MAddDocs