]> gitweb.fperrin.net Git - DictionaryPC.git/blob - src/com/hughes/android/dictionary/engine/IndexBuilder.java
Fixing goldens after refactoring.
[DictionaryPC.git] / src / com / hughes / android / dictionary / engine / IndexBuilder.java
1 // Copyright 2011 Google Inc. All Rights Reserved.
2 //
3 // Licensed under the Apache License, Version 2.0 (the "License");
4 // you may not use this file except in compliance with the License.
5 // You may obtain a copy of the License at
6 //
7 //     http://www.apache.org/licenses/LICENSE-2.0
8 //
9 // Unless required by applicable law or agreed to in writing, software
10 // distributed under the License is distributed on an "AS IS" BASIS,
11 // WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12 // See the License for the specific language governing permissions and
13 // limitations under the License.
14
15 package com.hughes.android.dictionary.engine;
16
17 import java.util.ArrayList;
18 import java.util.Collections;
19 import java.util.Comparator;
20 import java.util.EnumMap;
21 import java.util.HashSet;
22 import java.util.List;
23 import java.util.Map;
24 import java.util.Set;
25 import java.util.SortedMap;
26 import java.util.TreeMap;
27
28 import com.hughes.android.dictionary.engine.Index.IndexEntry;
29 import com.hughes.android.dictionary.parser.DictFileParser;
30
31 public class IndexBuilder {
32   
33   final DictionaryBuilder dictionaryBuilder;
34   public final Index index;
35   final Set<String> stoplist;
36
37   final SortedMap<String, TokenData> tokenToData;
38
39   IndexBuilder(final DictionaryBuilder dictionaryBuilder, final String shortName, final String longName, final Language language, final String normalizerRules, final Set<String> stoplist, final boolean swapPairEntries) {
40     this.dictionaryBuilder = dictionaryBuilder;
41     index = new Index(dictionaryBuilder.dictionary, shortName, longName, language, normalizerRules, swapPairEntries);
42     tokenToData = new TreeMap<String, TokenData>(new NormalizeComparator(index.normalizer(), language.getCollator()));
43     this.stoplist = stoplist;
44   }
45   
46   public void build() {
47     final Set<IndexedEntry> tokenEntryDatas = new HashSet<IndexedEntry>();
48     final List<RowBase> rows = index.rows;
49     for (final TokenData tokenData : tokenToData.values()) {
50       tokenEntryDatas.clear();
51       final int indexIndex = index.sortedIndexEntries.size();
52       final int startRow = rows.size();
53       rows.add(new TokenRow(indexIndex, rows.size(), index));
54 //      System.out.println("Added TokenRow: " + rows.get(rows.size() - 1));
55       int numRows = 0;
56 //      System.out.println("TOKEN: " + tokenData.token);
57       for (final Map.Entry<EntryTypeName, List<IndexedEntry>> typeToEntry : tokenData.typeToEntries.entrySet()) {
58         for (final IndexedEntry entryData : typeToEntry.getValue()) {
59           if (entryData.index() == -1) {
60             entryData.addToDictionary(dictionaryBuilder.dictionary);
61             assert entryData.index() >= 0;
62           }
63           if (tokenEntryDatas.add(entryData)) {
64             rows.add(new PairEntry.Row(entryData.index(), rows.size(), index));
65             ++numRows;
66             
67 //            System.out.print("  " + typeToEntry.getKey() + ": ");
68   //          rows.get(rows.size() - 1).print(System.out);
69 //            System.out.println();
70           }
71         }
72       }
73       index.sortedIndexEntries.add(new Index.IndexEntry(tokenData.token, index
74           .normalizer().transliterate(tokenData.token), startRow, numRows));
75     }
76     
77     final List<IndexEntry> entriesSortedByRows = new ArrayList<IndexEntry>(index.sortedIndexEntries);
78     Collections.sort(entriesSortedByRows, new Comparator<IndexEntry>() {
79       @Override
80       public int compare(IndexEntry object1, IndexEntry object2) {
81         return object2.numRows - object1.numRows;
82       }});
83     System.out.println("Most common tokens:");
84     for (int i = 0; i < 50 && i < entriesSortedByRows.size(); ++i) {
85       System.out.println("  " + entriesSortedByRows.get(i));
86     }
87   }
88   
89   static class TokenData {
90     final String token;
91         
92     final Map<EntryTypeName, List<IndexedEntry>> typeToEntries = new EnumMap<EntryTypeName, List<IndexedEntry>>(EntryTypeName.class);
93     
94     TokenData(final String token) {
95       assert token.equals(token.trim());
96       assert token.length() > 0;
97       this.token = token;
98     }
99   }
100
101   private TokenData getOrCreateTokenData(final String token) {
102     TokenData tokenData = tokenToData.get(token);
103     if (tokenData == null) {
104       tokenData = new TokenData(token);
105       tokenToData.put(token, tokenData);
106     }
107     return tokenData;
108   }
109
110   private List<IndexedEntry> getOrCreateEntries(final String token, final EntryTypeName entryTypeName) {
111     final TokenData tokenData = getOrCreateTokenData(token);
112     List<IndexedEntry> entries = tokenData.typeToEntries.get(entryTypeName);
113     if (entries == null) {
114       entries = new ArrayList<IndexedEntry>();
115       tokenData.typeToEntries.put(entryTypeName, entries);
116     }
117     if (token.contains("Aosta")) {
118       System.out.println("asdfasdf");
119     }
120     return entries;
121   }
122
123   public void addEntryWithTokens(final IndexedEntry indexedEntry, final Set<String> tokens,
124       final EntryTypeName entryTypeName) {
125     for (final String token : tokens) {
126       if (entryTypeName.overridesStopList || !stoplist.contains(token))
127       getOrCreateEntries(token, entryTypeName).add(indexedEntry);
128     }    
129   }
130
131   public void addEntryWithString(final IndexedEntry indexedEntry, final String untokenizedString,
132       final EntryTypeName entryTypeName) {
133     final Set<String> tokens = DictFileParser.tokenize(untokenizedString, DictFileParser.NON_CHAR);
134     addEntryWithTokens(indexedEntry, tokens, tokens.size() == 1 ? entryTypeName.singleWordInstance : entryTypeName);
135   }
136
137   public void addEntryWithStringNoSingle(final IndexedEntry indexedEntry, final String untokenizedString,
138       final EntryTypeName entryTypeName) {
139     final Set<String> tokens = DictFileParser.tokenize(untokenizedString, DictFileParser.NON_CHAR);
140     addEntryWithTokens(indexedEntry, tokens, entryTypeName);
141   }
142 }