]> gitweb.fperrin.net Git - DictionaryPC.git/blobdiff - src/com/hughes/android/dictionary/engine/IndexBuilder.java
go
[DictionaryPC.git] / src / com / hughes / android / dictionary / engine / IndexBuilder.java
index 4f64fa25258dd835709707aa27cb20e960b3f64d..cab33187d57f1e9bd6ae60ba6f50c77486d5bfc6 100644 (file)
@@ -12,6 +12,7 @@ import java.util.SortedMap;
 import java.util.TreeMap;
 
 import com.hughes.android.dictionary.engine.Index.IndexEntry;
+import com.hughes.android.dictionary.parser.DictFileParser;
 
 
 public class IndexBuilder {
@@ -28,7 +29,7 @@ public class IndexBuilder {
   }
   
   public void build() {
-    final Set<EntryData> tokenEntryDatas = new HashSet<EntryData>();
+    final Set<IndexedEntry> tokenEntryDatas = new HashSet<IndexedEntry>();
     final List<RowBase> rows = index.rows;
     for (final TokenData tokenData : tokenToData.values()) {
       tokenEntryDatas.clear();
@@ -38,8 +39,12 @@ public class IndexBuilder {
 //      System.out.println("Added TokenRow: " + rows.get(rows.size() - 1));
       int numRows = 0;
 //      System.out.println("TOKEN: " + tokenData.token);
-      for (final Map.Entry<EntryTypeName, List<EntryData>> typeToEntry : tokenData.typeToEntries.entrySet()) {
-        for (final EntryData entryData : typeToEntry.getValue()) {
+      for (final Map.Entry<EntryTypeName, List<IndexedEntry>> typeToEntry : tokenData.typeToEntries.entrySet()) {
+        for (final IndexedEntry entryData : typeToEntry.getValue()) {
+          if (entryData.index() == -1) {
+            entryData.addToDictionary(dictionaryBuilder.dictionary);
+            assert entryData.index() >= 0;
+          }
           if (tokenEntryDatas.add(entryData)) {
             rows.add(new PairEntry.Row(entryData.index(), rows.size(), index));
             ++numRows;
@@ -69,7 +74,7 @@ public class IndexBuilder {
   static class TokenData {
     final String token;
         
-    final Map<EntryTypeName, List<EntryData>> typeToEntries = new EnumMap<EntryTypeName, List<EntryData>>(EntryTypeName.class);
+    final Map<EntryTypeName, List<IndexedEntry>> typeToEntries = new EnumMap<EntryTypeName, List<IndexedEntry>>(EntryTypeName.class);
     
     TokenData(final String token) {
       assert token.equals(token.trim());
@@ -87,22 +92,31 @@ public class IndexBuilder {
     return tokenData;
   }
 
-  public List<EntryData> getOrCreateEntries(final String token, final EntryTypeName entryTypeName) {
+  public List<IndexedEntry> getOrCreateEntries(final String token, final EntryTypeName entryTypeName) {
     final TokenData tokenData = getOrCreateTokenData(token);
-    List<EntryData> entries = tokenData.typeToEntries.get(entryTypeName);
+    List<IndexedEntry> entries = tokenData.typeToEntries.get(entryTypeName);
     if (entries == null) {
-      entries = new ArrayList<EntryData>();
+      entries = new ArrayList<IndexedEntry>();
       tokenData.typeToEntries.put(entryTypeName, entries);
     }
     return entries;
   }
 
-  public void addEntryWithTokens(final EntryData entryData, final Set<String> tokens,
+  public void addEntryWithTokens(final IndexedEntry indexedEntry, final Set<String> tokens,
       final EntryTypeName entryTypeName) {
     for (final String token : tokens) {
-      getOrCreateEntries(token, entryTypeName).add(entryData);
+      getOrCreateEntries(token, entryTypeName).add(indexedEntry);
     }    
   }
-  
 
+  public void addEntryWithString(final IndexedEntry indexedEntry, final String untokenizedString,
+      final EntryTypeName singleTokenEntryTypeName, final EntryTypeName multiTokenEntryTypeName) {
+    final Set<String> tokens = DictFileParser.tokenize(untokenizedString, DictFileParser.NON_CHAR);
+    addEntryWithTokens(indexedEntry, tokens, tokens.size() == 1 ? singleTokenEntryTypeName : multiTokenEntryTypeName);
+  }
+
+  public void addEntryWithString(final IndexedEntry indexedEntry, final String untokenizedString,
+      final EntryTypeName entryTypeName) {
+    addEntryWithString(indexedEntry, untokenizedString, entryTypeName, entryTypeName);
+  }
 }