]> gitweb.fperrin.net Git - DictionaryPC.git/blobdiff - src/com/hughes/android/dictionary/parser/WikiTokenizer.java
Improve tokenizer speed.
[DictionaryPC.git] / src / com / hughes / android / dictionary / parser / WikiTokenizer.java
index 81783a836c86827ebe38dc71c46be964ef75de5b..d6c8901aa6a6b6541c1d5b2ccd0e4dc4af56f507 100644 (file)
@@ -125,8 +125,8 @@ public final class WikiTokenizer {
   }
 
   public WikiTokenizer(String wikiText, final boolean isNewline) {
-    wikiText = wikiText.replaceAll("\u2028", "\n");
-    wikiText = wikiText.replaceAll("\u0085", "\n");
+    wikiText = wikiText.replace('\u2028', '\n');
+    wikiText = wikiText.replace('\u0085', '\n');
     this.wikiText = wikiText;
     this.matcher = wikiTokenEvent.matcher(wikiText);
     justReturnedNewline = isNewline;
@@ -471,6 +471,7 @@ public final class WikiTokenizer {
     return token;
   }
   
+  final static String[] patterns = { "\n", "{{", "}}", "[[", "]]", "|", "=", "<!--" };
   private int escapedFindEnd(final int start, final String toFind) {
     assert tokenStack.isEmpty();
     
@@ -478,16 +479,37 @@ public final class WikiTokenizer {
     
     int end = start;
     int firstNewline = -1;
+    int[] nextMatch = new int[8];
+    for (int i = 0; i < 8; ++i) {
+        nextMatch[i] = wikiText.indexOf(patterns[i], start);
+        if (nextMatch[i] == -1) nextMatch[i] = i > 0 ? 0x7fffffff : wikiText.length();
+    }
     while (end < wikiText.length()) {
-      if (matcher.find(end)) {
-        final String matchText = matcher.group();
-        final int matchStart = matcher.start();
-        
-        assert matcher.end() > end || matchText.length() == 0: "Group=" + matcher.group();
+        // Manual replacement for matcher.find(end),
+        // because Java regexp is a ridiculously slow implementation.
+        // Initialize to always match the end.
+        int matchIdx = 0;
+        for (int i = 1; i < 8; ++i) {
+            if (nextMatch[i] < nextMatch[matchIdx]) {
+                matchIdx = i;
+            }
+        }
+
+        int matchStart = nextMatch[matchIdx];
+        String matchText = patterns[matchIdx];
+        int matchEnd = matchStart + matchText.length();
+        nextMatch[matchIdx] = wikiText.indexOf(patterns[matchIdx], matchEnd);
+        if (nextMatch[matchIdx] == -1) nextMatch[matchIdx] = matchIdx > 0 ? 0x7fffffff : wikiText.length();
+        if (matchIdx == 0) {
+            matchText = "";
+            matchEnd = matchStart;
+        }
+
+        assert matchEnd > end || matchText.length() == 0: "Group=" + matchText;
         if (matchText.length() == 0) {
           assert matchStart == wikiText.length() || wikiText.charAt(matchStart) == '\n' : wikiText + ", " + matchStart;
           if (firstNewline == -1) {
-            firstNewline = matcher.end();
+            firstNewline = matchEnd;
           }
           if (tokenStack.isEmpty() && toFind.equals("\n")) {
             return matchStart;
@@ -498,21 +520,21 @@ public final class WikiTokenizer {
           if (insideFunction) {
             addFunctionArg(insideFunction, matchStart);
           }
-          return matcher.end();
+          return matchEnd;
         } else if (matchText.equals("[[") || matchText.equals("{{")) {
           tokenStack.add(matchText);
         } else if (matchText.equals("]]") || matchText.equals("}}")) {
           if (tokenStack.size() > 0) {
             final String removed = tokenStack.remove(tokenStack.size() - 1);
-            if (removed.equals("{{") && !matcher.group().equals("}}")) {
+            if (removed.equals("{{") && !matchText.equals("}}")) {
               errors.add("Unmatched {{ error: " + wikiText.substring(start));
               return safeIndexOf(wikiText, start, "\n", "\n");
-            } else if (removed.equals("[[") && !matcher.group().equals("]]")) {
+            } else if (removed.equals("[[") && !matchText.equals("]]")) {
               errors.add("Unmatched [[ error: " + wikiText.substring(start));
               return safeIndexOf(wikiText, start, "\n", "\n");
             }
           } else {
-            errors.add("Pop too many error: " + wikiText.substring(start).replaceAll("\n", "\\\\n"));
+            errors.add("Pop too many error: " + wikiText.substring(start).replace("\n", "\\\\n"));
             // If we were looking for a newline
             return safeIndexOf(wikiText, start, "\n", "\n");
           }
@@ -538,21 +560,16 @@ public final class WikiTokenizer {
           assert false : "Match text='" + matchText + "'";
           throw new IllegalStateException();
         }
-      } else {
-        // Hmmm, we didn't find the closing symbol we were looking for...
-        errors.add("Couldn't find: " + toFind + ", "+ wikiText.substring(start));
-        return safeIndexOf(wikiText, start, "\n", "\n");
-      }
-      
+
       // Inside the while loop.  Just go forward.
-      end = Math.max(end, matcher.end());
+      end = Math.max(end, matchEnd);
     }
     if (toFind.equals("\n") && tokenStack.isEmpty()) {
       // We were looking for the end, we got it.
       return end;
     }
+    errors.add("Couldn't find: " + toFind + ", "+ wikiText.substring(start));
     if (firstNewline != -1) {
-      errors.add("Couldn't find: " + toFind + ", "+ wikiText.substring(start));
       return firstNewline;
     }
     return end;
@@ -581,7 +598,7 @@ public final class WikiTokenizer {
     while (s.endsWith("\n")) {
       s = s.substring(0, s.length() - 1);
     }
-    return s.replaceAll("\n", " ");
+    return s.replace('\n', ' ');
   }
 
   static int safeIndexOf(final String s, final int start, final String target, final String backup) {