]> gitweb.fperrin.net Git - DictionaryPC.git/commitdiff
go
authorThad Hughes <thad.hughes@gmail.com>
Sun, 16 Oct 2011 01:37:07 +0000 (18:37 -0700)
committerThad Hughes <thad.hughes@gmail.com>
Tue, 13 Dec 2011 18:39:43 +0000 (10:39 -0800)
src/com/hughes/android/dictionary/WiktionarySplitter.java
src/com/hughes/android/dictionary/engine/DictionaryBuilder.java
src/com/hughes/android/dictionary/engine/DictionaryBuilderTest.java
src/com/hughes/android/dictionary/parser/DictFileParser.java
src/com/hughes/android/dictionary/parser/EnWiktionaryXmlParser.java
src/com/hughes/android/dictionary/parser/WikiLineReader.java
src/com/hughes/android/dictionary/parser/WikiLineReaderTest.java
src/com/hughes/android/dictionary/parser/WikiListItem.java [deleted file]
src/com/hughes/android/dictionary/parser/WikiWord.java

index b7c9ab6cf7c2b89cf0fbc20a34ecc7521eaa2a24..89173c5c51da95c87e57f8e83be13b6d4c597a78 100644 (file)
@@ -5,7 +5,6 @@ import java.io.DataOutputStream;
 import java.io.File;
 import java.io.FileOutputStream;
 import java.io.IOException;
-import java.io.RandomAccessFile;
 import java.util.ArrayList;
 import java.util.Arrays;
 import java.util.List;
@@ -67,17 +66,20 @@ public class WiktionarySplitter extends org.xml.sax.helpers.DefaultHandler {
     if (selectors.isEmpty()) {
       selectors.addAll(Arrays.asList(
           new Selector("wikiSplit/arabic.data", ".*[Ar]rabic.*"),
+          new Selector("wikiSplit/croation.data", ".*[Cc]roation.*"),
           new Selector("wikiSplit/czech.data", ".*[Cc]zech.*"),
           new Selector("wikiSplit/mandarin.data", ".*[Mm]andarin|[Cc]hinese.*"),
           new Selector("wikiSplit/dutch.data", ".*[Du]utch.*"),
           new Selector("wikiSplit/english.data", ".*[Ee]nglish.*"),
           new Selector("wikiSplit/french.data", ".*[Ff]rench.*"),
           new Selector("wikiSplit/german.data", ".*[Gg]erman.*"),
+          new Selector("wikiSplit/greek.data", ".*[Gg]reek.*"),
           new Selector("wikiSplit/hindi.data", ".*[Hh]indi.*"),
           new Selector("wikiSplit/italian.data", ".*[Ii]talian.*"),
           new Selector("wikiSplit/japanese.data", ".*[Jj]apanese.*"),
           new Selector("wikiSplit/korean.data", ".*[Kk]orean.*"),
           new Selector("wikiSplit/persian.data", ".*[Pp]ersian.*"),
+          new Selector("wikiSplit/portuguese.data", ".*[Pp]ortuguese.*"),
           new Selector("wikiSplit/romanian.data", ".*[Rr]omanian.*"),
           new Selector("wikiSplit/russian.data", ".*[Rr]ussian.*"),
           new Selector("wikiSplit/spanish.data", ".*[Ss]panish.*"),
index a3a08c95f1b8d0080ab38de1e994fc5e4fe40cdd..ad8099491c9360abaa87271ced711715e7bac353 100644 (file)
@@ -126,14 +126,18 @@ public class DictionaryBuilder {
         } else if ("chemnitz".equals(inputFormat)) {
           new DictFileParser(charset, false, DictFileParser.DOUBLE_COLON, DictFileParser.PIPE, dictionaryBuilder, dictionaryBuilder.indexBuilders.toArray(new IndexBuilder[0]), null).parseFile(file);
         } else if ("enwiktionary".equals(inputFormat)) {
-          final Pattern[] translationPatterns = new Pattern[2];
-          translationPatterns[0] = Pattern.compile(keyValueArgs.remove(prefix + "TranslationPattern1"));
-          translationPatterns[1] = Pattern.compile(keyValueArgs.remove(prefix + "TranslationPattern2"));
+          final Pattern langPattern = Pattern.compile(keyValueArgs.remove(prefix + "LangPattern"));
+          final Pattern langCodePattern = Pattern.compile(keyValueArgs.remove(prefix + "LangCodePattern"));
           final int enIndex = Integer.parseInt(keyValueArgs.remove(prefix + "EnIndex")) - 1;
+          String pageLimit = keyValueArgs.remove(prefix + "PageLimit");
+          if (pageLimit == null) {
+            pageLimit = "-1";
+          }
+            
           if (enIndex < 0 || enIndex >= 2) {
             fatalError("Must be 1 or 2: " + prefix + "EnIndex");
           }
-          new EnWiktionaryXmlParser(dictionaryBuilder, translationPatterns, enIndex).parse(file);
+          new EnWiktionaryXmlParser(dictionaryBuilder, langPattern, langCodePattern, enIndex).parse(file, Integer.parseInt(pageLimit));
         } else {
           fatalError("Invalid or missing input format: " + inputFormat);
         }
index c5152942e03c8fe8741544bd3fbe6a9421f72103..a564b93bf107eadd2bfd2eab736897c0becc9b09 100644 (file)
@@ -11,36 +11,45 @@ import junit.framework.TestCase;
 
 public class DictionaryBuilderTest extends TestCase {
   
-  public void testWiktionaryCombined() throws Exception {
-    final File result = new File("testdata/wiktionary.quickdic");
+  public void testWiktionaryItalian() throws Exception {
+    final File result = new File("testdata/wiktionary.it.quickdic");
     System.out.println("Writing to: " + result);
     DictionaryBuilder.main(new String[] {
         "--dictOut=" + result.getAbsolutePath(),
-        "--lang1=DE",
+        "--lang1=IT",
         "--lang2=EN",
         "--dictInfo=SomeWikiData",
 
-        "--input3=testdata/enwiktionary_small.xml",
-        "--input3Name=enwiktionary",
+        "--input3=wikiSplit/english.data",
+        "--input3Name=enwiktionary.italian",
         "--input3Format=enwiktionary",
-        "--input3TranslationPattern1=German|Italian|Spanish|French|Japanese|Arabic|Mandarin|Korean|Latin|Swedish|Croation|Serbian|Dutch|Afrikaans",
-        "--input3TranslationPattern2=English",
+        "--input3LangPattern=Italian",
+        "--input3LangCodePattern=it",
         "--input3EnIndex=2",
+        "--input3PageLimit=1000",
+
+        "--input4=wikiSplit/italian.data",
+        "--input4Name=enwiktionary.italian",
+        "--input4Format=enwiktionary",
+        "--input4LangPattern=Italian",
+        "--input4LangCodePattern=it",
+        "--input4EnIndex=2",
+        "--input4PageLimit=1000",
 
-        "--print=testdata/wiktionary.test",
+        "--print=testdata/wiktionary.it.test",
     });
     
     // Check it once:
-    assertFilesEqual("testdata/wiktionary.golden", "testdata/wiktionary.test"); 
+    assertFilesEqual("testdata/wiktionary.it.golden", "testdata/wiktionary.it.test"); 
     
     
     // Check it again.
     final Dictionary dict = new Dictionary(new RandomAccessFile(result.getAbsolutePath(), "r"));
-    final PrintStream out = new PrintStream(new File("testdata/wiktionary.test"));
+    final PrintStream out = new PrintStream(new File("testdata/wiktionary.it.test"));
     dict.print(out);
     out.close();
     
-    assertFilesEqual("testdata/wiktionary.golden", "testdata/wiktionary.test");
+    assertFilesEqual("testdata/wiktionary.it.golden", "testdata/wiktionary.it.test");
   }
 
   
index 52a65677071195eebecaff29462cea91f52826c9..bb5d47d310934dc6b4bfd718c52ded63b01cb820 100644 (file)
@@ -34,8 +34,8 @@ public class DictFileParser {
   public static final Pattern PIPE = Pattern.compile("\\|");
   
   static final Pattern SPACES = Pattern.compile("\\s+");
-  static final Pattern DE_NOUN = Pattern.compile("([^ ]+) *\\{(m|f|n|pl)\\}");
-  static final Pattern EN_VERB = Pattern.compile("^to ([^ ]+)");
+//  static final Pattern DE_NOUN = Pattern.compile("([^ ]+) *\\{(m|f|n|pl)\\}");
+//  static final Pattern EN_VERB = Pattern.compile("^to ([^ ]+)");
   
   static final Pattern BRACKETED = Pattern.compile("\\[([^]]+)\\]");
   static final Pattern PARENTHESIZED = Pattern.compile("\\(([^)]+)\\)");
index e1126f2e746f8b73f5d246344a8e969f47108663..cb9f3f5aa41d54beebd15516fc001f160d5b6120 100644 (file)
@@ -1,31 +1,20 @@
 package com.hughes.android.dictionary.parser;
 
+import java.io.BufferedInputStream;
+import java.io.DataInputStream;
+import java.io.EOFException;
 import java.io.File;
+import java.io.FileInputStream;
 import java.io.IOException;
-import java.util.ArrayList;
 import java.util.Arrays;
 import java.util.LinkedHashSet;
-import java.util.List;
-import java.util.Map;
 import java.util.Set;
 import java.util.regex.Pattern;
 
-import javax.xml.parsers.ParserConfigurationException;
-import javax.xml.parsers.SAXParser;
-import javax.xml.parsers.SAXParserFactory;
-
-import org.xml.sax.Attributes;
-import org.xml.sax.SAXException;
-
 import com.hughes.android.dictionary.engine.DictionaryBuilder;
 import com.hughes.android.dictionary.engine.IndexBuilder;
-import com.hughes.android.dictionary.parser.WikiWord.FormOf;
-import com.hughes.android.dictionary.parser.WikiWord.Translation;
-import com.hughes.util.ListUtil;
-import com.hughes.util.StringUtil;
-import com.sun.tools.internal.ws.wsdl.document.jaxws.Exception;
 
-public class EnWiktionaryXmlParser extends org.xml.sax.helpers.DefaultHandler implements WikiCallback {
+public class EnWiktionaryXmlParser {
   
   static final Pattern partOfSpeechHeader = Pattern.compile(
       "Noun|Verb|Adjective|Adverb|Pronoun|Conjunction|Interjection|" +
@@ -40,83 +29,53 @@ public class EnWiktionaryXmlParser extends org.xml.sax.helpers.DefaultHandler im
       "Particle|Interjection|Pronominal adverb" +
       "Han character|Hanzi|Hanja|Kanji|Katakana character|Syllable");
 
-  static final Pattern wikiMarkup =  Pattern.compile("\\[\\[|\\]\\]|''+");
-
   final DictionaryBuilder dictBuilder;
   
   final IndexBuilder[] indexBuilders;
-  final Pattern[] langPatterns;
+  final Pattern langPattern;
+  final Pattern langCodePattern;
   final int enIndexBuilder;
 
-  StringBuilder titleBuilder;
-  StringBuilder textBuilder;
-  StringBuilder currentBuilder = null;
-  
-  static void assertTrue(final boolean condition) {
-    assertTrue(condition, "");
-  }
-
-  static void assertTrue(final boolean condition, final String message) {
-    if (!condition) {
-      System.err.println("Assertion failed, message: " + message);
-      new RuntimeException().printStackTrace(System.err);
-    }
-  }
-
-  public EnWiktionaryXmlParser(final DictionaryBuilder dictBuilder, final Pattern[] langPatterns, final int enIndexBuilder) {
-    assertTrue(langPatterns.length == 2);
+  public EnWiktionaryXmlParser(final DictionaryBuilder dictBuilder, final Pattern langPattern, final Pattern langCodePattern, final int enIndexBuilder) {
     this.dictBuilder = dictBuilder;
     this.indexBuilders = dictBuilder.indexBuilders.toArray(new IndexBuilder[0]);
-    this.langPatterns = langPatterns;
+    this.langPattern = langPattern;
+    this.langCodePattern = langCodePattern;
     this.enIndexBuilder = enIndexBuilder;
   }
 
-  @Override
-  public void startElement(String uri, String localName, String qName,
-      Attributes attributes) {
-    currentBuilder = null;
-    if ("page".equals(qName)) {
-      titleBuilder = new StringBuilder();
+  
+  public void parse(final File file, final int pageLimit) throws IOException {
+    int pageCount = 0;
+    final DataInputStream dis = new DataInputStream(new BufferedInputStream(new FileInputStream(file)));
+    while (true) {
+      if (pageLimit >= 0 && pageCount >= pageLimit) {
+        return;
+      }
       
-      // Start with "\n" to better match certain strings.
-      textBuilder = new StringBuilder("\n");
-    } else if ("title".equals(qName)) {
-      currentBuilder = titleBuilder;
-    } else if ("text".equals(qName)) {
-      currentBuilder = textBuilder;
-    }
-  }
-
-  @Override
-  public void characters(char[] ch, int start, int length) throws SAXException {
-    if (currentBuilder != null) {
-      currentBuilder.append(ch, start, length);
-    }
-  }
+      final String title;
+      try {
+        title = dis.readUTF();
+      } catch (EOFException e) {
+        dis.close();
+        return;
+      }
+      final String heading = dis.readUTF();
+      final int bytesLength = dis.readInt();
+      final byte[] bytes = new byte[bytesLength];
+      dis.readFully(bytes);
+      final String text = new String(bytes, "UTF8");
+      
+      parseSection(title, heading, text);
 
-  @Override
-  public void endElement(String uri, String localName, String qName)
-      throws SAXException {
-    currentBuilder = null;
-    if ("page".equals(qName)) {
-      endPage();
+      ++pageCount;
+      if (pageCount % 1000 == 0) {
+        System.out.println("pageCount=" + pageCount);
+      }
     }
   }
   
-
-  public void parse(final File file) throws ParserConfigurationException,
-      SAXException, IOException {
-    final SAXParser parser = SAXParserFactory.newInstance().newSAXParser();
-    parser.parse(file, this);
-  }
-  
-  int pageCount = 0;
-  private void endPage() {
-    title = titleBuilder.toString();
-    ++pageCount;
-    if (pageCount % 1000 == 0) {
-      System.out.println("pageCount=" + pageCount);
-    }
+  private void parseSection(final String title, final String heading, final String text) {
     if (title.startsWith("Wiktionary:") ||
         title.startsWith("Template:") ||
         title.startsWith("Appendix:") ||
@@ -129,521 +88,204 @@ public class EnWiktionaryXmlParser extends org.xml.sax.helpers.DefaultHandler im
         title.startsWith("Help:")) {
       return;
     }
-    currentDepth = 0;
-    words.clear();
-    currentHeading = null;
-    insidePartOfSpeech = false;
-//    System.err.println("Working on page: " + title);
-    try {
-      WikiParser.parse(textBuilder.toString(), this);
-    } catch (Throwable e) {
-      System.err.println("Failure on page: " + title);
-      e.printStackTrace(System.err); 
+    
+    if (heading.replaceAll("=", "").equals("English")) {
+      doEnglishWord(title, text);
+    } else {
+      //doForeignWord(title, text);
     }
-
-   for (final WikiWord word : words) {
-     word.wikiWordToQuickDic(dictBuilder, enIndexBuilder);
-   }  // WikiWord
-   
+        
   }  // endPage()
-
-
-  // ------------------------------------------------------------------------
-  // ------------------------------------------------------------------------
-  // ------------------------------------------------------------------------
-  // ------------------------------------------------------------------------
-
-  /**
-   * Two things can happen:
-   * 
-   * We can be in a ==German== section.  There we will see English definitions.
-   * Each POS should get its own QuickDic entry.  Pretty much everything goes
-   * in.
-   * 
-   * Or we can be in an ==English== section with English definitions
-   * and maybe see translations for languages we care about.
-   * 
-   * In either case, we need to differentiate the subsections (Noun, Verb, etc.)
-   * into separate QuickDic entries, but that's tricky--how do we know when we
-   * found a subsection?  Just ignore anything containing pronunciation and
-   * etymology?
-   * 
-   * How do we decide when to seal the deal on an entry?
-   * 
-   * Would be nice if the parser told us about leaving sections....
-   * 
-   * 
-   */
-
-  String title;
-  String currentHeading;
-  int currentDepth;
-  final List<WikiWord> words = new ArrayList<WikiWord>();
-  WikiWord currentWord;
-  WikiWord.PartOfSpeech currentPartOfSpeech;
-  WikiWord.TranslationSense currentTranslationSense;
-  boolean insidePartOfSpeech;
   
-  StringBuilder wikiBuilder = null;
+  // -------------------------------------------------------------------------
   
-  @Override
-  public void onWikiLink(String[] args) {
-    if (wikiBuilder == null) {
-      return;
+  String pos = null;
+  int posDepth = -1;
+
+  private void doEnglishWord(String title, String text) {
+    final WikiLineReader wikiLineReader = new WikiLineReader(text);
+    String line;
+    while ((line = wikiLineReader.readLine()) != null) {
+      final WikiHeading wikiHeading = WikiHeading.getHeading(line);
+      if (wikiHeading != null) {
+        
+        if (wikiHeading.depth <= posDepth) {
+          pos = null;
+          posDepth = -1;
+        }
+        
+        if (partOfSpeechHeader.matcher(wikiHeading.name).matches()) {
+          posDepth = wikiHeading.depth;
+          pos = wikiHeading.name;
+        } else if (wikiHeading.name.equals("Translations")) {
+          doTranslations(title, wikiLineReader);
+        } else if (wikiHeading.name.equals("Pronunciation")) {
+          //doPronunciation(wikiLineReader);
+        }
+      }
     }
-    wikiBuilder.append(args[args.length - 1]);
   }
-  
-  // ttbc: translations to be checked.
-  static final Set<String> useRemainingArgTemplates = new LinkedHashSet<String>(Arrays.asList(
-      "Arab", "Cyrl", "fa-Arab", "italbrac", "Khmr", "ku-Arab", "IPAchar", "Laoo", 
-      "sd-Arab", "Thai", "ttbc", "unicode", "ur-Arab", "yue-yue-j", "zh-ts", 
-      "zh-tsp", "zh-zh-p", "ug-Arab", "ko-inline", "Jpan", "Kore", "rfscript", "Latinx"));
-  static final Set<String> ignoreTemplates = new LinkedHashSet<String>(Arrays.asList("audio", "rhymes", "hyphenation", "homophones", "wikipedia", "rel-top", "rel-bottom", "sense", "wikisource1911Enc", "g"));
-  static final Set<String> grammarTemplates = new LinkedHashSet<String>(Arrays.asList("impf", "pf", "pf.", "indeclinable"));
-  static final Set<String> passThroughTemplates = new LinkedHashSet<String>(Arrays.asList("zzzzzzzzzzzzzzz"));
 
-  @Override
-  public void onTemplate(final List<String> positionalArgs, final Map<String,String> namedArgs) {
-    if (positionalArgs.isEmpty()) {
-      // This happens very rarely with special templates.
-      return;
-    }
-    final String name = positionalArgs.get(0);
-    
-    namedArgs.remove("lang");
-    namedArgs.remove("nocat");
-    namedArgs.remove("nocap");
-    namedArgs.remove("sc");
 
-    // Pronunciation
-    if (currentWord != null) {
-      if (name.equals("a")) {
-        // accent tag
-        currentWord.currentPronunciation = new StringBuilder();
-        currentWord.accentToPronunciation.put(positionalArgs.get(1), currentWord.currentPronunciation);
+  private static Set<String> encodings = new LinkedHashSet<String>(Arrays.asList("zh-ts",
+      "sd-Arab", "ku-Arab", "Arab", "unicode", "Laoo", "ur-Arab", "Thai", 
+      "fa-Arab", "Khmr", "zh-tsp", "Cyrl", "IPAchar", "ug-Arab", "ko-inline", 
+      "Jpan", "Kore", "Hebr", "rfscript", "Beng", "Mong", "Knda", "Cyrs",
+      "yue-tsj", "Mlym", "Tfng", "Grek", "yue-yue-j"));
+  
+  private void doTranslations(final String title, final WikiLineReader wikiLineReader) {
+    String line;
+    String sense = null;
+    boolean done = false;
+    while ((line = wikiLineReader.readLine()) != null) {
+      if (WikiHeading.getHeading(line) != null) {
+        wikiLineReader.stuffLine(line);
         return;
       }
+      if (done) {
+        continue;
+      }
       
-      if (name.equals("IPA") || name.equals("SAMPA") || name.equals("X-SAMPA") || name.equals("enPR")) {
-        namedArgs.remove("lang");
-        for (int i = 0; i < 100 && !namedArgs.isEmpty(); ++i) {
-          final String pron = namedArgs.remove("" + i);
-          if (pron != null) {
-            positionalArgs.add(pron);
-          } else {
-            if (i > 10) {
-              break;
+      // Check whether we care about this line:
+      
+      //line = WikiLineReader.removeSquareBrackets(line);
+      
+      if (line.startsWith("{{")) {
+        
+        WikiFunction wikiFunction;
+        while ((wikiFunction = WikiFunction.getFunction(line)) != null) {
+          if (wikiFunction.name.equals("trans-top")) {
+            sense = null;
+            if (wikiFunction.args.size() >= 2) {
+              sense = wikiFunction.args.get(1);
+              //System.out.println("Sense: " + sense);
             }
+          } else if (wikiFunction.name.equals("trans-bottom")) {
+            sense = null;
+          } else if (wikiFunction.name.equals("trans-mid")) {
+          } else if (wikiFunction.name.equals("trans-see")) {
+          } else if (wikiFunction.name.startsWith("checktrans")) {
+            done = true;
+          } else {
+            System.err.println("Unexpected translation wikifunction: " + line + ", title=" + title);
           }
+          line = wikiFunction.replaceWith(line, "");
+          
         }
-        if (!(positionalArgs.size() >= 2 && namedArgs.isEmpty())) {
-          System.err.println("Invalid pronunciation: " + positionalArgs.toString() + namedArgs.toString());
-        }
-        if (currentWord.currentPronunciation == null) {
-          currentWord.currentPronunciation = new StringBuilder();
-          currentWord.accentToPronunciation.put("", currentWord.currentPronunciation);
-        }
-        if (currentWord.currentPronunciation.length() > 0) {
-          currentWord.currentPronunciation.append("; ");
-        }
-        for (int i = 1; i < positionalArgs.size(); ++i) {
-          if (i > 1) {
-            currentWord.currentPronunciation.append(",");
-          }
-          final String pron = wikiMarkup.matcher(positionalArgs.get(1)).replaceAll("");
-          currentWord.currentPronunciation.append(pron).append("");
-        }
-        currentWord.currentPronunciation.append(" (").append(name).append(")");
-        return;
-      }
-      
-      if (name.equals("qualifier")) {
-        //assertTrue(positionalArgs.size() == 2 && namedArgs.isEmpty() : positionalArgs.toString() + namedArgs.toString());
-        if (wikiBuilder == null) {
-          return;
+        
+      } else if (line.startsWith("*")) {
+        // This line could produce an output...
+        
+        // First strip the language and check whether it matches.
+        // And hold onto it for sub-lines.
+        final int colonIndex = line.indexOf(":");
+        if (colonIndex == -1) {
+          continue;
         }
-        wikiBuilder.append(" (").append(positionalArgs.get(1)).append(")");
-        return;
-      }
-      
-      if (name.equals("...")) {
-        // Skipping any elided text for brevity.
-        wikiBuilder.append("...");
-        return;
-      }
-      
-      if (passThroughTemplates.contains(name)) {
-        assertTrue(positionalArgs.size() == 1 && namedArgs.isEmpty(), positionalArgs.toString() + namedArgs);
-        wikiBuilder.append(name);
-        return;
-      }
-      
-      if (ignoreTemplates.contains(name)) {
-        return;
-      }
-      
-      if ("Pronunciation".equals(currentHeading)) {
-        System.err.println("Unhandled pronunciation template: " + positionalArgs + namedArgs);
-        return;
-      }
-    }  // Pronunciation
-    
-    // Part of speech
-    if (insidePartOfSpeech) {
-      
-      // form of
-      if (name.equals("form of")) {
-        namedArgs.remove("sc");
-        if (positionalArgs.size() < 3 || positionalArgs.size() > 4) {
-          System.err.println("Invalid form of.");
+        final String lang = line.substring(0, colonIndex);
+        if (!this.langPattern.matcher(lang).find()) {
+          continue;
         }
-        final String token = positionalArgs.get(positionalArgs.size() == 3 ? 2 : 3);
-        final String grammarForm = WikiParser.simpleParse(positionalArgs.get(1));
-        currentPartOfSpeech.formOfs.add(new FormOf(grammarForm, token));
-        return;
-      }
-      
-      // The fallback plan: append the template!
-      if (wikiBuilder != null) {
-        wikiBuilder.append("{");
-        boolean first = true;
-        for (final String arg : positionalArgs) {
-          if (!first) {
-            wikiBuilder.append(", ");
+        
+        String rest = line.substring(colonIndex + 1);
+        final StringBuilder lineText = new StringBuilder();
+        
+        final 
+        
+        boolean ttbc = false;
+        WikiFunction wikiFunction;
+        while ((wikiFunction = WikiFunction.getFunction(line)) != null) {
+          if (wikiFunction.name.equals("t") || wikiFunction.name.equals("t+") || wikiFunction.name.equals("t-") || wikiFunction.name.equals("tø")) {
+            if (wikiFunction.args.size() < 2) {
+              System.err.println("{{t}} with too few args: " + line + ", title=" + title);
+              continue;
+            }
+            final String langCode = wikiFunction.getArg(0);
+            if (this.langCodePattern.matcher(langCode).matches()) {
+              final String word = wikiFunction.getArg(1);
+              final String gender = wikiFunction.getArg(2);
+              final String transliteration = wikiFunction.getNamedArg("tr");
+            }
+          } else if (wikiFunction.name.equals("qualifier")) {
+            qualifier = wikiFunction.getArg(0);
+          } else if (encodings.contains(wikiFunction.name)) {
+            rest = wikiFunction.replaceWith(rest, wikiFunction.getArg(0));
+            wikiFunction = null;
+          } else if (wikiFunction.name.equals("m") || wikiFunction.name.equals("f") || wikiFunction.name.equals("n")) {
+            String gender = wikiFunction.name;
+            for (int i = 0; i < wikiFunction.args.size(); ++i) {
+              gender += "|" + wikiFunction.getArg(i);
+            }
+            rest = wikiFunction.replaceWith(rest, "{" + wikiFunction.name + "}");
+            wikiFunction = null;
+          } else if (wikiFunction.name.equals("g")) {
+            rest = wikiFunction.replaceWith(rest, "{g}");
+            wikiFunction = null;
+          } else if (wikiFunction.name.equals("l")) {
+            // encodes text in various langs.
+            rest = wikiFunction.replaceWith(rest, wikiFunction.getArg(1));
+            // TODO: transliteration
+            wikiFunction = null;
+          } else if (wikiFunction.name.equals("term")) {
+            // cross-reference to another dictionary
+            rest = wikiFunction.replaceWith(rest, wikiFunction.getArg(0));
+            // TODO: transliteration
+            wikiFunction = null;
+          } else if (wikiFunction.name.equals("italbrac") || wikiFunction.name.equals("gloss")) {
+            // TODO: put this text aside to use it.
+            rest = wikiFunction.replaceWith(rest, "[" + wikiFunction.getArg(0) + "]");
+            wikiFunction = null;
+          } else if (wikiFunction.name.equals("ttbc")) {
+            ttbc = true;
+          } else if (wikiFunction.name.equals("trreq")) {
+          } else if (wikiFunction.name.equals("not used")) {
+            rest = wikiFunction.replaceWith(rest, "[not used]");
+            wikiFunction = null;
+          } else if (wikiFunction.name.equals("t-image")) {
+            // American sign language
+          } else if (wikiFunction.args.isEmpty() && wikiFunction.namedArgs.isEmpty()) {
+            rest = wikiFunction.replaceWith(rest, "{" + wikiFunction.name + "}");
+            wikiFunction = null;
+          } else {
+            System.err.println("Unexpected t+- wikifunction: " + line + ", title=" + title);
           }
-          first = false;
-          wikiBuilder.append(arg);
-        }
-        // This one isn't so useful.
-        for (final Map.Entry<String, String> entry : namedArgs.entrySet()) {
-          if (!first) {
-            wikiBuilder.append(", ");
+          if (wikiFunction != null) {
+            rest = wikiFunction.replaceWith(rest, "");
           }
-          first = false;
-          wikiBuilder.append(entry.getKey()).append("=").append(entry.getValue());
-        }
-        wikiBuilder.append("}");
-      }
-      
-      //System.err.println("Unhandled part of speech template: " + positionalArgs + namedArgs);
-      return;
-    }  // Part of speech
-
-    
-    // Translations
-    if (name.equals("trans-top")) {
-      assertTrue(positionalArgs.size() >= 1 && namedArgs.isEmpty(), positionalArgs.toString() + namedArgs + title);
-      
-      if (currentPartOfSpeech == null) {
-        assertTrue(currentWord != null && !currentWord.partsOfSpeech.isEmpty(),  title); 
-        System.err.println("Assuming last part of speech for non-nested translation section: " + title);
-        currentPartOfSpeech = ListUtil.getLast(currentWord.partsOfSpeech);
-      }
-      
-      currentTranslationSense = new WikiWord.TranslationSense();
-      currentPartOfSpeech.translationSenses.add(currentTranslationSense);
-      if (positionalArgs.size() > 1) {
-        currentTranslationSense.sense = positionalArgs.get(1);
-      }
-      return;
-    }  // Translations
-
-    if (wikiBuilder == null) {
-      return;
-    }    
-    if (name.equals("m") || name.equals("f") || name.equals("n") || name.equals("c")) {
-      assertTrue(positionalArgs.size() >= 1 && namedArgs.isEmpty(), positionalArgs.toString() + namedArgs.toString());
-      wikiBuilder.append("{");
-      for (int i = 1; i < positionalArgs.size(); ++i) {
-        wikiBuilder.append(i > 1 ? "," : "");
-        wikiBuilder.append(positionalArgs.get(i));
-      }
-      wikiBuilder.append(name).append("}");
-      
-    } else  if (name.equals("p")) {
-      assertTrue(positionalArgs.size() == 1 && namedArgs.isEmpty());
-      wikiBuilder.append("pl.");
-
-    } else  if (name.equals("s")) {
-      assertTrue(positionalArgs.size() == 1 && namedArgs.isEmpty() || title.equals("dobra"), title);
-      wikiBuilder.append("sg.");
-      
-    } else  if (grammarTemplates.contains(name)) {
-      assert positionalArgs.size() == 1 && namedArgs.isEmpty() : positionalArgs.toString() + namedArgs;
-      wikiBuilder.append(name).append(".");
-
-    } else  if (name.equals("l")) {
-      // This template is designed to generate a link to a specific language-section on the target page.
-      wikiBuilder.append(positionalArgs.size() >= 4 ? positionalArgs.get(3) : positionalArgs.get(2));
-      
-    } else if (name.equals("t") || name.equals("t+") || name.equals("t-") || name.equals("tø")) {
-      if (positionalArgs.size() > 2) {
-        wikiBuilder.append(positionalArgs.get(2));
-      }
-      for (int i = 3; i < positionalArgs.size(); ++i) {
-        wikiBuilder.append(i == 3 ? " {" : ",");
-        wikiBuilder.append(positionalArgs.get(i));
-        wikiBuilder.append(i == positionalArgs.size() - 1 ? "}" : "");
-      }
-      final String transliteration = namedArgs.remove("tr");
-      if (transliteration != null) {
-        wikiBuilder.append(" (").append(transliteration).append(")");
-      }
-      
-    } else  if (name.equals("trreq")) {
-      wikiBuilder.append("{{trreq}}");
-      
-    } else if (name.equals("qualifier")) {
-      //assert positionalArgs.size() == 2 && namedArgs.isEmpty() : positionalArgs.toString() + namedArgs.toString();
-      wikiBuilder.append(" (").append(positionalArgs.get(1)).append(")");
-      
-    } else if (useRemainingArgTemplates.contains(name)) {
-      for (int i = 1; i < positionalArgs.size(); ++i) {
-        if (i != 1) {
-          wikiBuilder.append(", ");
         }
-        wikiBuilder.append(positionalArgs.get(i));
+      } else if (line.equals("")) {
+      } else if (line.startsWith(":")) {
+      } else if (line.startsWith("[[") && line.endsWith("]]")) {
+      } else if (line.startsWith("''See''")) {
+      } else if (line.startsWith("''")) {
+      } else if (line.equals("----")) {
+      } else {
+        System.err.println("Unexpected translation line: " + line + ", title=" + title);
       }
-    } else if (ignoreTemplates.contains(name)) {
-      // Do nothing.
       
-    } else if (name.equals("initialism")) {
-      assert positionalArgs.size() <= 2 && namedArgs.isEmpty() : positionalArgs.toString() + namedArgs;
-      wikiBuilder.append("Initialism");
-    } else if (name.equals("abbreviation")) {
-      assert positionalArgs.size() <= 2 && namedArgs.isEmpty() : positionalArgs.toString() + namedArgs;
-      wikiBuilder.append("Abbreviation");
-    } else if (name.equals("acronym")) {
-      assert positionalArgs.size() <= 2 && namedArgs.isEmpty() : positionalArgs.toString() + namedArgs;
-      wikiBuilder.append("Acronym");
-    } else {
-      if (currentTranslationSense != null) {
-        System.err.println("Unhandled template: " + positionalArgs.toString() + namedArgs);
-      }
-    }
-  }
-
-  @Override
-  public void onText(String text) {
-    if (wikiBuilder != null) {
-      wikiBuilder.append(text);
-      return;
-    }
-  }
-
-  @Override
-  public void onHeadingStart(int depth) {
-    wikiBuilder = new StringBuilder();
-    currentDepth = depth;
-    if (currentPartOfSpeech != null && depth <= currentPartOfSpeech.depth) {
-      currentPartOfSpeech = null;
-      insidePartOfSpeech = false;
-    }
-    if (currentWord != null && depth <= currentWord.depth) {
-      currentWord = null;
     }
     
-    currentHeading = null;
   }
   
-  @Override
-  public void onHeadingEnd(int depth) {
-    final String name = wikiBuilder.toString().trim();
-    wikiBuilder = null;
-    currentTranslationSense = null;
-    currentHeading = name;
-    
-    final boolean lang0 = langPatterns[0].matcher(name).matches();
-    final boolean lang1 = langPatterns[1].matcher(name).matches();
-    if (name.equalsIgnoreCase("English") || lang0 || lang1 || name.equalsIgnoreCase("Translingual")) {
-      currentWord = new WikiWord(title, depth);
-      if (lang0 && lang1) {
-        System.err.println("Word is indexed in both index1 and index2: " + title);
-      }
-      currentWord.language = name;
-      currentWord.index = lang0 ? 0 : (lang1 ? 1 : -1);
-      words.add(currentWord);
-      return;
-    }
-    
-    if (currentWord == null) {
-      return;
-    }
-    
-    if (currentPartOfSpeech != null && depth <= currentPartOfSpeech.depth) {
-      currentPartOfSpeech = null;
-    }
-    
-    insidePartOfSpeech = false;
-    if (currentPartOfSpeech == null && partOfSpeechHeader.matcher(name).matches()) {
-      currentPartOfSpeech = new WikiWord.PartOfSpeech(depth, name);
-      currentWord.partsOfSpeech.add(currentPartOfSpeech);
-      insidePartOfSpeech = true;
-      return;
-    }
-    
-    if (name.equals("Translations")) {
-      if (currentWord == null || 
-          !currentWord.language.equals("English") || 
-          currentPartOfSpeech == null) {
-        System.err.println("Unexpected Translations section: " + title);
-        return;
-      }
-      currentTranslationSense = new WikiWord.TranslationSense();
-    }
-    
-  }
-
-  @Override
-  public void onListItemStart(String header, int[] section) {
-    wikiBuilder = new StringBuilder();
-    if (currentWord != null) {
-      currentWord.currentPronunciation = null;
-    }
-  }
+  // -------------------------------------------------------------------------
   
-
-  @Override
-  public void onListItemEnd(String header, int[] section) {
-    String item = wikiBuilder.toString().trim();
-    final String oldItem = item;
-    if (item.length() == 0) {
-      return;
-    }
-    item = WikiParser.simpleParse(item);
-    wikiBuilder = null;
-        
-    // Part of speech
-    if (insidePartOfSpeech) {
-      assert currentPartOfSpeech != null : title + item;
-      if (header.equals("#") || 
-          header.equals("##") || 
-          header.equals("###") || 
-          header.equals("####") || 
-          header.equals(":#") || 
-          header.equals("::") ||
-          header.equals(":::*")) {
-        // Definition.
-        // :: should append, probably.
-        currentPartOfSpeech.newMeaning().meaning = item;
-        
-      // Source
-      } else if (header.equals("#*") ||
-                 header.equals("##*") ||
-                 header.equals("###*")) {
-        currentPartOfSpeech.lastMeaning().newExample().source = item;
+  private void doForeignWord(String title, String text) {
+    final WikiLineReader wikiLineReader = new WikiLineReader(text);
+    String line;
+    while ((line = wikiLineReader.readLine()) != null) {
+      final WikiHeading wikiHeading = WikiHeading.getHeading(line);
+      if (wikiHeading != null) {
         
-      // Example
-      } else if (header.equals("#:") || 
-                 header.equals("#*:") || 
-                 header.equals("#:*") || 
-                 header.equals("##:") || 
-                 header.equals("##*:") || 
-                 header.equals("#:*:") || 
-                 header.equals("#:*#") ||
-                 header.equals("#*:") ||
-                 header.equals("*:") || 
-                 header.equals("#:::") ||
-                 header.equals("#**") ||
-                 header.equals("#*:::") ||
-                 header.equals("#:#") ||
-                 header.equals(":::") ||
-                 header.equals("##:*") ||
-                 header.equals("###*:")) {
-        StringUtil.appendLine(currentPartOfSpeech.lastMeaning().newExample().example, item);
-        
-      // Example in English
-      } else if (header.equals("#::") || 
-                 header.equals("#*::") || 
-                 header.equals("#:**") ||
-                 header.equals("#*#") ||
-                 header.equals("##*::")) {
-        StringUtil.appendLine(currentPartOfSpeech.lastMeaning().lastExample().exampleInEnglish, item);
-        
-      // Skip
-      } else if (header.equals("*") ||
-                 header.equals("**") ||
-                 header.equals("***") || 
-                 header.equals("*#") ||
-                 header.equals(":") ||
-                 header.equals("::*") ||
-                 header.equals("#**") ||
-                 header.equals(":*") ||
-                 header.equals("#*:*") ||
-                 header.equals("#*:**") || 
-                 header.equals("#*:#") || 
-                 header.equals("#*:*:") || 
-                 header.equals("#*:*") || 
-                 header.equals(";")) {
-        // might have: * {{seeCites}}
-        // * [[w:Arabic numerals|Arabic numerals]]: 2
-        //assert item.trim().length() == 0;
-        System.err.println("Skipping meaning: " + header + " " + item);
-      } else {
-        if (title.equals("Yellowknife")) {
-          return;
+        if (wikiHeading.name.equals("Translations")) {
+          System.err.println("Translations not in English section: " + title);
+        } else if (wikiHeading.name.equals("Pronunciation")) {
+          //doPronunciation(wikiLineReader);
+        } else if (partOfSpeechHeader.matcher(wikiHeading.name).matches()) {
+          
         }
-        System.err.println("Busted heading: " + title + "  "+ header + " " + item);
       }
-      return;
     }
-    // Part of speech
-    
-    // Translation
-    if (currentTranslationSense != null) {
-      if (item.indexOf("{{[trreq]{}}}") != -1) {
-        return;
-      }
-
-      if (currentPartOfSpeech.translationSenses.isEmpty()) {
-        currentPartOfSpeech.translationSenses.add(currentTranslationSense);
-      }
-
-      final int colonPos = item.indexOf(':');
-      if (colonPos == -1) {
-        System.err.println("Invalid translation: title=" + title +  ",  item=" + item);
-        return;
-      }
-      final String lang = item.substring(0, colonPos);
-      final String trans = item.substring(colonPos + 1).trim();
-      for (int i = 0; i < 2; ++i) {
-        if (langPatterns[i].matcher(lang).find()) {
-          currentTranslationSense.translations.get(i).add(new Translation(lang, trans));
-        }
-      }
-    } // Translation
-  }
-
-  @Override
-  public void onNewLine() {
   }
 
-  @Override
-  public void onNewParagraph() {
-  }
-
-  // ----------------------------------------------------------------------
   
-  @Override
-  public void onComment(String text) {
-  }
-
-  @Override
-  public void onFormatBold(boolean boldOn) {
-  }
-
-  @Override
-  public void onFormatItalic(boolean italicOn) {
-  }
-
-  @Override
-  public void onUnterminated(String start, String rest) {
-    System.err.printf("OnUnterminated: %s %s %s\n", title, start, rest);
-  }
-  @Override
-  public void onInvalidHeaderEnd(String rest) {
-    throw new RuntimeException(rest);
-  }
-
 }
index 4f2e0825de96adf1a27f5cd7ab5fc2f31bf44aa6..8487c0554d1afddabbc171eafd547d8403b91dec 100644 (file)
@@ -12,7 +12,7 @@ public class WikiLineReader {
   private final String wikiText;
   private int lineStart = 0;
   
-  private static final Pattern wikiLineEvent = Pattern.compile("$|\\{\\{|\\[\\[|\\}\\}|\\]\\]|<!--|<pre>", Pattern.MULTILINE);
+  private static final Pattern wikiLineEvent = Pattern.compile("$|\\{\\{|\\[\\[|\\}\\}|\\]\\]|<!--|<pre>|<math>", Pattern.MULTILINE);
 
   private static final Pattern whitespace = Pattern.compile("\\s+");
   
@@ -21,6 +21,11 @@ public class WikiLineReader {
   }
 
   public String readLine() {
+    if (stuffedLine != null) {
+      final String line = stuffedLine;
+      stuffedLine = null;
+      return line;
+    }
     while (lineStart < wikiText.length() && 
         Character.isWhitespace(wikiText.charAt(lineStart)) && 
         wikiText.charAt(lineStart) != '\n') {
@@ -44,7 +49,7 @@ public class WikiLineReader {
         break;
       }
       if (matcher.group().equals("")) {
-        assert (wikiText.charAt(matcher.start()) == '\n');
+        assert (wikiText.charAt(matcher.start()) == '\n'): "Invalid: " + wikiText.substring(matcher.start());
         ++lineEnd;
         if (lineStack.size() == 0) {
           break;
@@ -61,18 +66,20 @@ public class WikiLineReader {
         if (lineStack.size() > 0) {
           final String removed = lineStack.remove(lineStack.size() - 1);
           if (removed.equals("{{") && !matcher.group().equals("}}")) {
-            System.err.println("Error");
+            System.err.println("Unmatched {{ error: " + wikiText.substring(lineStart));
           }
           if (removed.equals("[[") && !matcher.group().equals("]]")) {
-            System.err.println("Error");
+            System.err.println("Unmatched [[ error: " + wikiText.substring(lineStart));
           }
         } else {
-          System.err.println("Error");
+          System.err.println("Pop too many error: " + wikiText.substring(lineStart).replaceAll("\n", "\\n"));
         }
       } else if (matcher.group().equals("<!--")) {
         lineEnd = safeIndexOf(wikiText, lineEnd, "-->", "\n");
       } else if (matcher.group().equals("<pre>")) {
         lineEnd = safeIndexOf(wikiText, lineEnd, "</pre>", "\n");
+      } else if (matcher.group().equals("<math>")) {
+        lineEnd = safeIndexOf(wikiText, lineEnd, "</math>", "\n");
       }
     }
     if (lineStack.size() > 0 && firstNewline != -1) {
@@ -80,7 +87,7 @@ public class WikiLineReader {
     }
     final String result = wikiText.substring(lineStart, lineEnd);
     lineStart = lineEnd;
-    return result;
+    return cleanUpLine(result);
   }
     
     
@@ -110,4 +117,12 @@ public class WikiLineReader {
     return line;
   }
 
+  String stuffedLine = null;
+  public void stuffLine(final String line) {
+    assert stuffedLine == null;
+    stuffedLine = line;
+  }
+  
+  
+
 }
index f5bb4fda5be72c00f6ba2bd1e64b73436196ea79..6d275de79bb2af83c5cd3be40cd7b5eded3caf7d 100644 (file)
@@ -1,5 +1,7 @@
 package com.hughes.android.dictionary.parser;
 
+import java.util.Arrays;
+
 import junit.framework.TestCase;
 
 public class WikiLineReaderTest extends TestCase {
@@ -43,15 +45,43 @@ public class WikiLineReaderTest extends TestCase {
     
     final WikiLineReader wikiLineReader = new WikiLineReader(wikiText);
     for (int i = 0; i < expected.length; ++i) {
-      assertEquals(expected[i], WikiLineReader.cleanUpLine(wikiLineReader.readLine()));
+      assertEquals(expected[i], wikiLineReader.readLine());
     }
     final String end = wikiLineReader.readLine();
     if (end != null) {
-      System.out.println(WikiLineReader.cleanUpLine(end));
+      System.out.println(end);
     }
     assertNull(end);
   }
   
+  public void testWikiHeading() {
+    assertNull(WikiHeading.getHeading(""));
+    assertNull(WikiHeading.getHeading("="));
+    assertNull(WikiHeading.getHeading("=="));
+    assertNull(WikiHeading.getHeading("=a"));
+    assertNull(WikiHeading.getHeading("=a=="));
+    assertNull(WikiHeading.getHeading("===a=="));
+    assertNull(WikiHeading.getHeading("===a===="));
+    assertNull(WikiHeading.getHeading("a="));
+    assertEquals("a", WikiHeading.getHeading("=a=").name);
+    assertEquals(1, WikiHeading.getHeading("=a=").depth);
+    assertEquals("aa", WikiHeading.getHeading("==aa==").name);
+    assertEquals(2, WikiHeading.getHeading("==aa==").depth);
+  }
+
   
+  public void testWikiFunction() {
+    assertNull(WikiFunction.getFunction(""));
+    assertNull(WikiFunction.getFunction("[[asdf]]"));
+    assertNull(WikiFunction.getFunction("asd [[asdf]]asdf "));
+    assertEquals("a", WikiFunction.getFunction("{{a}}").name);
+    assertEquals("a", WikiFunction.getFunction("{{a|b}}").name);
+    assertEquals("a", WikiFunction.getFunction("a{{a|b}}a").name);
+    assertEquals("a[[a]]", WikiFunction.getFunction("a{{a[[a]]|b}}a").name);
+    assertEquals("a", WikiFunction.getFunction("a{{a|b[[abc|def]]|[[fgh|jkl]]|qwer}}a").name);
+    assertEquals(Arrays.asList("a", "b[[abc|d=f]]", "qwer", "[[fgh|jkl]]", "qwer"), WikiFunction.getFunction("a{{a|b[[abc|d=f]]|qwer|[[fgh|jkl]]|qwer}}a").args);
+    assertEquals("[[abc|def]]", WikiFunction.getFunction("a{{a|b=[[abc|def]]|qwer|[[fgh|jkl]]|qwer={{asdf}}}}a").namedArgs.get("b"));
+    assertEquals("{{asdf}}", WikiFunction.getFunction("a{{a|b=[[abc|def]]|qwer|[[fgh|jkl]]|qwer={{asdf}}}}a").namedArgs.get("qwer"));
+  }
 
 }
diff --git a/src/com/hughes/android/dictionary/parser/WikiListItem.java b/src/com/hughes/android/dictionary/parser/WikiListItem.java
deleted file mode 100644 (file)
index 5310acb..0000000
+++ /dev/null
@@ -1,9 +0,0 @@
-package com.hughes.android.dictionary.parser;
-
-public class WikiListItem {
-  
-  final String prefix;
-  final int count;
-  final String wikiText;
-  
-}
index 5285c0eb4f300efac0be5a80c65dc3bda2cba5c8..66adeed8cacb442c0232ba19936a6bd9ac86b0c5 100644 (file)
@@ -243,7 +243,6 @@ public class WikiWord {
          
        }  // Meanings.
        
-       
      }
      
      translationSensesToQuickDic(dictBuilder, enIndexBuilder, partOfSpeech);