]> gitweb.fperrin.net Git - DictionaryPC.git/blobdiff - src/com/hughes/android/dictionary/parser/WikiTokenizerTest.java
Eliminated <ref>s.
[DictionaryPC.git] / src / com / hughes / android / dictionary / parser / WikiTokenizerTest.java
index 89e4c992f30b060b7c49fa71e2e4afe38e644b5d..8398719f18a08a32577c4ee9db7530fb7cfd0625 100644 (file)
@@ -60,7 +60,14 @@ public class WikiTokenizerTest extends TestCase {
     assertEquals("* {{a|US}} {{IPA|[ˈfɔɹ.wɝd]]}}", new WikiTokenizer(wikiText).nextToken().token());
     assertTrue(new WikiTokenizer(wikiText).nextToken().isListItem());
     assertEquals("\n", new WikiTokenizer(wikiText).nextToken().nextToken().token());
+
     
+    wikiText = "* [[asdf|\u2028" +
+               "asdf]]";
+    assertEquals("* [[asdf|\n" +
+        "asdf]]", new WikiTokenizer(wikiText).nextToken().token());
+    assertTrue(new WikiTokenizer(wikiText).nextToken().isListItem());
+
   }
   
   public void testFunction() {
@@ -295,4 +302,31 @@ public class WikiTokenizerTest extends TestCase {
     assertEquals(Arrays.asList(expectedTokens), actualTokens);
   }
   
+  public void testHtml() {
+      String wikiText;
+
+      {
+      wikiText = " zz <pre> asdf </pre> ZZ <math> 1234 </math> XX ";
+      final WikiTokenizer tokenizer = new WikiTokenizer(wikiText);
+      assertEquals(" zz ", tokenizer.nextToken().token());
+      assertEquals("<pre> asdf </pre>", tokenizer.nextToken().token());
+      assertEquals(" ZZ ", tokenizer.nextToken().token());
+      assertEquals("<math> 1234 </math>", tokenizer.nextToken().token());
+      assertEquals(" XX ", tokenizer.nextToken().token());
+      }
+      {
+      wikiText = "\n<math> 1234 </math>";
+      final WikiTokenizer tokenizer = new WikiTokenizer(wikiText);
+      assertEquals("<math> 1234 </math>", tokenizer.nextToken().nextToken().token());
+      }
+
+      {
+      wikiText = "# z'' is the '''free''' variable in \"<math>\\forall x\\exists y:xy=z</math>\".''";
+      final WikiTokenizer tokenizer = new WikiTokenizer(wikiText);
+      assertEquals(wikiText, tokenizer.nextToken().token());
+      }
+
+      
+  }
+  
 }