转自http://www.jobui.com/mianshiti/it/java/8216/
StringReader并不常用,因为通常情况下使用String更简单一些。但是在一些需要Reader作为参数的情况下,就需要将String读入到StringReader中来使用了。
下面的例子自然是需要用Reader对象作为参数来身份成StreamTokenizer类的实例
StreamTokenizer定义了几种基本的常量用于标识解析过程:TT_EOF(流结尾)、TT_EOL(行结尾)、
TT_NUMBER(数字符号, 0 1 2 3 4 5 6 7 8 9 . -都属于数字语法)、TT_WORD(一个单词)。
下面的例子代码中,我们创建了一个StringReader实例,然后将此示例作为参数给StreamTokenizer类,然后数给定字符串中一个有多少个单词。
import java.io.FileNotFoundException;
import java.io.FileReader;
import java.io.IOException;
import java.io.StreamTokenizer;
import java.io.StringReader;
/**
*
* @author outofmemory.cn
*/
public class Main {
/**
* StringReader示例代码
*/
public void countWordsInAString() {
StreamTokenizer streamTokenizer = null;
String stringToBeParsed = "The quick brown fox jumped over the lazy dog";
StringReader reader = new StringReader(stringToBeParsed);
int wordCount = 0;
try {
streamTokenizer = new StreamTokenizer(reader);
while (streamTokenizer.nextToken() != StreamTokenizer.TT_EOF) {
if (streamTokenizer.ttype == StreamTokenizer.TT_WORD)
wordCount++;
}
System.out.println("Number of words in file: " + wordCount);
} catch (FileNotFoundException ex) {
ex.printStackTrace();
} catch (IOException ex) {
ex.printStackTrace();
}
}
/**
* @param args the command line arguments
*/
public static void main(String[] args) {
new Main().countWordsInAString();
}
}
博主笔记:最近用到这个StringTokenizer和StreamTokenizer两个类,感觉JDK的文档说的不怎么清楚,就在网上找了找相关文档,发现很多文章写得不好,这篇文章稍微清楚一点,但是也不是写得很好,先转载一下吧。有机会,我再自己写一个,最近比较懒,不想去测试,然后自己一个字一个字的敲。大家先凑或着一起学习吧,如果你有更好的想法或者发现更好的文章,请留言,非常感谢。
一直以来,我们都知道字符串的分割最常用的是java.util.StringTokenizer,但是某些时候,StringTokenizer有很大的局限性。
StreamTokenizer定义了几种基本的常量用于标识解析过程:TT_EOF(流结尾)、TT_EOL(行结尾)、
TT_NUMBER(数字符号, 0 1 2 3 4 5 6 7 8 9 . -都属于数字语法)、TT_WORD(一个单词)。
其含有的基本方法介绍一下:
commenChar(int ch) - 指定某个字符为注释字符,此字符之后直到行结尾都被stream tokenizer忽略。
eolIsSignificant(boolean flag) - 决定一个行结束符是否被当作一个基本的符号处理,如果是true,则被当作一个基本符号,不当作普通的分隔符,如果是false,则保持原义,即当作普通的分隔符。
lineno() - 返回当前流所在的行号。
lowerCaseMode(boolean flag) - 决定是否读取一个单词时是否转变成小写。
nextToken() - 分析下一个。
ordinaryChar(int ch) - 指定字符在这个tokenizer中保持原义,即只会把当前字符认为普通的字符,不会有其他的语义。
ordinaryChars(int low, int hi) - 指定范围内的字符保持语义,同上
parseNumbers() - 当stream tokenizer遭遇到一个单词为双精度的浮点数时,会把它当作一个数字,而不是一个单词。
pushBack() - 回退,会引起下一个nextToken方法返回当前值。
quoteChar(int ch) - 指定当前字符为当前tokenizer中的分隔符,在两个符号之间被当作一个字符串解析。
resetSyntax() - 重置语法表使所有的字符都被认为是“ordinary”。
slashSlashComments(boolean flag) - 如果为true,则/*与*/之间的都被认为是注释,反之,不是。
slashStartComments(boolean flag) - 如果为true,则//之后到行结尾的所有都被认为是注释,反之,不是。
whitespaceChars(int low, int hi) - 字符low与hi之间的所有字符都被当作为空格符,即被认识为tokenzier的分隔符。
wordChars(int low, int hi) - 字符low与hi之间的所有字符都被当作为单词的要素。
一个单词是由一个单词要素后面跟着0个或者更多个单词要素或者数字要素。
api不是很复杂吧~应该不难理解。
一下举个例子会一幕了然://SetupaStreamTokenizeronthecharactersinthisString
StreamTokenizer st =new StreamTokenizer (new StringReader (svalue ));
//知道该怎么解析字符串了吧。
st.whitespaceChars (',',',');
//Commasaredelimiters
st.ordinaryChars ('0','9');
//Neededtoturnoffnumericflag
st.ordinaryChars ('.','.');
st.ordinaryChars ('-','-');
st.wordChars ('0','9');
//Neededtomakepartoftokens
st.wordChars ('.','.');
st.wordChars ('-','-');
//Splitcomma-delimitedtokensintoaList
ArrayList list =new ArrayList ();
while (true )
{...
int ttype =st.nextToken ();
if ((ttype ==StreamTokenizer.TT_WORD )||(ttype >0 ))
{...
list.add (st.sval );
}
else if (ttype ==StreamTokenizer.TT_EOF )
{...
break ;
}
else
{...
throw new ConversionException ("Encounteredtokenoftype"+ttype );
}
}
[转载地址]:http://blog.csdn.net/yemy/archive/2005/12/07/546394.aspx