private static void _setupParseTableForAnnotationProcessing( StreamTokenizer st) { _setupParseTable(st); st.wordChars('@', '@'); st.wordChars('(', '('); st.wordChars(')', ')'); st.wordChars('{', '{'); st.wordChars('}', '}'); st.wordChars(',', ','); }
private static List<String> _processAnnotationParameters( String s, List<String> tokens) throws IOException { StreamTokenizer st = new StreamTokenizer(new UnsyncStringReader(s)); _setupParseTable(st); while (st.nextToken() != StreamTokenizer.TT_EOF) { if (st.ttype == StreamTokenizer.TT_WORD) { if (st.sval.indexOf('.') >= 0) { tokens.add(st.sval.substring(0, st.sval.indexOf('.'))); } else { tokens.add(st.sval); } } else if ((st.ttype != StreamTokenizer.TT_NUMBER) && (st.ttype != StreamTokenizer.TT_EOL)) { if (Character.isUpperCase((char)st.ttype)) { tokens.add(String.valueOf((char)st.ttype)); } } } return tokens; }
private static void _setupParseTableForAnnotationProcessing( StreamTokenizer st) { _setupParseTable(st); st.wordChars('@', '@'); st.wordChars('(', '('); st.wordChars(')', ')'); st.wordChars('{', '{'); st.wordChars('}', '}'); st.wordChars(',',','); }
private static List<String> _processAnnotationParameters( String s, List<String> tokens) throws IOException { StreamTokenizer st = new StreamTokenizer(new StringReader(s)); _setupParseTable(st); while (st.nextToken() != StreamTokenizer.TT_EOF) { if (st.ttype == StreamTokenizer.TT_WORD) { if (st.sval.indexOf('.') >= 0) { tokens.add(st.sval.substring(0, st.sval.indexOf('.'))); } else { tokens.add(st.sval); } } else if ((st.ttype != StreamTokenizer.TT_NUMBER) && (st.ttype != StreamTokenizer.TT_EOL)) { if (Character.isUpperCase((char)st.ttype)) { tokens.add(String.valueOf((char)st.ttype)); } } } return tokens; }