public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startVector(LinkLocations,"LinkLocations"); int _rio_len1 = LinkLocations.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { org.wikipedia.miner.db.struct.DbLinkLocation _rio_e1 = LinkLocations.get(_rio_vidx1); _rio_e1.serialize(_rio_a,"_rio_e1"); } _rio_a.endVector(LinkLocations,"LinkLocations"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startVector(SentenceSplits,"SentenceSplits"); int _rio_len1 = SentenceSplits.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { int _rio_e1 = SentenceSplits.get(_rio_vidx1); _rio_a.writeInt(_rio_e1,"_rio_e1"); } _rio_a.endVector(SentenceSplits,"SentenceSplits"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startVector(Labels,"Labels"); int _rio_len1 = Labels.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { org.wikipedia.miner.db.struct.DbLabelForPage _rio_e1 = Labels.get(_rio_vidx1); _rio_e1.serialize(_rio_a,"_rio_e1"); } _rio_a.endVector(Labels,"Labels"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startVector(LinkLocations,"LinkLocations"); int _rio_len1 = LinkLocations.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { com.scienceminer.nerd.kb.model.hadoop.DbLinkLocation _rio_e1 = LinkLocations.get(_rio_vidx1); _rio_e1.serialize(_rio_a,"_rio_e1"); } _rio_a.endVector(LinkLocations,"LinkLocations"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startVector(Labels,"Labels"); int _rio_len1 = Labels.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { com.scienceminer.nerd.kb.model.hadoop.DbLabelForPage _rio_e1 = Labels.get(_rio_vidx1); _rio_e1.serialize(_rio_a,"_rio_e1"); } _rio_a.endVector(Labels,"Labels"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startVector(SentenceSplits,"SentenceSplits"); int _rio_len1 = SentenceSplits.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { int _rio_e1 = SentenceSplits.get(_rio_vidx1); _rio_a.writeInt(_rio_e1,"_rio_e1"); } _rio_a.endVector(SentenceSplits,"SentenceSplits"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startVector(Values,"Values"); int _rio_len1 = Values.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { int _rio_e1 = Values.get(_rio_vidx1); _rio_a.writeInt(_rio_e1,"_rio_e1"); } _rio_a.endVector(Values,"Values"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startVector(Values,"Values"); int _rio_len1 = Values.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { int _rio_e1 = Values.get(_rio_vidx1); _rio_a.writeInt(_rio_e1,"_rio_e1"); } _rio_a.endVector(Values,"Values"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeInt(LinkId,"LinkId"); { _rio_a.startVector(SentenceIndexes,"SentenceIndexes"); int _rio_len1 = SentenceIndexes.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { int _rio_e1 = SentenceIndexes.get(_rio_vidx1); _rio_a.writeInt(_rio_e1,"_rio_e1"); } _rio_a.endVector(SentenceIndexes,"SentenceIndexes"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeInt(LinkId,"LinkId"); { _rio_a.startVector(SentenceIndexes,"SentenceIndexes"); int _rio_len1 = SentenceIndexes.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { int _rio_e1 = SentenceIndexes.get(_rio_vidx1); _rio_a.writeInt(_rio_e1,"_rio_e1"); } _rio_a.endVector(SentenceIndexes,"SentenceIndexes"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
_rio_a.startVector(ivec,"ivec"); int _rio_len1 = ivec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { _rio_a.startVector(svec,"svec"); int _rio_len1 = svec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { java.util.ArrayList<Integer> _rio_e1 = svec.get(_rio_vidx1); _rio_a.startVector(_rio_e1,"_rio_e1"); int _rio_len2 = _rio_e1.size(); for(int _rio_vidx2 = 0; _rio_vidx2<_rio_len2; _rio_vidx2++) { _rio_a.startVector(strvec,"strvec"); int _rio_len1 = strvec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { java.util.ArrayList<java.util.ArrayList<String>> _rio_e1 = strvec.get(_rio_vidx1); _rio_a.startVector(_rio_e1,"_rio_e1"); int _rio_len2 = _rio_e1.size(); for(int _rio_vidx2 = 0; _rio_vidx2<_rio_len2; _rio_vidx2++) { java.util.ArrayList<String> _rio_e2 = _rio_e1.get(_rio_vidx2); _rio_a.startVector(_rio_e2,"_rio_e2"); int _rio_len3 = _rio_e2.size(); for(int _rio_vidx3 = 0; _rio_vidx3<_rio_len3; _rio_vidx3++) { _rio_a.startVector(mvec2,"mvec2"); int _rio_len1 = mvec2.size();
_rio_a.startVector(ivec,"ivec"); int _rio_len1 = ivec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { _rio_a.startVector(svec,"svec"); int _rio_len1 = svec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { java.util.ArrayList<org.apache.hadoop.record.RecRecord0> _rio_e1 = svec.get(_rio_vidx1); _rio_a.startVector(_rio_e1,"_rio_e1"); int _rio_len2 = _rio_e1.size(); for(int _rio_vidx2 = 0; _rio_vidx2<_rio_len2; _rio_vidx2++) { _rio_a.startVector(strvec,"strvec"); int _rio_len1 = strvec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { java.util.ArrayList<java.util.ArrayList<String>> _rio_e1 = strvec.get(_rio_vidx1); _rio_a.startVector(_rio_e1,"_rio_e1"); int _rio_len2 = _rio_e1.size(); for(int _rio_vidx2 = 0; _rio_vidx2<_rio_len2; _rio_vidx2++) { java.util.ArrayList<String> _rio_e2 = _rio_e1.get(_rio_vidx2); _rio_a.startVector(_rio_e2,"_rio_e2"); int _rio_len3 = _rio_e2.size(); for(int _rio_vidx3 = 0; _rio_vidx3<_rio_len3; _rio_vidx3++) { _rio_a.startVector(mvec1,"mvec1"); int _rio_len1 = mvec1.size();
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeLong(TextOccCount,"TextOccCount"); _rio_a.writeLong(TextDocCount,"TextDocCount"); { _rio_a.startVector(Senses,"Senses"); int _rio_len1 = Senses.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { com.scienceminer.nerd.kb.model.hadoop.DbSenseForLabel _rio_e1 = Senses.get(_rio_vidx1); _rio_e1.serialize(_rio_a,"_rio_e1"); } _rio_a.endVector(Senses,"Senses"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeLong(TextOccCount,"TextOccCount"); _rio_a.writeLong(TextDocCount,"TextDocCount"); { _rio_a.startVector(Senses,"Senses"); int _rio_len1 = Senses.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { org.wikipedia.miner.db.struct.DbSenseForLabel _rio_e1 = Senses.get(_rio_vidx1); _rio_e1.serialize(_rio_a,"_rio_e1"); } _rio_a.endVector(Senses,"Senses"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
_rio_a.writeBuffer(bufferVal,"bufferVal"); _rio_a.startVector(vectorVal,"vectorVal"); int _rio_len1 = vectorVal.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) {