public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startVector(SentenceSplits,"SentenceSplits"); int _rio_len1 = SentenceSplits.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { int _rio_e1 = SentenceSplits.get(_rio_vidx1); _rio_a.writeInt(_rio_e1,"_rio_e1"); } _rio_a.endVector(SentenceSplits,"SentenceSplits"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeString(data,"data"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
/** * Serialize the TypeID object */ void write(RecordOutput rout, String tag) throws IOException { rout.writeByte(typeVal, tag); }
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeString(Text,"Text"); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeBool(FromTitle,"FromTitle"); _rio_a.writeBool(FromRedirect,"FromRedirect"); _rio_a.writeBool(IsPrimary,"IsPrimary"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeString(Title,"Title"); _rio_a.writeInt(Type,"Type"); _rio_a.writeInt(depth,"depth"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeString(name2,"name2"); inner.serialize(_rio_a,"inner"); _rio_a.startVector(ivec,"ivec"); int _rio_len1 = ivec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { int _rio_e1 = ivec.get(_rio_vidx1); _rio_a.writeInt(_rio_e1,"_rio_e1"); _rio_a.endVector(ivec,"ivec"); _rio_a.startVector(svec,"svec"); int _rio_len1 = svec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { java.util.ArrayList<Integer> _rio_e1 = svec.get(_rio_vidx1); _rio_a.startVector(_rio_e1,"_rio_e1"); int _rio_len2 = _rio_e1.size(); for(int _rio_vidx2 = 0; _rio_vidx2<_rio_len2; _rio_vidx2++) { int _rio_e2 = _rio_e1.get(_rio_vidx2); _rio_a.writeInt(_rio_e2,"_rio_e2"); _rio_a.endVector(_rio_e1,"_rio_e1"); _rio_a.endVector(svec,"svec"); _rio_a.startVector(strvec,"strvec");
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeBool(boolVal,"boolVal"); _rio_a.writeByte(byteVal,"byteVal"); _rio_a.writeInt(intVal,"intVal"); _rio_a.writeLong(longVal,"longVal"); _rio_a.writeFloat(floatVal,"floatVal"); _rio_a.writeDouble(doubleVal,"doubleVal"); _rio_a.writeString(stringVal,"stringVal"); _rio_a.writeBuffer(bufferVal,"bufferVal"); _rio_a.startVector(vectorVal,"vectorVal"); int _rio_len1 = vectorVal.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { String _rio_e1 = vectorVal.get(_rio_vidx1); _rio_a.writeString(_rio_e1,"_rio_e1"); _rio_a.endVector(vectorVal,"vectorVal"); _rio_a.startMap(mapVal,"mapVal"); java.util.Set<java.util.Map.Entry<String,String>> _rio_es1 = mapVal.entrySet(); for(java.util.Iterator<java.util.Map.Entry<String,String>> _rio_midx1 = _rio_es1.iterator(); _rio_midx1.hasNext();) { String _rio_k1 = _rio_me1.getKey(); String _rio_v1 = _rio_me1.getValue(); _rio_a.writeString(_rio_k1,"_rio_k1"); _rio_a.writeString(_rio_v1,"_rio_v1"); _rio_a.endMap(mapVal,"mapVal");
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeInt(data,"data"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this, _rio_tag); _rio_a.writeLong(time, "time"); { _rio_a.startMap(mapFields, "mapFields"); java.util.Set<java.util.Map.Entry<String, org.apache.hadoop.record.Buffer>> _rio_es1 = mapFields .entrySet(); for (java.util.Iterator<java.util.Map.Entry<String, org.apache.hadoop.record.Buffer>> _rio_midx1 = _rio_es1 .iterator(); _rio_midx1.hasNext();) { java.util.Map.Entry<String, org.apache.hadoop.record.Buffer> _rio_me1 = _rio_midx1 .next(); String _rio_k1 = _rio_me1.getKey(); org.apache.hadoop.record.Buffer _rio_v1 = _rio_me1.getValue(); _rio_a.writeString(_rio_k1, "_rio_k1"); _rio_a.writeBuffer(_rio_v1, "_rio_v1"); } _rio_a.endMap(mapFields, "mapFields"); } _rio_a.endRecord(this, _rio_tag); }
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startMap(TranslationsByLangCode,"TranslationsByLangCode"); java.util.Set<java.util.Map.Entry<String,String>> _rio_es1 = TranslationsByLangCode.entrySet(); for(java.util.Iterator<java.util.Map.Entry<String,String>> _rio_midx1 = _rio_es1.iterator(); _rio_midx1.hasNext();) { java.util.Map.Entry<String,String> _rio_me1 = _rio_midx1.next(); String _rio_k1 = _rio_me1.getKey(); String _rio_v1 = _rio_me1.getValue(); _rio_a.writeString(_rio_k1,"_rio_k1"); _rio_a.writeString(_rio_v1,"_rio_v1"); } _rio_a.endMap(TranslationsByLangCode,"TranslationsByLangCode"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeInt(Id,"Id"); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeBool(FromTitle,"FromTitle"); _rio_a.writeBool(FromRedirect,"FromRedirect"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeBuffer(data,"data"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
void write(RecordOutput rout, String tag) throws IOException { rout.writeString(fieldID, tag); typeID.write(rout, tag); }
void writeRest(RecordOutput rout, String tag) throws IOException { rout.writeInt(typeInfos.size(), tag); for (FieldTypeInfo ti : typeInfos) { ti.write(rout, tag); } }
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeString(name,"name"); _rio_a.startVector(ivec,"ivec"); int _rio_len1 = ivec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { long _rio_e1 = ivec.get(_rio_vidx1); _rio_a.writeLong(_rio_e1,"_rio_e1"); _rio_a.endVector(ivec,"ivec"); _rio_a.startVector(svec,"svec"); int _rio_len1 = svec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { java.util.ArrayList<org.apache.hadoop.record.RecRecord0> _rio_e1 = svec.get(_rio_vidx1); _rio_a.startVector(_rio_e1,"_rio_e1"); int _rio_len2 = _rio_e1.size(); for(int _rio_vidx2 = 0; _rio_vidx2<_rio_len2; _rio_vidx2++) { _rio_a.endVector(_rio_e1,"_rio_e1"); _rio_a.endVector(svec,"svec"); _rio_a.startVector(strvec,"strvec"); int _rio_len1 = strvec.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { java.util.ArrayList<java.util.ArrayList<String>> _rio_e1 = strvec.get(_rio_vidx1);
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeInt(ValueA,"ValueA"); _rio_a.writeInt(ValueB,"ValueB"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeString(Text,"Text"); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeBool(FromTitle,"FromTitle"); _rio_a.writeBool(FromRedirect,"FromRedirect"); _rio_a.writeBool(IsPrimary,"IsPrimary"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeString(Title,"Title"); _rio_a.writeInt(Type,"Type"); _rio_a.writeInt(depth,"depth"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); { _rio_a.startMap(TranslationsByLangCode,"TranslationsByLangCode"); java.util.Set<java.util.Map.Entry<String,String>> _rio_es1 = TranslationsByLangCode.entrySet(); for(java.util.Iterator<java.util.Map.Entry<String,String>> _rio_midx1 = _rio_es1.iterator(); _rio_midx1.hasNext();) { java.util.Map.Entry<String,String> _rio_me1 = _rio_midx1.next(); String _rio_k1 = _rio_me1.getKey(); String _rio_v1 = _rio_me1.getValue(); _rio_a.writeString(_rio_k1,"_rio_k1"); _rio_a.writeString(_rio_v1,"_rio_v1"); } _rio_a.endMap(TranslationsByLangCode,"TranslationsByLangCode"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeInt(Id,"Id"); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeBool(FromTitle,"FromTitle"); _rio_a.writeBool(FromRedirect,"FromRedirect"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)