public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeLong(TextOccCount,"TextOccCount"); _rio_a.writeLong(TextDocCount,"TextDocCount"); { _rio_a.startVector(Senses,"Senses"); int _rio_len1 = Senses.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { com.scienceminer.nerd.kb.model.hadoop.DbSenseForLabel _rio_e1 = Senses.get(_rio_vidx1); _rio_e1.serialize(_rio_a,"_rio_e1"); } _rio_a.endVector(Senses,"Senses"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeLong(TextOccCount,"TextOccCount"); _rio_a.writeLong(TextDocCount,"TextDocCount"); { _rio_a.startVector(Senses,"Senses"); int _rio_len1 = Senses.size(); for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { org.wikipedia.miner.db.struct.DbSenseForLabel _rio_e1 = Senses.get(_rio_vidx1); _rio_e1.serialize(_rio_a,"_rio_e1"); } _rio_a.endVector(Senses,"Senses"); } _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this, _rio_tag); _rio_a.writeLong(timePartition, "timePartition"); _rio_a.writeString(dataType, "dataType"); _rio_a.writeString(streamName, "streamName"); _rio_a.writeLong(seqId, "seqId"); _rio_a.endRecord(this, _rio_tag); }
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeInt(Id,"Id"); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeBool(FromTitle,"FromTitle"); _rio_a.writeBool(FromRedirect,"FromRedirect"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeInt(Id,"Id"); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeBool(FromTitle,"FromTitle"); _rio_a.writeBool(FromRedirect,"FromRedirect"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeString(Text,"Text"); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeBool(FromTitle,"FromTitle"); _rio_a.writeBool(FromRedirect,"FromRedirect"); _rio_a.writeBool(IsPrimary,"IsPrimary"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this, _rio_tag); _rio_a.writeLong(time, "time"); { _rio_a.startMap(mapFields, "mapFields"); java.util.Set<java.util.Map.Entry<String, org.apache.hadoop.record.Buffer>> _rio_es1 = mapFields .entrySet(); for (java.util.Iterator<java.util.Map.Entry<String, org.apache.hadoop.record.Buffer>> _rio_midx1 = _rio_es1 .iterator(); _rio_midx1.hasNext();) { java.util.Map.Entry<String, org.apache.hadoop.record.Buffer> _rio_me1 = _rio_midx1 .next(); String _rio_k1 = _rio_me1.getKey(); org.apache.hadoop.record.Buffer _rio_v1 = _rio_me1.getValue(); _rio_a.writeString(_rio_k1, "_rio_k1"); _rio_a.writeBuffer(_rio_v1, "_rio_v1"); } _rio_a.endMap(mapFields, "mapFields"); } _rio_a.endRecord(this, _rio_tag); }
public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(this,_rio_tag); _rio_a.writeString(Text,"Text"); _rio_a.writeLong(LinkOccCount,"LinkOccCount"); _rio_a.writeLong(LinkDocCount,"LinkDocCount"); _rio_a.writeBool(FromTitle,"FromTitle"); _rio_a.writeBool(FromRedirect,"FromRedirect"); _rio_a.writeBool(IsPrimary,"IsPrimary"); _rio_a.endRecord(this,_rio_tag); } private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
for(int _rio_vidx1 = 0; _rio_vidx1<_rio_len1; _rio_vidx1++) { long _rio_e1 = ivec.get(_rio_vidx1); _rio_a.writeLong(_rio_e1,"_rio_e1"); long _rio_v1 = _rio_me1.getValue(); _rio_a.writeInt(_rio_k1,"_rio_k1"); _rio_a.writeLong(_rio_v1,"_rio_v1"); long _rio_v1 = _rio_me1.getValue(); _rio_a.writeInt(_rio_k1,"_rio_k1"); _rio_a.writeLong(_rio_v1,"_rio_v1");
_rio_a.writeByte(byteVal,"byteVal"); _rio_a.writeInt(intVal,"intVal"); _rio_a.writeLong(longVal,"longVal"); _rio_a.writeFloat(floatVal,"floatVal"); _rio_a.writeDouble(doubleVal,"doubleVal");