private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("Values"); Values=new java.util.ArrayList<Integer>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { int _rio_e1; _rio_e1=_rio_a.readInt("_rio_e1"); Values.add(_rio_e1); } _rio_a.endVector("Values"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("Values"); Values=new java.util.ArrayList<Integer>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { int _rio_e1; _rio_e1=_rio_a.readInt("_rio_e1"); Values.add(_rio_e1); } _rio_a.endVector("Values"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("SentenceSplits"); SentenceSplits=new java.util.ArrayList<Integer>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { int _rio_e1; _rio_e1=_rio_a.readInt("_rio_e1"); SentenceSplits.add(_rio_e1); } _rio_a.endVector("SentenceSplits"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("SentenceSplits"); SentenceSplits=new java.util.ArrayList<Integer>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { int _rio_e1; _rio_e1=_rio_a.readInt("_rio_e1"); SentenceSplits.add(_rio_e1); } _rio_a.endVector("SentenceSplits"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("Labels"); Labels=new java.util.ArrayList<com.scienceminer.nerd.kb.model.hadoop.DbLabelForPage>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { com.scienceminer.nerd.kb.model.hadoop.DbLabelForPage _rio_e1; _rio_e1= new com.scienceminer.nerd.kb.model.hadoop.DbLabelForPage(); _rio_e1.deserialize(_rio_a,"_rio_e1"); Labels.add(_rio_e1); } _rio_a.endVector("Labels"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); LinkId=_rio_a.readInt("LinkId"); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("SentenceIndexes"); SentenceIndexes=new java.util.ArrayList<Integer>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { int _rio_e1; _rio_e1=_rio_a.readInt("_rio_e1"); SentenceIndexes.add(_rio_e1); } _rio_a.endVector("SentenceIndexes"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("Labels"); Labels=new java.util.ArrayList<org.wikipedia.miner.db.struct.DbLabelForPage>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { org.wikipedia.miner.db.struct.DbLabelForPage _rio_e1; _rio_e1= new org.wikipedia.miner.db.struct.DbLabelForPage(); _rio_e1.deserialize(_rio_a,"_rio_e1"); Labels.add(_rio_e1); } _rio_a.endVector("Labels"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); LinkId=_rio_a.readInt("LinkId"); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("SentenceIndexes"); SentenceIndexes=new java.util.ArrayList<Integer>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { int _rio_e1; _rio_e1=_rio_a.readInt("_rio_e1"); SentenceIndexes.add(_rio_e1); } _rio_a.endVector("SentenceIndexes"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("LinkLocations"); LinkLocations=new java.util.ArrayList<com.scienceminer.nerd.kb.model.hadoop.DbLinkLocation>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { com.scienceminer.nerd.kb.model.hadoop.DbLinkLocation _rio_e1; _rio_e1= new com.scienceminer.nerd.kb.model.hadoop.DbLinkLocation(); _rio_e1.deserialize(_rio_a,"_rio_e1"); LinkLocations.add(_rio_e1); } _rio_a.endVector("LinkLocations"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); { org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("TranslationsByLangCode"); TranslationsByLangCode=new java.util.TreeMap<String,String>(); for (; !_rio_midx1.done(); _rio_midx1.incr()) { String _rio_k1; _rio_k1=_rio_a.readString("_rio_k1"); String _rio_v1; _rio_v1=_rio_a.readString("_rio_v1"); TranslationsByLangCode.put(_rio_k1,_rio_v1); } _rio_a.endMap("TranslationsByLangCode"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("LinkLocations"); LinkLocations=new java.util.ArrayList<org.wikipedia.miner.db.struct.DbLinkLocation>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { org.wikipedia.miner.db.struct.DbLinkLocation _rio_e1; _rio_e1= new org.wikipedia.miner.db.struct.DbLinkLocation(); _rio_e1.deserialize(_rio_a,"_rio_e1"); LinkLocations.add(_rio_e1); } _rio_a.endVector("LinkLocations"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); { org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("TranslationsByLangCode"); TranslationsByLangCode=new java.util.TreeMap<String,String>(); for (; !_rio_midx1.done(); _rio_midx1.incr()) { String _rio_k1; _rio_k1=_rio_a.readString("_rio_k1"); String _rio_v1; _rio_v1=_rio_a.readString("_rio_v1"); TranslationsByLangCode.put(_rio_k1,_rio_v1); } _rio_a.endMap("TranslationsByLangCode"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter( final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); time = _rio_a.readLong("time"); { org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("mapFields"); mapFields = new java.util.TreeMap<String, org.apache.hadoop.record.Buffer>(); for (; !_rio_midx1.done(); _rio_midx1.incr()) { String _rio_k1; _rio_k1 = _rio_a.readString("_rio_k1"); org.apache.hadoop.record.Buffer _rio_v1; _rio_v1 = _rio_a.readBuffer("_rio_v1"); mapFields.put(_rio_k1, _rio_v1); } _rio_a.endMap("mapFields"); } _rio_a.endRecord(_rio_tag); }
public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { if (null == _rio_rtiFilter) { deserializeWithoutFilter(_rio_a, _rio_tag); return; } // if we're here, we need to read based on version info _rio_a.startRecord(_rio_tag); setupRtiFields(); for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) { if (1 == _rio_rtiFilterFields[_rio_i]) { { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("Values"); Values=new java.util.ArrayList<Integer>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { int _rio_e1; _rio_e1=_rio_a.readInt("_rio_e1"); Values.add(_rio_e1); } _rio_a.endVector("Values"); } } else { java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos()); org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID()); } } _rio_a.endRecord(_rio_tag); } public int compareTo (final Object _rio_peer_) throws ClassCastException {
public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { if (null == _rio_rtiFilter) { deserializeWithoutFilter(_rio_a, _rio_tag); return; } // if we're here, we need to read based on version info _rio_a.startRecord(_rio_tag); setupRtiFields(); for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) { if (1 == _rio_rtiFilterFields[_rio_i]) { { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("SentenceSplits"); SentenceSplits=new java.util.ArrayList<Integer>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { int _rio_e1; _rio_e1=_rio_a.readInt("_rio_e1"); SentenceSplits.add(_rio_e1); } _rio_a.endVector("SentenceSplits"); } } else { java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos()); org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID()); } } _rio_a.endRecord(_rio_tag); } public int compareTo (final Object _rio_peer_) throws ClassCastException {
public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { if (null == _rio_rtiFilter) { deserializeWithoutFilter(_rio_a, _rio_tag); return; } // if we're here, we need to read based on version info _rio_a.startRecord(_rio_tag); setupRtiFields(); for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) { if (1 == _rio_rtiFilterFields[_rio_i]) { { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("SentenceSplits"); SentenceSplits=new java.util.ArrayList<Integer>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { int _rio_e1; _rio_e1=_rio_a.readInt("_rio_e1"); SentenceSplits.add(_rio_e1); } _rio_a.endVector("SentenceSplits"); } } else { java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos()); org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID()); } } _rio_a.endRecord(_rio_tag); } public int compareTo (final Object _rio_peer_) throws ClassCastException {
for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { org.wikipedia.miner.db.struct.DbLabelForPage _rio_e1; _rio_e1= new org.wikipedia.miner.db.struct.DbLabelForPage();
for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { com.scienceminer.nerd.kb.model.hadoop.DbLabelForPage _rio_e1; _rio_e1= new com.scienceminer.nerd.kb.model.hadoop.DbLabelForPage();
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); LinkOccCount=_rio_a.readLong("LinkOccCount"); LinkDocCount=_rio_a.readLong("LinkDocCount"); TextOccCount=_rio_a.readLong("TextOccCount"); TextDocCount=_rio_a.readLong("TextDocCount"); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("Senses"); Senses=new java.util.ArrayList<com.scienceminer.nerd.kb.model.hadoop.DbSenseForLabel>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { com.scienceminer.nerd.kb.model.hadoop.DbSenseForLabel _rio_e1; _rio_e1= new com.scienceminer.nerd.kb.model.hadoop.DbSenseForLabel(); _rio_e1.deserialize(_rio_a,"_rio_e1"); Senses.add(_rio_e1); } _rio_a.endVector("Senses"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); LinkOccCount=_rio_a.readLong("LinkOccCount"); LinkDocCount=_rio_a.readLong("LinkDocCount"); TextOccCount=_rio_a.readLong("TextOccCount"); TextDocCount=_rio_a.readLong("TextDocCount"); { org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("Senses"); Senses=new java.util.ArrayList<org.wikipedia.miner.db.struct.DbSenseForLabel>(); for (; !_rio_vidx1.done(); _rio_vidx1.incr()) { org.wikipedia.miner.db.struct.DbSenseForLabel _rio_e1; _rio_e1= new org.wikipedia.miner.db.struct.DbSenseForLabel(); _rio_e1.deserialize(_rio_a,"_rio_e1"); Senses.add(_rio_e1); } _rio_a.endVector("Senses"); } _rio_a.endRecord(_rio_tag); } public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)