List of usage examples for org.apache.hadoop.record RecordInput startRecord
void startRecord(String tag) throws IOException;
From source file:com.nexr.data.sdp.rolling.hdfs.LogRecordJT.java
License:Apache License
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); time = _rio_a.readLong("time"); {// w ww. ja v a 2 s .c o m org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("mapFields"); mapFields = new java.util.TreeMap<String, org.apache.hadoop.record.Buffer>(); for (; !_rio_midx1.done(); _rio_midx1.incr()) { String _rio_k1; _rio_k1 = _rio_a.readString("_rio_k1"); org.apache.hadoop.record.Buffer _rio_v1; _rio_v1 = _rio_a.readBuffer("_rio_v1"); mapFields.put(_rio_k1, _rio_v1); } _rio_a.endMap("mapFields"); } _rio_a.endRecord(_rio_tag); }
From source file:com.nexr.data.sdp.rolling.hdfs.LogRecordJT.java
License:Apache License
public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { if (null == _rio_rtiFilter) { deserializeWithoutFilter(_rio_a, _rio_tag); return;/*from w w w . j a v a 2 s . co m*/ } // if we're here, we need to read based on version info _rio_a.startRecord(_rio_tag); setupRtiFields(); for (int _rio_i = 0; _rio_i < _rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) { if (1 == _rio_rtiFilterFields[_rio_i]) { time = _rio_a.readLong("time"); } else if (2 == _rio_rtiFilterFields[_rio_i]) { { org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("mapFields"); mapFields = new java.util.TreeMap<String, org.apache.hadoop.record.Buffer>(); for (; !_rio_midx1.done(); _rio_midx1.incr()) { String _rio_k1; _rio_k1 = _rio_a.readString("_rio_k1"); org.apache.hadoop.record.Buffer _rio_v1; _rio_v1 = _rio_a.readBuffer("_rio_v1"); mapFields.put(_rio_k1, _rio_v1); } _rio_a.endMap("mapFields"); } } else { java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>) (_rio_rtiFilter .getFieldTypeInfos()); org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID()); } } _rio_a.endRecord(_rio_tag); }
From source file:crunch.MaxTemperature.java
License:Apache License
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); listeners = _rio_a.readInt("listeners"); plays = _rio_a.readInt("plays"); scrobbles = _rio_a.readInt("scrobbles"); radioPlays = _rio_a.readInt("radioPlays"); skips = _rio_a.readInt("skips"); _rio_a.endRecord(_rio_tag);//from w w w.ja v a 2 s. co m }
From source file:crunch.MaxTemperature.java
License:Apache License
public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { if (null == _rio_rtiFilter) { deserializeWithoutFilter(_rio_a, _rio_tag); return; }// w w w .j ava 2s . com // if we're here, we need to read based on version info _rio_a.startRecord(_rio_tag); setupRtiFields(); for (int _rio_i = 0; _rio_i < _rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) { if (1 == _rio_rtiFilterFields[_rio_i]) { listeners = _rio_a.readInt("listeners"); } else if (2 == _rio_rtiFilterFields[_rio_i]) { plays = _rio_a.readInt("plays"); } else if (3 == _rio_rtiFilterFields[_rio_i]) { scrobbles = _rio_a.readInt("scrobbles"); } else if (4 == _rio_rtiFilterFields[_rio_i]) { radioPlays = _rio_a.readInt("radioPlays"); } else if (5 == _rio_rtiFilterFields[_rio_i]) { skips = _rio_a.readInt("skips"); } else { java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>) (_rio_rtiFilter .getFieldTypeInfos()); org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID()); } } _rio_a.endRecord(_rio_tag); }
From source file:fm.last.darling.io.records.NSpacePoint.java
License:Apache License
private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { _rio_a.startRecord(_rio_tag); timestamp = _rio_a.readLong("timestamp"); {/*from w w w . ja va 2 s . c o m*/ org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("dimensions"); dimensions = new java.util.TreeMap<String, String>(); for (; !_rio_midx1.done(); _rio_midx1.incr()) { String _rio_k1; _rio_k1 = _rio_a.readString("_rio_k1"); String _rio_v1; _rio_v1 = _rio_a.readString("_rio_v1"); dimensions.put(_rio_k1, _rio_v1); } _rio_a.endMap("dimensions"); } unit = _rio_a.readString("unit"); _rio_a.endRecord(_rio_tag); }
From source file:fm.last.darling.io.records.NSpacePoint.java
License:Apache License
public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag) throws java.io.IOException { if (null == _rio_rtiFilter) { deserializeWithoutFilter(_rio_a, _rio_tag); return;//from w ww. ja va 2 s.co m } // if we're here, we need to read based on version info _rio_a.startRecord(_rio_tag); setupRtiFields(); for (int _rio_i = 0; _rio_i < _rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) { if (1 == _rio_rtiFilterFields[_rio_i]) { timestamp = _rio_a.readLong("timestamp"); } else if (2 == _rio_rtiFilterFields[_rio_i]) { { org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("dimensions"); dimensions = new java.util.TreeMap<String, String>(); for (; !_rio_midx1.done(); _rio_midx1.incr()) { String _rio_k1; _rio_k1 = _rio_a.readString("_rio_k1"); String _rio_v1; _rio_v1 = _rio_a.readString("_rio_v1"); dimensions.put(_rio_k1, _rio_v1); } _rio_a.endMap("dimensions"); } } else if (3 == _rio_rtiFilterFields[_rio_i]) { unit = _rio_a.readString("unit"); } else { java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>) (_rio_rtiFilter .getFieldTypeInfos()); org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID()); } } _rio_a.endRecord(_rio_tag); }
From source file:net.thecubic.mockbi.MockBISummaryKey.java
License:Apache License
@Override public void deserialize(RecordInput ri, String ctx) throws IOException { ri.startRecord(ctx); timeSeriesBin = new Date(ri.readLong("timeSeriesBin") * 1000L); timeSeriesInterval = new Long(ri.readLong("timeSeriesInterval") * 1000L); binLevel = ri.readInt("binLevel"); //analysisParams = new LinkedHashMap<String,String>(); for (Index ad_idx = ri.startMap("analysisParams"); !ad_idx.done(); ad_idx.incr()) { analysisParams.put(ri.readString("key"), ri.readString("value")); }//from www .j a v a 2 s . c o m ri.endMap("analysisParams"); ri.endRecord(ctx); }