Example usage for org.apache.hadoop.record RecordInput startRecord

List of usage examples for org.apache.hadoop.record RecordInput startRecord

Introduction

In this page you can find the example usage for org.apache.hadoop.record RecordInput startRecord.

Prototype

void startRecord(String tag) throws IOException;

Source Link

Document

Check the mark for start of the serialized record.

Usage

From source file:com.nexr.data.sdp.rolling.hdfs.LogRecordJT.java

License:Apache License

private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
        throws java.io.IOException {
    _rio_a.startRecord(_rio_tag);
    time = _rio_a.readLong("time");
    {//  w  ww. ja v  a  2  s .c o  m
        org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("mapFields");
        mapFields = new java.util.TreeMap<String, org.apache.hadoop.record.Buffer>();
        for (; !_rio_midx1.done(); _rio_midx1.incr()) {
            String _rio_k1;
            _rio_k1 = _rio_a.readString("_rio_k1");
            org.apache.hadoop.record.Buffer _rio_v1;
            _rio_v1 = _rio_a.readBuffer("_rio_v1");
            mapFields.put(_rio_k1, _rio_v1);
        }
        _rio_a.endMap("mapFields");
    }
    _rio_a.endRecord(_rio_tag);
}

From source file:com.nexr.data.sdp.rolling.hdfs.LogRecordJT.java

License:Apache License

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
        throws java.io.IOException {
    if (null == _rio_rtiFilter) {
        deserializeWithoutFilter(_rio_a, _rio_tag);
        return;/*from  w w  w  .  j  a v  a 2  s . co  m*/
    }
    // if we're here, we need to read based on version info
    _rio_a.startRecord(_rio_tag);
    setupRtiFields();
    for (int _rio_i = 0; _rio_i < _rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
        if (1 == _rio_rtiFilterFields[_rio_i]) {
            time = _rio_a.readLong("time");
        } else if (2 == _rio_rtiFilterFields[_rio_i]) {
            {
                org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("mapFields");
                mapFields = new java.util.TreeMap<String, org.apache.hadoop.record.Buffer>();
                for (; !_rio_midx1.done(); _rio_midx1.incr()) {
                    String _rio_k1;
                    _rio_k1 = _rio_a.readString("_rio_k1");
                    org.apache.hadoop.record.Buffer _rio_v1;
                    _rio_v1 = _rio_a.readBuffer("_rio_v1");
                    mapFields.put(_rio_k1, _rio_v1);
                }
                _rio_a.endMap("mapFields");
            }
        } else {
            java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>) (_rio_rtiFilter
                    .getFieldTypeInfos());
            org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(),
                    typeInfos.get(_rio_i).getTypeID());
        }
    }
    _rio_a.endRecord(_rio_tag);
}

From source file:crunch.MaxTemperature.java

License:Apache License

private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
            throws java.io.IOException {
        _rio_a.startRecord(_rio_tag);
        listeners = _rio_a.readInt("listeners");
        plays = _rio_a.readInt("plays");
        scrobbles = _rio_a.readInt("scrobbles");
        radioPlays = _rio_a.readInt("radioPlays");
        skips = _rio_a.readInt("skips");
        _rio_a.endRecord(_rio_tag);//from   w w w.ja  v a 2  s. co  m
    }

From source file:crunch.MaxTemperature.java

License:Apache License

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
            throws java.io.IOException {
        if (null == _rio_rtiFilter) {
            deserializeWithoutFilter(_rio_a, _rio_tag);
            return;
        }// w  w w .j  ava  2s .  com
        // if we're here, we need to read based on version info
        _rio_a.startRecord(_rio_tag);
        setupRtiFields();
        for (int _rio_i = 0; _rio_i < _rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
            if (1 == _rio_rtiFilterFields[_rio_i]) {
                listeners = _rio_a.readInt("listeners");
            } else if (2 == _rio_rtiFilterFields[_rio_i]) {
                plays = _rio_a.readInt("plays");
            } else if (3 == _rio_rtiFilterFields[_rio_i]) {
                scrobbles = _rio_a.readInt("scrobbles");
            } else if (4 == _rio_rtiFilterFields[_rio_i]) {
                radioPlays = _rio_a.readInt("radioPlays");
            } else if (5 == _rio_rtiFilterFields[_rio_i]) {
                skips = _rio_a.readInt("skips");
            } else {
                java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>) (_rio_rtiFilter
                        .getFieldTypeInfos());
                org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(),
                        typeInfos.get(_rio_i).getTypeID());
            }
        }
        _rio_a.endRecord(_rio_tag);
    }

From source file:fm.last.darling.io.records.NSpacePoint.java

License:Apache License

private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
        throws java.io.IOException {
    _rio_a.startRecord(_rio_tag);
    timestamp = _rio_a.readLong("timestamp");
    {/*from   w w w  .  ja  va 2 s .  c  o m*/
        org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("dimensions");
        dimensions = new java.util.TreeMap<String, String>();
        for (; !_rio_midx1.done(); _rio_midx1.incr()) {
            String _rio_k1;
            _rio_k1 = _rio_a.readString("_rio_k1");
            String _rio_v1;
            _rio_v1 = _rio_a.readString("_rio_v1");
            dimensions.put(_rio_k1, _rio_v1);
        }
        _rio_a.endMap("dimensions");
    }
    unit = _rio_a.readString("unit");
    _rio_a.endRecord(_rio_tag);
}

From source file:fm.last.darling.io.records.NSpacePoint.java

License:Apache License

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
        throws java.io.IOException {
    if (null == _rio_rtiFilter) {
        deserializeWithoutFilter(_rio_a, _rio_tag);
        return;//from  w  ww. ja va 2 s.co  m
    }
    // if we're here, we need to read based on version info
    _rio_a.startRecord(_rio_tag);
    setupRtiFields();
    for (int _rio_i = 0; _rio_i < _rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
        if (1 == _rio_rtiFilterFields[_rio_i]) {
            timestamp = _rio_a.readLong("timestamp");
        } else if (2 == _rio_rtiFilterFields[_rio_i]) {
            {
                org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("dimensions");
                dimensions = new java.util.TreeMap<String, String>();
                for (; !_rio_midx1.done(); _rio_midx1.incr()) {
                    String _rio_k1;
                    _rio_k1 = _rio_a.readString("_rio_k1");
                    String _rio_v1;
                    _rio_v1 = _rio_a.readString("_rio_v1");
                    dimensions.put(_rio_k1, _rio_v1);
                }
                _rio_a.endMap("dimensions");
            }
        } else if (3 == _rio_rtiFilterFields[_rio_i]) {
            unit = _rio_a.readString("unit");
        } else {
            java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>) (_rio_rtiFilter
                    .getFieldTypeInfos());
            org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(),
                    typeInfos.get(_rio_i).getTypeID());
        }
    }
    _rio_a.endRecord(_rio_tag);
}

From source file:net.thecubic.mockbi.MockBISummaryKey.java

License:Apache License

@Override
public void deserialize(RecordInput ri, String ctx) throws IOException {
    ri.startRecord(ctx);
    timeSeriesBin = new Date(ri.readLong("timeSeriesBin") * 1000L);
    timeSeriesInterval = new Long(ri.readLong("timeSeriesInterval") * 1000L);
    binLevel = ri.readInt("binLevel");
    //analysisParams = new LinkedHashMap<String,String>();
    for (Index ad_idx = ri.startMap("analysisParams"); !ad_idx.done(); ad_idx.incr()) {
        analysisParams.put(ri.readString("key"), ri.readString("value"));
    }//from   www .j  a v  a 2 s  .  c o m
    ri.endMap("analysisParams");
    ri.endRecord(ctx);
}