Example usage for org.apache.hadoop.record RecordInput readLong

List of usage examples for org.apache.hadoop.record RecordInput readLong

Introduction

In this page you can find the example usage for org.apache.hadoop.record RecordInput readLong.

Prototype

long readLong(String tag) throws IOException;

Source Link

Document

Read a long integer from serialized record.

Usage

From source file:com.nexr.data.sdp.rolling.hdfs.LogRecordJT.java

License:Apache License

private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
        throws java.io.IOException {
    _rio_a.startRecord(_rio_tag);//from  w ww  . j av  a2  s. c  om
    time = _rio_a.readLong("time");
    {
        org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("mapFields");
        mapFields = new java.util.TreeMap<String, org.apache.hadoop.record.Buffer>();
        for (; !_rio_midx1.done(); _rio_midx1.incr()) {
            String _rio_k1;
            _rio_k1 = _rio_a.readString("_rio_k1");
            org.apache.hadoop.record.Buffer _rio_v1;
            _rio_v1 = _rio_a.readBuffer("_rio_v1");
            mapFields.put(_rio_k1, _rio_v1);
        }
        _rio_a.endMap("mapFields");
    }
    _rio_a.endRecord(_rio_tag);
}

From source file:com.nexr.data.sdp.rolling.hdfs.LogRecordJT.java

License:Apache License

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
        throws java.io.IOException {
    if (null == _rio_rtiFilter) {
        deserializeWithoutFilter(_rio_a, _rio_tag);
        return;/*from   w w w. ja  v a 2  s  . co m*/
    }
    // if we're here, we need to read based on version info
    _rio_a.startRecord(_rio_tag);
    setupRtiFields();
    for (int _rio_i = 0; _rio_i < _rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
        if (1 == _rio_rtiFilterFields[_rio_i]) {
            time = _rio_a.readLong("time");
        } else if (2 == _rio_rtiFilterFields[_rio_i]) {
            {
                org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("mapFields");
                mapFields = new java.util.TreeMap<String, org.apache.hadoop.record.Buffer>();
                for (; !_rio_midx1.done(); _rio_midx1.incr()) {
                    String _rio_k1;
                    _rio_k1 = _rio_a.readString("_rio_k1");
                    org.apache.hadoop.record.Buffer _rio_v1;
                    _rio_v1 = _rio_a.readBuffer("_rio_v1");
                    mapFields.put(_rio_k1, _rio_v1);
                }
                _rio_a.endMap("mapFields");
            }
        } else {
            java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>) (_rio_rtiFilter
                    .getFieldTypeInfos());
            org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(),
                    typeInfos.get(_rio_i).getTypeID());
        }
    }
    _rio_a.endRecord(_rio_tag);
}

From source file:fm.last.darling.io.records.NSpacePoint.java

License:Apache License

private void deserializeWithoutFilter(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
        throws java.io.IOException {
    _rio_a.startRecord(_rio_tag);//  w  w  w  .j  ava 2s . c  om
    timestamp = _rio_a.readLong("timestamp");
    {
        org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("dimensions");
        dimensions = new java.util.TreeMap<String, String>();
        for (; !_rio_midx1.done(); _rio_midx1.incr()) {
            String _rio_k1;
            _rio_k1 = _rio_a.readString("_rio_k1");
            String _rio_v1;
            _rio_v1 = _rio_a.readString("_rio_v1");
            dimensions.put(_rio_k1, _rio_v1);
        }
        _rio_a.endMap("dimensions");
    }
    unit = _rio_a.readString("unit");
    _rio_a.endRecord(_rio_tag);
}

From source file:fm.last.darling.io.records.NSpacePoint.java

License:Apache License

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
        throws java.io.IOException {
    if (null == _rio_rtiFilter) {
        deserializeWithoutFilter(_rio_a, _rio_tag);
        return;/*from w w  w  .j a  va  2  s  . co  m*/
    }
    // if we're here, we need to read based on version info
    _rio_a.startRecord(_rio_tag);
    setupRtiFields();
    for (int _rio_i = 0; _rio_i < _rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
        if (1 == _rio_rtiFilterFields[_rio_i]) {
            timestamp = _rio_a.readLong("timestamp");
        } else if (2 == _rio_rtiFilterFields[_rio_i]) {
            {
                org.apache.hadoop.record.Index _rio_midx1 = _rio_a.startMap("dimensions");
                dimensions = new java.util.TreeMap<String, String>();
                for (; !_rio_midx1.done(); _rio_midx1.incr()) {
                    String _rio_k1;
                    _rio_k1 = _rio_a.readString("_rio_k1");
                    String _rio_v1;
                    _rio_v1 = _rio_a.readString("_rio_v1");
                    dimensions.put(_rio_k1, _rio_v1);
                }
                _rio_a.endMap("dimensions");
            }
        } else if (3 == _rio_rtiFilterFields[_rio_i]) {
            unit = _rio_a.readString("unit");
        } else {
            java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>) (_rio_rtiFilter
                    .getFieldTypeInfos());
            org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(),
                    typeInfos.get(_rio_i).getTypeID());
        }
    }
    _rio_a.endRecord(_rio_tag);
}

From source file:net.thecubic.mockbi.MockBISummaryKey.java

License:Apache License

@Override
public void deserialize(RecordInput ri, String ctx) throws IOException {
    ri.startRecord(ctx);/*from w  w  w.  j  a  v a 2 s  .  co  m*/
    timeSeriesBin = new Date(ri.readLong("timeSeriesBin") * 1000L);
    timeSeriesInterval = new Long(ri.readLong("timeSeriesInterval") * 1000L);
    binLevel = ri.readInt("binLevel");
    //analysisParams = new LinkedHashMap<String,String>();
    for (Index ad_idx = ri.startMap("analysisParams"); !ad_idx.done(); ad_idx.incr()) {
        analysisParams.put(ri.readString("key"), ri.readString("value"));
    }
    ri.endMap("analysisParams");
    ri.endRecord(ctx);
}