分享

大数据IMF传奇行动绝密课程第64课:Spark SQL下Parquet的数据切分和压缩内幕详解

 看风景D人 2019-02-24

1、Spark SQL下的Parquet数据切分
2、Spark SQL下的Parquet数据压缩

parquetBlocksize总体上讲是压缩后的大小

private static final Log LOG = Log.getLog(ParquetOutputFormat.class);
public static final String BLOCK_SIZE = “parquet.block.size”;
public static final String PAGE_SIZE = “parquet.page.size”;
public static final String COMPRESSION = “parquet.compression”;
public static final String WRITE_SUPPORT_CLASS = “parquet.write.support.class”;
public static final String DICTIONARY_PAGE_SIZE = “parquet.dictionary.page.size”;
public static final String ENABLE_DICTIONARY = “parquet.enable.dictionary”;
public static final String VALIDATION = “parquet.validation”;
public static final String WRITER_VERSION = “parquet.writer.version”;
public static final String ENABLE_JOB_SUMMARY = “parquet.enable.summary-metadata”;
public static final String MEMORY_POOL_RATIO = “parquet.memory.pool.ratio”;
public static final String MIN_MEMORY_ALLOCATION = “parquet.memory.min.chunk.size”;

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多