Pandas 支持多种存储格式,在本文中将对不同类型存储格式下的Pandas Dataframe的读取速度、写入速度和大小的进行测试对比。 ![]() 创建测试Dataframe首先创建一个包含不同类型数据的测试Pandas Dataframe。 import pandas as pdimport randomimport stringimport numpy as np# Config DFdf_length= 10**6start_date= '2023-01-01'all_string= list(string.ascii_letters + string.digits)string_length= 10**1min_number= 0max_number= 10**3# Create Columnsdate_col= pd.date_range(start= start_date, periods= df_length, freq= 'H')str_col= [''.join(np.random.choice(all_string, string_length)) for i in range(df_length)]float_col= np.random.rand(df_length)int_col= np.random.randint(min_number,max_number, size = df_length)# Create DataFramedf= pd.DataFrame({'date_col' : date_col, 'str_col' : str_col, 'float_col' : float_col, 'int_col' : int_col})df.info()df.head() 以不同的格式存储接下来创建测试函数,以不同的格式进行读写。
然后运行该函数并将结果存储在另一个Pandas Dataframe中。 test_case= [['df.csv','infer'],['df.csv','gzip'],['df.pickle','infer'],['df.pickle','gzip'],['df.parquet','snappy'],['df.parquet','gzip'],['df.orc','default'],['df.feather','default'],['df.h5','default'],]result= []for i in test_case :result.append(check_read_write_size(df, i[0], compression= i[1]))result_df= pd.DataFrame(result, columns= ['format','compression','read_time','write_time','file_size'])result_df 测试结果下面的图表和表格是测试的结果。 ![]() 我们对测试的结果做一个简单的分析 CSV
Pickle
Feather 最快的读写速度,文件的大小也是中等,非常的平均 ORC
Parquet 总的来说,快速并且非常小,但是并不是最快也不是最小的 总结从结果来看,我们应该使用ORC或Feather,而不再使用CSV ?是吗? “这取决于你的系统。” 如果你正在做一些单独的项目,那么使用最快或最小的格式肯定是有意义的。 但大多数时候,我们必须与他人合作。所以,除了速度和大小,还有更多的因素。 未压缩的CSV可能很慢,而且最大,但是当需要将数据发送到另一个系统时,它非常容易。 ORC作为传统的大数据处理格式(来自Hive)对于速度的和大小的优化是做的最好的,Parquet比ORC更大、更慢,但是它却是在速度和大小中取得了最佳的平衡,并且支持他的生态也多,所以在需要处理大文件的时候可以优先选择Parquet。 |
|