作者:俊欣 来源:关于数据分析与可视化 今天小编来和大家分享几个Pandas实战技巧,相信大家看了之后肯定会有不少的收获。 读取数据read_csv()用来读取csv格式的数据集,当然我们这其中还是有不少玄机在其中的 pd.read_csv('data.csv') 只读取数据集当中的某几列我们只是想读取数据集当中的某几列,就可以调用其中的usecols参数,代码如下
output 时间类型的数据解析主要用到的是parse_dates参数,代码如下 df = pd.read_csv('Tesla.csv', parse_dates=['Date'])df.head() output 对于数据类型加以设定主要调用的是dtype这个参数,同时合适的数据类型能够为数据集节省不少的内存空间,代码如下
设置索引用到的是index_col这个参数,代码如下 df = pd.read_csv('Tesla.csv', index_col='Date')df.head() output 只读取部分读取用到的是nrows参数,代码如下
output (100, 7) 跳过某些行要是数据集当中存在着一些我们并不想包括在内的内容,可以直接跳过,skiprows参数,代码如下
遇到了空值咋办呢?要是遇到了空值,我们可以将空值用其他的值来代替,代码如下 df = pd.read_csv('data.csv', na_values=['?']) 那么布尔值呢?对于布尔值而言,我们也可以设定换成是其他的值来代替,代码如下
从多个csv文件中读取数据还可以从多个csv文件当中来读取数据,通过glob模块来实现,代码如下 import globimport osfiles = glob.glob('file_*.csv')result = pd.concat([pd.read_csv(file) for file in files], ignore_index=True) 要是从PDF文件当中来读取数据我们的表格数据存在于pdf文件当中,需要从pdf文件当中来读取数据,代码如下
探索性数据分析三行代码直接生成通过调用pandas_profilling模块,三行代码直接生成数据分析的报告,代码如下 # 安装pandas-profilling模块# %pip install pandas-profilingimport pandas_profilingdf = pd.read_csv('data.csv')profile = df.profile_report(title='Pandas Profiling Report')profile.to_file(output_file='output.html') 基于数据类型的操作pandas能够表示的数据类型有很多 基于数据类型来筛选数据我们希望筛选出来的数据包含或者是不包含我们想要的数据类型的数据,代码如下
推断数据类型主要调用的是infer_objects()方法,代码如下 df.infer_objects().dtypes 手动进行数据类型的转换我们手动地进行数据类型的转换,要是遇到不能转换的情况时,errors='coerce'将其换转成NaN,代码如下
一次性完成数据类型的转换用到的是astype方法,代码如下 df = df.astype( { 'date': 'datetime64[ns]', 'price': 'int', 'is_weekend': 'bool', 'status': 'category', }) 列的操作重命名rename()方法进行列的重命名,代码如下
添加前缀或者是后缀add_prefix()方法以及add_suffix()方法,代码如下 df.add_prefix('pre_')df.add_suffix('_suf') 新建一个列调用的是assign方法,当然除此之外还有其他的方法可供尝试,代码如下
在指定的位置插入新的一列同样也是用到insert方法,代码如下 random_col = np.random.randint(10, size=len(df))df.insert(3, 'random_col', random_col) # 在第三列的地方插入 if-else逻辑判断
去掉某些列调用的是drop()方法,代码如下 df.drop('col1', axis=1, inplace=True)df = df.drop(['col1','col2'], axis=1)df.drop(df.columns[0], inplace=True) 字符串的操作列名的操作要是我们想要对列名做出一些改变,代码如下
Contains()方法## 是否包含了某些字符串df['name'].str.contains('John')## 里面可以放置正则表达式df['phone_num'].str.contains('...-...-....', regex=True) # regex findall()方法
缺失值查看空值的比例我们要是想要查看在数据集当中空值所占的比例,代码如下 def missing_vals(df): '''空值所占的百分比''' missing = [ (df.columns[idx], perc) for idx, perc in enumerate(df.isna().mean() * 100) if perc > 0 ] if len(missing) == 0: return '没有空值数据的存在' # 排序 missing.sort(key=lambda x: x[1], reverse=True) print(f'总共有 {len(missing)} 个变量存在空值\n') for tup in missing: print(str.ljust(f'{tup[0]:<20} => {round(tup[1], 3)}%', 1)) output
空值的处理方式我们可以选择将空值去除掉,或者用平均值或者其他数值来进行填充,代码如下 # 去除掉空值 df.dropna(axis=0)df.dropna(axis=1)# 换成其他值来填充df.fillna(0)df.fillna(method='ffill')df.fillna(method='bfill')# 取代为其他的数值df.replace( -999, np.nan)df.replace('?', np.nan)# 推测其空值应该为其他什么数值ts.interpolate() # time seriesdf.interpolate() # fill all consecutive values forwarddf.interpolate(limit=1) # fill one consecutive value forwarddf.interpolate(limit=1, limit_direction='backward')df.interpolate(limit_direction='both') 日期格式的数据处理获取指定时间的数据
通过日期时间来获取数据df[(df['Date'] > '2015-10-01') & (df['Date'] < '2018-01-05')] 通过指定日期来获取数据
将格式化数据集保留指定位数对于一些浮点数的数据,我们希望可以保留小数点后的两位或者是三位,代码如下 format_dict = { 'Open': '${:.2f}', 'Close': '${:.2f}', 'Volume': '{:,}',}df.style.format(format_dict) output 高亮显示数据对于指定的一些数据,我们希望是高亮显示,代码如下
output |
|