最近做的项目,有个需求(从Elastic Search取数据,业务运算后),每次要向MySQL插入1300万条数据左右。最初用MySQL的executemany()一次插入10000条数据,统计的时间如下: 如上,插入时间由于系统的IO变化,会有波动,最快在4秒左右。 后改为"load data infile"大概,10万条数据平均1秒~1.5秒,实际的代码示例如下: query = "LOAD DATA INFILE '/var/lib/mysql-files/es.csv' INTO TABLE g_visit_relation_asset_temp FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' IGNORE 1 LINES (srcip, srcport, dstip, dstport, l7p, @dummy, cnt, @dummy, cnt_date)" mysqlcur.execute(query) mysqlconn.commit() 说明: (1)MySQL需要开启对"load data inflie"的权限支持 mysqlcur.execute("SET GLOBAL local_infile = 1")
(2)需要对mysql文件目录(笔者: “/var/lib/my-files/”)具有管理员的权限(查看mysql路径,用“locate mysql”)
如果没有的话,可以指定本地路径(速度大概要慢%20),需要加上关键字"local"即:
LOAD DATA LOCAL (3)Concurrency 支持 如果默认是 (4)IGNORE 1 LINES (跳过第一行) 笔者通过python pandas to_csv()导出的csv是带标题的,如下: 不需要标题导入到数据库,就跳过嘛 (5)@dummy ,通过占位符,跳过不需要的数据 导入到表的column顺序必须和文件保持一致,通过@dummy可以跳过不需要的column(示例跳过totoal_flow_size 和 direction) (6)character set 指定字符集 对于汉字,你需要加上 character set utf8 (8)分隔符及换行符 以“,“作为分隔符,以“\n"作为换行符: FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' 其他性能优化相关(Only for MyISAM): 通过设置隔离级别、去除索引检查、唯一性检查等提高速度(分session和global级别)提高写入速度,插入之前,设置如下配置: mysqlcur.execute("SET SESSION FOREIGN_KEY_CHECKS = 0") mysqlcur.execute("SET SESSION UNIQUE_CHECKS = 0") mysqlcur.execute("SET SESSION tx_isolation='READ-UNCOMMITTED'") mysqlcur.execute("SET SESSION sql_log_bin = 0") Loda data infile 完了再改回去,如下: mysqlcur.execute("SET SESSION FOREIGN_KEY_CHECKS = 1") mysqlcur.execute("SET SESSION UNIQUE_CHECKS = 1") mysqlcur.execute("SET SESSION tx_isolation='REPEATABLE-READ'") mysqlcur.execute("SET SESSION sql_log_bin = 1") “DISABLE KEYS” 然后 “ENABLE KEYS”,笔者实际测试没什么用,只是导入数据更快,总的时间并没有提升。区别在于:一个是插入一条,创建一个索引;一个是全部导入完了后,再一次创建所有索引。 引用:
******************************************************************************************* 精力有限,想法太多,专注做好一件事就行
******************************************************************************************* |
|