目錄
- MySQL Shell import_table數據導入
- 1. import_table介紹
- 2. Load Data 與 import table功能示例
- 2.1 用Load Data方式導入數據
- 2.2 用import_table方式導入數據
- 3. import_table特定功能
- 3.1 多文件導入(模糊匹配)
- 3.2 并發導入
- 3.3 導入速率控制
- 3.4 自定義chunk大小
- 4. Load Data vs import_table性能對比
MySQL Shell import_table數據導入
1. import_table介紹
這一期我們介紹一款高效的數據導入工具,MySQL Shell 工具集中的import_table,該工具的全稱是Parallel Table Import Utility,顧名思義,支持并發數據導入,該工具在MySQL Shell 8.0.23版本后,功能更加完善, 以下列舉該工具的核心功能
- 基本覆蓋了MySQL Data Load的所有功能,可以作為替代品使用
- 默認支持并發導入(支持自定義chunk大小)
- 支持通配符匹配多個文件同時導入到一張表(非常適用于相同結構數據匯總到一張表)
- 支持限速(對帶寬使用有要求的場景,非常合適)
- 支持對壓縮文件處理
- 支持導入到5.7及以上MySQL
2. Load Data 與 import table功能示例
該部分針對import table和Load Data相同的功能做命令示例演示,我們依舊以導入employees表的示例數據為例,演示MySQL Load Data的綜合場景
示例數據如下:
[root@10-186-61-162 tmp]# cat employees_01.csv
"10001","1953-09-02","Georgi","Facello","M","1986-06-26"
"10003","1959-12-03","Parto","Bamford","M","1986-08-28"
"10002","1964-06-02","Bezalel","Simmel","F","1985-11-21"
"10004","1954-05-01","Chirstian","Koblick","M","1986-12-01"
"10005","1955-01-21","Kyoichi","Maliniak","M","1989-09-12"
"10006","1953-04-20","Anneke","Preusig","F","1989-06-02"
"10007","1957-05-23","Tzvetan","Zielinski","F","1989-02-10"
"10008","1958-02-19","Saniya","Kalloufi","M","1994-09-15"
"10009","1952-04-19","Sumant","Peac","F","1985-02-18"
"10010","1963-06-01","Duangkaew","Piveteau","F","1989-08-24"
示例表結構:
10.186.61.162:3306 employees SQL > desc emp;
+-------------+---------------+------+-----+---------+-------+
| Field | Type | Null | Key | Default | Extra |
+-------------+---------------+------+-----+---------+-------+
| emp_no | int | NO | PRI | NULL | |
| birth_date | date | NO | | NULL | |
| first_name | varchar(14) | NO | | NULL | |
| last_name | varchar(16) | NO | | NULL | |
| full_name | varchar(64) | YES | | NULL | | -- 表新增字段,導出數據文件中不存在
| gender | enum('M','F') | NO | | NULL | |
| hire_date | date | NO | | NULL | |
| modify_date | datetime | YES | | NULL | | -- 表新增字段,導出數據文件中不存在
| delete_flag | varchar(1) | YES | | NULL | | -- 表新增字段,導出數據文件中不存在
+-------------+---------------+------+-----+---------+-------+
2.1 用Load Data方式導入數據
load data infile '/data/mysql/3306/tmp/employees_01.csv'
into table employees.emp
character set utf8mb4
fields terminated by ','
enclosed by '"'
lines terminated by '\n'
(@C1,@C2,@C3,@C4,@C5,@C6)
set emp_no=@C1,
birth_date=@C2,
first_name=upper(@C3),
last_name=lower(@C4),
full_name=concat(first_name,' ',last_name),
gender=@C5,
hire_date=@C6 ,
modify_date=now(),
delete_flag=if(hire_date'1988-01-01','Y','N');

2.2 用import_table方式導入數據
util.import_table(
[
"/data/mysql/3306/tmp/employees_01.csv",
],
{
"schema": "employees",
"table": "emp",
"dialect": "csv-unix",
"skipRows": 0,
"showProgress": True,
"characterSet": "utf8mb4",
"columns": [1,2,3,4,5,6], ## 文件中多少個列就用多少個序號標識就行
"decodeColumns": {
"emp_no": "@1", ## 對應文件中的第1列
"birth_date": "@2", ## 對應文件中的第2個列
"first_name": "upper(@3)", ## 對應文件中的第3個列,并做轉為大寫的處理
"last_name": "lower(@4)", ## 對應文件中的第4個列,并做轉為大寫的處理
"full_name": "concat(@3,' ',@4)", ## 將文件中的第3,4列合并成一列生成表中字段值
"gender": "@5", ## 對應文件中的第5個列
"hire_date": "@6", ## 對應文件中的第6個列
"modify_date": "now()", ## 用函數生成表中字段值
"delete_flag": "if(@6'1988-01-01','Y','N')" ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
}
})


3. import_table特定功能
3.1 多文件導入(模糊匹配)
## 在導入前我生成好了3分單獨的employees文件,導出的結構一致
[root@10-186-61-162 tmp]# ls -lh
總用量 1.9G
-rw-r----- 1 mysql mysql 579 3月 24 19:07 employees_01.csv
-rw-r----- 1 mysql mysql 584 3月 24 18:48 employees_02.csv
-rw-r----- 1 mysql mysql 576 3月 24 18:48 employees_03.csv
-rw-r----- 1 mysql mysql 1.9G 3月 26 17:15 sbtest1.csv
## 導入命令,其中對對文件用employees_*做模糊匹配
util.import_table(
[
"/data/mysql/3306/tmp/employees_*",
],
{
"schema": "employees",
"table": "emp",
"dialect": "csv-unix",
"skipRows": 0,
"showProgress": True,
"characterSet": "utf8mb4",
"columns": [1,2,3,4,5,6], ## 文件中多少個列就用多少個序號標識就行
"decodeColumns": {
"emp_no": "@1", ## 對應文件中的第1列
"birth_date": "@2", ## 對應文件中的第2個列
"first_name": "upper(@3)", ## 對應文件中的第3個列,并做轉為大寫的處理
"last_name": "lower(@4)", ## 對應文件中的第4個列,并做轉為大寫的處理
"full_name": "concat(@3,' ',@4)", ## 將文件中的第3,4列合并成一列生成表中字段值
"gender": "@5", ## 對應文件中的第5個列
"hire_date": "@6", ## 對應文件中的第6個列
"modify_date": "now()", ## 用函數生成表中字段值
"delete_flag": "if(@6'1988-01-01','Y','N')" ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
}
})
## 導入命令,其中對要導入的文件均明確指定其路徑
util.import_table(
[
"/data/mysql/3306/tmp/employees_01.csv",
"/data/mysql/3306/tmp/employees_02.csv",
"/data/mysql/3306/tmp/employees_03.csv"
],
{
"schema": "employees",
"table": "emp",
"dialect": "csv-unix",
"skipRows": 0,
"showProgress": True,
"characterSet": "utf8mb4",
"columns": [1,2,3,4,5,6], ## 文件中多少個列就用多少個序號標識就行
"decodeColumns": {
"emp_no": "@1", ## 對應文件中的第1列
"birth_date": "@2", ## 對應文件中的第2個列
"first_name": "upper(@3)", ## 對應文件中的第3個列,并做轉為大寫的處理
"last_name": "lower(@4)", ## 對應文件中的第4個列,并做轉為大寫的處理
"full_name": "concat(@3,' ',@4)", ## 將文件中的第3,4列合并成一列生成表中字段值
"gender": "@5", ## 對應文件中的第5個列
"hire_date": "@6", ## 對應文件中的第6個列
"modify_date": "now()", ## 用函數生成表中字段值
"delete_flag": "if(@6'1988-01-01','Y','N')" ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
}
})

3.2 并發導入
在實驗并發導入前我們創建一張1000W的sbtest1表(大約2G數據),做并發模擬,import_table用threads參數作為并發配置, 默認為8個并發.
## 導出測試需要的sbtest1數據
[root@10-186-61-162 tmp]# ls -lh
總用量 1.9G
-rw-r----- 1 mysql mysql 579 3月 24 19:07 employees_01.csv
-rw-r----- 1 mysql mysql 584 3月 24 18:48 employees_02.csv
-rw-r----- 1 mysql mysql 576 3月 24 18:48 employees_03.csv
-rw-r----- 1 mysql mysql 1.9G 3月 26 17:15 sbtest1.csv
## 開啟threads為8個并發
util.import_table(
[
"/data/mysql/3306/tmp/sbtest1.csv",
],
{
"schema": "demo",
"table": "sbtest1",
"dialect": "csv-unix",
"skipRows": 0,
"showProgress": True,
"characterSet": "utf8mb4",
"threads": "8"
})

3.3 導入速率控制
可以通過maxRate和threads來控制每個并發線程的導入數據,如,當前配置線程為4個,每個線程的速率為2M/s,則最高不會超過8M/s
util.import_table(
[
"/data/mysql/3306/tmp/sbtest1.csv",
],
{
"schema": "demo",
"table": "sbtest1",
"dialect": "csv-unix",
"skipRows": 0,
"showProgress": True,
"characterSet": "utf8mb4",
"threads": "4",
"maxRate": "2M"
})

3.4 自定義chunk大小
默認的chunk大小為50M,我們可以調整chunk的大小,減少事務大小,如我們將chunk大小調整為1M,則每個線程每次導入的數據量也相應減少
util.import_table(
[
"/data/mysql/3306/tmp/sbtest1.csv",
],
{
"schema": "demo",
"table": "sbtest1",
"dialect": "csv-unix",
"skipRows": 0,
"showProgress": True,
"characterSet": "utf8mb4",
"threads": "4",
"bytesPerChunk": "1M",
"maxRate": "2M"
})

4. Load Data vs import_table性能對比
- 使用相同庫表
- 不對數據做特殊處理,原樣導入
- 不修改參數默認值,只指定必備參數
-- Load Data語句
load data infile '/data/mysql/3306/tmp/sbtest1.csv'
into table demo.sbtest1
character set utf8mb4
fields terminated by ','
enclosed by '"'
lines terminated by '\n'
-- import_table語句
util.import_table(
[
"/data/mysql/3306/tmp/sbtest1.csv",
],
{
"schema": "demo",
"table": "sbtest1",
"dialect": "csv-unix",
"skipRows": 0,
"showProgress": True,
"characterSet": "utf8mb4"
})

可以看到,Load Data耗時約5分鐘,而import_table則只要不到一半的時間即可完成數據導入,效率高一倍以上(虛擬機環境磁盤IO能力有限情況下)
以上就是MySQL Shell import_table數據導入詳情的詳細內容,更多關于import_table數據導入的資料請關注腳本之家其它相關文章!
您可能感興趣的文章:- MySQL 發生同步延遲時Seconds_Behind_Master還為0的原因
- 詳解MySQL的Seconds_Behind_Master
- python3文件復制、延遲文件復制任務的實現方法
- docker實現mysql主從復制的示例代碼
- MySQL數據庫 Load Data 多種用法
- Mysql數據庫的主從同步配置
- Mysql實現簡易版搜索引擎的示例代碼
- MySQL命令無法輸入中文問題的解決方式
- 當面試官問mysql中char與varchar的區別
- MySQL的從庫Seconds_Behind_Master延遲總結