好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > hive從mysql導入數據量變多的解決方案

hive從mysql導入數據量變多的解決方案

熱門標簽:地圖標注被騙三百怎么辦 云南語音外呼系統平臺 常州電銷外呼系統一般多少錢 北京人工外呼系統價錢 沃克斯電梯外呼線路圖 福州呼叫中心外呼系統哪家好 房產智能外呼系統品牌 400電話鄭州申請 天智外呼系統

原始導數命令:

bin/sqoop import -connect jdbc:mysql://192.168.169.128:3306/yubei -username root -password 123456 -table yl_city_mgr_evt_info --split-by rec_id -m 4 --fields-terminated-by "\t" --lines-terminated-by "\n" --hive-import --hive-overwrite -create-hive-table -delete-target-dir -hive-database default -hive-table yl_city_mgr_evt_info

原因分析:可能是mysql中字段里面有'\n'等分隔符,導入hive時默認以'n'作換行符,導致hive中的記錄數變多。

解決方法:

導入數據時加上--hive-drop-import-delims選項,會刪除字段中的\n,\r,\01。

最終導數命令:

bin/sqoop import -connect jdbc:mysql://192.168.169.128:3306/yubei -username root -password 123456 -table yl_city_mgr_evt_info --split-by rec_id -m 4 --hive-drop-import-delims --fields-terminated-by "\t" --lines-terminated-by "\n" --hive-import --hive-overwrite -create-hive-table -delete-target-dir -hive-database default -hive-table yl_city_mgr_evt_info

參考官方文檔:https://sqoop.apache.org/docs/1.4.7/SqoopUserGuide.html

補充:Sqoop導入MySQL數據到Hive遇到的坑

1.sqoop導入到HDFS

1.1執行sqoop job,會自動更新last value

# sqoop 增量導入腳本
bin/sqoop job --create sqoop_hdfs_test02 -- import \

--connect jdbc:mysql://localhost:3306/pactera_test \

--username root \

--password 123456 \

--table student \

--target-dir /user/sqoop/test002/ \

--fields-terminated-by "\t" \

--check-column last_modified \

--incremental lastmodified \

--last-value "2018-12-12 00:03:00" \

--append

說明:--append 參數是必須的,要不然第二次運行job 會報錯,如下:

至此,sqoop job 已建設完畢!

2.Hive創建表,并讀取sqoop導入的數據

create external table if not exists student_hive (SId int,Sname string ,Sage string,Ssex string , last_modified Timestamp) 
row format delimited fields terminated by '\t' location 'hdfs://node01:8020/user/sqoop/test002/';

注意:此處hive中時間的格式為timestamp,設置為date DB數據無法正常加載。

第一次全量加載,整條路線完全OK,hive表可以查詢到數據。

-----------------------重點分割線-----------------------

* sqoop lastmodified格式的增量加載,會將last-value 保存為job執行的系統時間,若測試數據庫的check-column 小于當前系統時間(即上一個job的last-value),則數據將不被加載。

如SId=6 就沒有被加載,遂改為今日時間(2018-12-26 17:05)進行數據測試,數據成功被加載!喲呵!!

總結:

使用lastmodified格式,進行sqoop增量導入時,

1.注意--append的使用;

2.last-value為job運行的系統時間,在數據測試時,要保證數據的準確,數據的自增長。

3.一切皆有定數,查看資料,準確定位自己系統遇到的問題

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • MySQL如何快速導入數據
  • MySQL 4種導入數據的方法
  • mysql如何利用Navicat導出和導入數據庫的方法
  • Java利用MYSQL LOAD DATA LOCAL INFILE實現大批量導入數據到MySQL
  • MySQL命令行導出導入數據庫實例詳解
  • wampserver下mysql導入數據庫的步驟
  • MySQL命令行導出與導入數據庫
  • 使用mysqldump導入數據和mysqldump增量備份(mysqldump使用方法)
  • MYSQL 導入數據的幾種不同
  • 修改php.ini實現Mysql導入數據庫文件最大限制的修改方法
  • .Net Core導入千萬級數據至Mysql的步驟

標簽:移動 鹽城 沈陽 徐州 珠海 拉薩 沈陽 黔東

巨人網絡通訊聲明:本文標題《hive從mysql導入數據量變多的解決方案》,本文關鍵詞  hive,從,mysql,導入,數據,量變,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《hive從mysql導入數據量變多的解決方案》相關的同類信息!
  • 本頁收集關于hive從mysql導入數據量變多的解決方案的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 亚洲不卡中文字幕| 国产成人免费视频在线观看| 天天干天天曰天天操| 国产女人久久久毛片一级毛片| 国产97精品一区二区在线观看 | 武松潘金莲激情肉欲小说最新章节| 色婷婷久久一区二区三区麻豆| 男人摸美女的咪咪动态图| 双人床上做的运动剧烈软件下载| 少妇婬荡呻吟久久久久久麻豆网站 | 片子免费在线观看| 国产精品久久久久久久久久软件| 美女视频黄a视频全免费观看蜜| 欧美性猛交xxxxx按摩国内| 国产一级免费视频| chinese男模gay呻吟| 韩国特级一级毛片无遮挡| 日韩激情中文字幕一区二区| 久久精品中文字幕极品 | 色视频www在线播放国产人成| 《年轻的老师4线在完整版韩剧》 玩弄极品少妇高潮抽搐电影 | 啊灬用力啊灬啊灬快灬深视频 | 国产精品成| 国产精品区在线12p| 久久99精品久久久久久无码拍| 变态另类一区二区sM| 人人射网站| 亚洲片在线观看| IPZ-739被调教的天海翼| 中文人妻AV久久人妻18| 中国娇小性自由枯瘦| 中文乱码字幕午夜无线观看| 久久亭亭| 边做边尿好爽~H双男主| 大胆国模一区二区三区伊人| 韩漫画| freesexvideos性大全性亚洲| 欧一美一婬一伦一区二区三区自慰| 和黑人做爰下边好大舒服视频| 九九热视频精品在线| 好紧好湿太硬了太爽啦|