好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > sqoop export導出 map100% reduce0% 卡住的多種原因及解決

sqoop export導出 map100% reduce0% 卡住的多種原因及解決

熱門標簽:福州呼叫中心外呼系統哪家好 沃克斯電梯外呼線路圖 400電話鄭州申請 地圖標注被騙三百怎么辦 北京人工外呼系統價錢 天智外呼系統 房產智能外呼系統品牌 云南語音外呼系統平臺 常州電銷外呼系統一般多少錢

我稱這種bug是一個典型的“哈姆雷特”bug,就是指那種“報錯情況相同但網上卻會有各種五花繚亂解決辦法”的bug,讓我們不知道哪一個才是癥結所在。

先看導入命令:

[root@host25 ~]# 
sqoop export --connect "jdbc:mysql://172.16.xxx.xxx:3306/dbname?useUnicode=truecharacterEncoding=utf-8" 
--username=root --password=xxxxx --table rule_tag --update-key rule_code 
--update-mode allowinsert 
--export-dir /user/hive/warehouse/lmj_test.db/rule_tag --input-fields-terminated-by '\t' 
--input-null-string '\\N' --input-null-non-string '\\N' -m1

這個導入命令語法上其實是完全沒問題的。

接下來是報錯:

#截取部分
19/06/11 09:39:57 INFO mapreduce.Job: The url to track the job: http://dthost25:8088/proxy/application_1554176896418_0537/
19/06/11 09:39:57 INFO mapreduce.Job: Running job: job_1554176896418_0537
19/06/11 09:40:05 INFO mapreduce.Job: Job job_1554176896418_0537 running in uber mode : false
19/06/11 09:40:05 INFO mapreduce.Job: map 0% reduce 0%
19/06/11 09:40:19 INFO mapreduce.Job: map 100% reduce 0%
19/06/11 09:45:34 INFO mapreduce.Job: Task Id : attempt_1554176896418_0537_m_000000_0, Status : FAILED
AttemptID:attempt_1554176896418_0537_m_000000_0 Timed out after 300 secs
19/06/11 09:45:36 INFO mapreduce.Job: map 0% reduce 0%
19/06/11 09:45:48 INFO mapreduce.Job: map 100% reduce 0%
19/06/11 09:51:04 INFO mapreduce.Job: Task Id : attempt_1554176896418_0537_m_000000_1, Status : FAILED
AttemptID:attempt_1554176896418_0537_m_000000_1 Timed out after 300 secs
19/06/11 09:51:05 INFO mapreduce.Job: map 0% reduce 0%
19/06/11 09:51:17 INFO mapreduce.Job: map 100% reduce 0%
19/06/11 09:56:34 INFO mapreduce.Job: Task Id : attempt_1554176896418_0537_m_000000_2, Status : FAILED
AttemptID:attempt_1554176896418_0537_m_000000_2 Timed out after 300 secs
19/06/11 09:56:35 INFO mapreduce.Job: map 0% reduce 0%
19/06/11 09:56:48 INFO mapreduce.Job: map 100% reduce 0%
19/06/11 10:02:05 INFO mapreduce.Job: Job job_1554176896418_0537 failed with state FAILED due to: Task failed task_1554176896418_0537_m_000000
Job failed as tasks failed. failedMaps:1 failedReduces:0
19/06/11 10:02:05 INFO mapreduce.Job: Counters: 9
 Job Counters 
 Failed map tasks=4
 Launched map tasks=4
 Other local map tasks=3
 Data-local map tasks=1
 Total time spent by all maps in occupied slots (ms)=2624852
 Total time spent by all reduces in occupied slots (ms)=0
 Total time spent by all map tasks (ms)=1312426
 Total vcore-seconds taken by all map tasks=1312426
 Total megabyte-seconds taken by all map tasks=2687848448
19/06/11 10:02:05 WARN mapreduce.Counters: Group FileSystemCounters is deprecated. Use org.apache.hadoop.mapreduce.FileSystemCounter instead
19/06/11 10:02:05 INFO mapreduce.ExportJobBase: Transferred 0 bytes in 1,333.3153 seconds (0 bytes/sec)
19/06/11 10:02:05 WARN mapreduce.Counters: Group org.apache.hadoop.mapred.Task$Counter is deprecated. Use org.apache.hadoop.mapreduce.TaskCounter instead
19/06/11 10:02:05 INFO mapreduce.ExportJobBase: Exported 0 records.
19/06/11 10:02:05 ERROR tool.ExportTool: Error during export: Export job failed!
Time taken: 1340 s 
task IDE_TASK_ADE56470-B5A3-4303-EA75-44312FF8AA0C_20190611093945147 is complete.

可以看到,導入任務在INFO mapreduce.Job: map 100% reduce 0%時停住了,停了5分鐘,然后任務自動重跑,又卡住停了5分鐘,最后任務報了個超時的錯誤。

很顯然,任務失敗的直接原因是超時,但是超時的原因是因為導入過程的mapreduce任務卡住了,那mapreduce為什么會卡住呢?這個報錯日志中并沒有提到,這就是查原因時最麻煩的地方。

先說一下結果,最后查了很久才發現,是因為有一行的數據長度,超過了mysql設定的字段長度。也就是在往varchar(50)的字段里導入字符串“字符串很長很長很長很長很長很長很長很長很長”時,任務就阻塞住了。

在這里也跟大家匯總一下網上的各種原因,大家可以逐個檢查

在map 100% reduce 0%時卡住的可能原因:(以往mysql導出為例)

1、長度溢出。導入的數據超過了mysql表的字段設定長度

解決辦法:重設字段長度即可

2、編碼錯誤。導入的數據不在mysql的編碼字符集內

解決辦法:其實在mysql數據庫中對應UTF-8字符集的不是utf8編碼,而是utf8mb4編碼。所以當你的導入數據里有若如Emoji表情或者一些生僻漢字時,就會導不進去造成阻塞卡住。所以你需要注意兩點:

(1)導入語句中限定useUnicode=truecharacterEncoding=utf-8,表示以utf-8的格式導出;

(2)mysql建表語句中有ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;

3、內存不足。導入數據量可能過大,或者分配內存太少

解決辦法:要么分批導入,要么給任務分配更多內存

4、主機名錯誤。

解決辦法:這個好像是涉及到主機名的配置問題

5、主鍵重復 。

解決辦法:這是因為你導入的數據中有重復的主鍵值,要針對性處理一下數據

補充:sqoop從數據庫到處數據到hdfs時mapreduce卡住不動解決

在sqoop時從數據庫中導出數據時,出現mapreduce卡住的情況

經過百度之后好像是要設置yarn里面關于內存和虛擬內存的配置項.我以前沒配置這幾項,也能正常運行。但是這次好像運行的比較大。出現此故障的原因應該是,在每個Docker分配的內存和CPU資源太少,不能滿足Hadoop和Hive運行所需的默認資源需求。

解決方案如下:

在yarn-site.xml中加入如下配置:

property> 
 name>yarn.nodemanager.resource.memory-mb/name> 
 value>20480/value> 
/property> 
property> 
 name>yarn.scheduler.minimum-allocation-mb/name> 
 value>2048/value> 
/property> 
property> 
 name>yarn.nodemanager.vmem-pmem-ratio/name> 
 value>2.1/value> 
/property> 

關閉yarn重啟就好了?。?!

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • 在Hadoop集群環境中為MySQL安裝配置Sqoop的教程
  • 解決sqoop從postgresql拉數據,報錯TCP/IP連接的問題
  • sqoop讀取postgresql數據庫表格導入到hdfs中的實現
  • 解決sqoop import 導入到hive后數據量變多的問題
  • sqoop 實現將postgresql表導入hive表
  • 使用shell腳本執行hive、sqoop命令的方法
  • Sqoop的安裝與使用詳細教程

標簽:珠海 移動 徐州 沈陽 沈陽 鹽城 拉薩 黔東

巨人網絡通訊聲明:本文標題《sqoop export導出 map100% reduce0% 卡住的多種原因及解決》,本文關鍵詞  sqoop,export,導出,map100%,reduce0%,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《sqoop export導出 map100% reduce0% 卡住的多種原因及解決》相關的同類信息!
  • 本頁收集關于sqoop export導出 map100% reduce0% 卡住的多種原因及解決的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: jizz日本女人| 欧美大尺度无遮挡AV在线观看| 91精品自拍| 男女激情| 免费看黄无遮挡滚床单视频| 国产精品成人无码AⅤ试看三分钟| 色欲98久久综合国产精品三区| 亚洲综合17p| 高校教师在线看| 国产一级黄色影片| 天干天干天干天干日天干| 717tⅤ精品国产亚洲AV成人| 刚进去就谢了| 40岁女人的批日起舒服在线观看| 欧美午夜一艳片欧美精品| 1000部拍拍18以下勿入辣妞范| 99国产超薄肉色丝袜交足| 国内自拍网| 天干天干天夜夜爽啪啪免费网站 | 一夜未拔H圆房~h| 乱Lun合集(二)全文阅读| 女人做爰高潮呻吟| 又粗又大又爽又长又紧又水| 韩国午夜影院| 四虎最新成人永久网站在线观看| 亚洲国产日韩在线| 国精品无码一区二区三区在线蜜桃| 双乳被两个男人吸住小说| 免费色网址| 国产China男男GayGay动漫| 免费va国产高清不卡大片| 冬儿大户人家杨家| 日韩一级黄色毛片| 一级片aaaaaa| 中文彩漫多香子u罗汉漫画最新版| 日女人逼逼视频| 91视频试看| 97狠狠干| 午夜无码人妻AV大199| 国产伦理精品一区二区三区观看体验| 激情影院免费观看|