使用sqoop实现关系型数据库、HDFS、Hive之间数据的导入导出
以下文章来源于泪痕残 以下文章来源于HoldBelief 以下文章来源于杨鑫newlfe
正文
sqoop概述:sqoop为大数据协作框架之一,以hdfs为核心,实现hdfs与关系型数据库之间的导入导出。
以下操作均建立在已配置好Hadoop、sqoop、hive、mysql等环境,已创建好相应表的基础上
1.mysql->hdfs
sqoop import \
--connect jdbc:mysql://主机名:端口号/db_name\
--username root \
--password 123456 \
--table table_name \
--num-mappers 1 \
--target-dir /sqoop \
--delete-target-dir \
--direct \
--fields-terminated-by '\t'
参数解释:
num-mappers 指定map的个数
target-dir 指定目标路径
delete-target-dir 提前删除指定目录
fields-terminated-by '\t' 指定分隔符
增量导入
append 追加增量
sqoop import \
--connect jdbc:mysql://主机名:端口号/db_name\
--username root \
--password 123456 \
--table table_name \
--num-mappers 1 \
--target-dir /sqoop \
--direct \
--fields-terminated-by '\t' \
--check-column id \
--incremental append \
--last-value 1
2.hdfs->mysql
sqoop export \
--connect jdbc:mysql://主机名:端口号/db_name\
--username root \
--password 123456 \
--table table_name\
--num-mappers 1 \
--export-dir /hdfs_mysql \
--input-fields-terminated-by '\t'
参数解释:
num-mappers 指定map的个数
export-dir 指定hdfs路径
input-fields-terminated-by '\t' 指定分隔符
3.mysql->hive
sqoop import \
--connect jdbc:mysql://主机名:端口号/db_name\
--username root \
--password 123456 \
--table table_name \
--num-mappers 1 \
--hive-import \
--delete-target-dir \
--hive-database hive数据库名\
--hive-table hive中对应的table_name \
--direct \
--fields-terminated-by '\t'
参数解释:
num-mappers 指定map的个数
delete-target-dir 提前删除指定目录
hive-database hive数据库名
hive-table hive数据库中表名
fields-terminated-by '\t' 指定分隔符
4.hive->mysql
sqoop export \
--connect jdbc:mysql://主机名:端口号/db_name\
--username root \
--password 123456 \
--table table_name \
--num-mappers 1 \
--export-dir /user/hive/warehouse/数据库名/表名 \
--input-fields-terminated-by '\t'
参数解释:
num-mappers 指定map的个数
export-dir 指定hive数据库对应的hdfs路径
input-fields-terminated-by '\t' 指定分隔符
5.hdfs->Oracle
sqoop export \
--connect jdbc:oracle:thin:@主机名:端口号:ora11g \
--username root\
--password 123456 \
--table LIVE_VIEWER_SHIP \
--num-mappers 1 \
--export-dir /user/cxfgs/c3/output/liveRatings/2017/04/30/ \
--input-fields-terminated-by '|'
参数解释:
num-mappers 指定map的个数
export-dir 指定hive数据库对应的hdfs路径
input-fields-terminated-by '\t' 指定分隔符
6.oracle->hive
sqoop import \
--connect jdbc:oracle:thin:@主机名:端口号:ora11g \
--username root \
--password 123456 \
--table table_name \
--num-mappers 1 \
--hive-import \
--delete-target-dir \
--hive-database hive数据库名\
--hive-table hive中对应的table_name \
--direct \
--fields-terminated-by '\t'
参数解释:
num-mappers 指定map的个数
delete-target-dir 提前删除指定目录
hive-database hive数据库名
hive-table hive数据库中表名
fields-terminated-by '\t' 指定分隔符
7.导入的字段分隔符(record delimiters)和行分隔符(row delimiters)问题
Sqoop从oracle导入数据到hive,示例:
sqoop import --connect jdbc:oracle:thin:@oracle-host:port:orcl --username name--password passwd --hive-import -table tablename
如果不加其他参数,导入的数据默认的列分隔符是’\001’,默认的行分隔符是’\n’。
这样问题就来了,如果导入的数据中有’\n’,hive会认为一行已经结束,后面的数据被分割成下一行。这种情况下,导入之后hive中数据的行数就比原先数据库中的多,而且会出现数据不一致的情况。
Sqoop也指定了参数 –fields-terminated-by和 –lines-terminated-by来自定义行分隔符和列分隔符。
可是当你真的这么做时………o(╯□╰)o就会出现如下错误:
INFO hive.HiveImport: FAILED: SemanticException 1:381 LINES TERMINATED BY only supports newline '\n' right now. 也就是说虽然你通过 --lines-terminated-by 指定了其他的字符作为行分隔符,但是hive只支持'\n'作为行分隔符。
简单的解决办法就是加上参数–hive-drop-import-delims来把导入数据中包含的hive默认的分隔符去掉。
Sqoop有两个参数用来处理数据中存在\0x01 (\n\r)这两个字符,如下:
--hive-delims-replacement Replace Hive record \0x01
and row delimiters (\n\r)
from imported string fields
with user-defined string
--hive-drop-import-delims Drop Hive record \0x01 and
row delimiters (\n\r) from
imported string fields
这两个配置项都是用来处理字段分隔符(或称列分隔符)和行分隔符的。
注:英文中字段分隔符称作record delimiters,行分隔符称作row delimiters
默认情况下:record delimiters是\0x01,这是16进制的1,等同于8进制的\001,(\0x01和\001对应ASCII同一个字符,只是进制不一样)。这个字符称作隐藏字符,打印出来的视觉效果与空格相同,但是相比空格或者“\t”的好处是,\0x01是无法从键盘输入的,所以保证了安全性,避免了由于数据中本身带有空格或者“\t”带来的尴尬。
但是如果数据中本身带有\0x01或者本身带有\n\r怎么办?虽然这些字符无法通过键盘输入,但是可以通过程序写入,
比如Java代码如下:
public static void main(String[] args) {
String s = "";
byte b1[] = {0x02};
byte b2[] = {0x01};
String str1 = new String(b1);
String str2 = new String(b2);
s = "第一个字符是\0x02: " + str1
+ ",第二个字符是\0x01 : " + str2
+ "第三个字符是空格: " + " "
+ ",\0x01和\0x02无法从键盘输入,所以作为分隔符更为安全";
System.out.println(s);
} 如果record中本身就带有/0x01的时候就需要使用--hive-delims-replacement <arg>或者--hive-drop-import-delims两个配置项处理这些字符。(这两个配置项不能同时使用。)
–hive-delims-replacement
–hive-drop-import-delims:将record中的/0x01和/r/n去掉
8.过滤空值以及特殊格式
在使用Sqoop的时候常看到在使用的时候在目的数据库中出现 NULL值,本来源表是空,而目的数据库中的表信息确是null
为了避免这种情况,我们可以使用:
–null-string ‘ ‘ –null-non-string ‘ ‘
来过滤空字符串以及空值。
除了这种方式,参数还可以是:
\b
(backspace)\n
(newline)\r
(carriage return)\t
(tab)\"
(double-quote)