前置条件已经成功安装配置hadoop和mysql数据库服务器,如果将数据导入或从hbase导出,还应该已经成功安装配置hbase。
下载sqoop和mysql的jdbc驱动sqoop-1.2.0-cdh3b4.tar.gz :http://archive.cloudera.com/cdh/3/sqoop-1.2.0-cdh3b4.tar.gz
mysql-connector-java-5.1.28
安装sqoop[hadoop@appserver ~]$ tar-zxvf sqoop-1.2.0-cdh3b4.tar.gz
配置环境变量
拷贝hadoop核心包和mysql驱动包到sqoop的lib目录[hadoop@appserver ~]$ cp hadoop-1.1.2/hadoop-core-1.1.2.jar sqoop-1.2.0-cdh3b4/lib/
[hadoop@appserver ~]$ cp mysql-connector-java-5.1.28-bin.jar sqoop-1.2.0-cdh3b4/lib/
配置sqoop-1.2.0-cdh3b4/bin/configure-sqoop文件注释掉hbase和zookeeper检查(除非准备使用habase等hadoop组件)
启动hadoop集群
启动mysql
创建sqoop用户
建立sqoop库,test表,并构造测试数据
测试sqoop连接[hadoop@appserver ~]$ sqoop list-databases --connect jdbc:mysql://10.120.10.11:3306/ --username sqoop --password sqoop
列出mysql中所有数据库的名称
从mysql导入到hdfs中sqoop ##sqoop命令
import ##表示导入
--connect jdbc:mysql://ip:3306/sqoop ##告诉jdbc,连接mysql的url
--username sqoop ##连接mysql的用户名
--password sqoop ##连接mysql的密码
--table test ##从mysql导出的表名称
--fields-terminated-by '/t' ##指定输出文件中的行的字段分隔符
-m 1 ##复制过程使用1个map作业
[hadoop@appserver ~]$ sqoop import --connect jdbc:mysql://10.120.10.11:3306/sqoop --username sqoop --password sqoop --table test --fields-terminated-by ':' -m 1
hadoop中查看导入结果
从hdfs导出到mysql中sqoop
export ##表示数据从hive复制到mysql中
--connect jdbc:mysql://ip:3306/sqoop
--username sqoop
--password sqoop
--table test ##mysql中的表,即将被导入的表名称
--export-dir '/user/root/aa/part-m-00000' ##hive中被导出的文件
--fields-terminated-by '/t' ##hive中被导出的文件字段的分隔符
[hadoop@appserver ~]$ sqoop export --connect jdbc:mysql://10.120.10.11:3306/sqoop --username sqoop --password sqoop --table test --export-dir '/user/hadoop/test/part-m-00000' --fields-terminated-by ':' -m 1
mysql中查看导出结果
从mysql导入到hbase中参数说明:
ø hbase_tablename指定要导成hbase的表名
ø key_col_name指定mysql数据库表中哪一列作为hbase新表的rowkey
ø col_fam_name是除rowkey之外的所有列的列族名
[hadoop@appserver ~]$ sqoop import --connect jdbc:mysql://10.120.10.11:3306/sqoop --username sqoop --password sqoop --table test --hbase-create-table --hbase-table mysql_sqoop_test --column-family info --hbase-row-key id -m 1
在hbase中查看结果