--append 将数据追加到hdfs中
--as-avrodatafile 将文件导入到一个avro文件中
--as-sequencefile 将数据导入到一个sequencefile中
--as-textfile 将数据导入到一个文本文件
--boundary-query 边界查询,导入的数据为该参数的值(一条sql语句)所执行的结果区间内的数据
--columns 指定要导入的列,用逗号分隔
--direct 使用关系型数据库自带的导入导出工具
--direct-split-size 对direct导入的数据进行切分字节,达到阈值就是一个问题件
--inline-lob-limit 设置大对象数据类型的最大值
--m或–num-mappers 启动多少个map,默认4个
--query或--e 跟sql语句,使用时必须伴随参数 --taget-dir,--hive-table
--split-by 跟列名,按照一列来切分表的工作单元
--table 跟表名
--target-dir 指定hdfs路径
--warehouse-dir 与--target-dir参数不能共用,导入数据到hdfs指定目录
--where 从关系型数据库导入数据时的条件
--z或--compress 允许压缩
--compression-codec 指定压缩格式
--null-string 字符串类型如果为null,替换成指定字符串
--null-non-string 非字符串类型如果为null,替换成指定字符串
--check-column 增量导入判断的列名
--incremental 参数为append或者lastmodified
--last-value 指定一个值,用于标记增量导入的位置
从mysql导出到hive,每次导出全量覆盖:(–hive-*为公共参数)
sqoop公共参数链接
sqoop import
–connect xx
–username xx
–password xx
–table tableName1
–fields-terminated-by ‘\001’
–delete-target-dir
–num-mappers 1
–hive-import
–hive-overwrite
–hive-database dbName
–hive-table tableName2 \