qoop-import --as-avrodatafile --table film --target-dir /input --connect jdbc:mysql://192.168.13.128/sakila?tinyInt1isBit=false --username root --password 123
sqoop import -Dmapreduce.job.user.classpath.first=true --as-avrodatafile -table film --delete-target-dir --target-dir /user/hive/warehouse/sakila.db/film --connect jdbc:mysql://192.168.13.128/sakila --username root --password 123
./schematool -dbType mysql -initSchema
CREATE EXTERNAL TABLE film
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
TBLPROPERTIES ('avro.schema.url'='hdfs:///input2/film.avsc');
其中有一个使用sqoop import一直不成功的报错,直到把/share/hadoop/common/lib/avro-1.7.7.jar 这个文件替换成1.8.1才成功,前面的mapreduce.classpath始终不正确