前置
1、先说一下spark-submit 提交命令 ,应该采用 如下路径的spark-submit,因为这样才会读取spark-default.conf
>> /opt/cloudera/parcels/CDH/lib/spark/spark-submit
2、如果无法找到正确的路径,采用配置方式
如:
spark-submit --class org.apache.spark.examples.SparkPi --master yarn --properties-file spark-defaults.conf --deploy-mode cluster /opt/cloudera/parcels/CDH/lib/spark/examples/jars/spark-examples_2.11-2.4.0-cdh6.3.2.ja
2、添加一两个包的简单方法
spark 经常需要添加一两个jar包。一般采用如下方式,
1)、上传jar 到hdfs 路径。
如:hdfs:///spark-jars/spark.test.jar
2)、修改配置
>>vi /opt/cloudera/parcels/CDH/lib/spark/conf/spark-defaults.conf
>> 修改配置
spark.yarn.jars=local:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/spark/jars/*,local:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/spark/hive/*,hdfs:///spark-jars/spark.test