Idea导入项目:hadoop-spark-hive
1.建议:(先浏览一遍会更好,否则可能会因为局部浏览而导致错误)
2.注意要换相对应的jar包:导入spark目录下的jar目录的包,导入scala的jar包(项目匹配的版本)
导入的项目无法自动找到相对应的类,因此要在这里root一下
在上面相对应的位置左键,选择一下:
3.关于权限,去给他权限呗;
4.更换一下hive-size.xml(是在Linux下更换,记得是换掉哦,顺便也把换掉后的hive-site.xml给到项目里面去)#怕的话就把自身的hive-site.xml复制到别处,有问题了就再拿回来覆盖即可(我此时就是放在/data目录下)
其内容为:
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
- Hive-site.xml里面某些内容需要根据你自己的情况来定:
Master是我的主机名,你要根据自身的主机来定,然后就是root,root是我自身要连接的数据库以及相对应的密