网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
配置文件: /etc/my.cnf
日志文件: /var/log//var/log/mysqld.log
服务启动脚本: /usr/lib/systemd/system/mysqld.service
socket文件: /var/run/mysqld/mysqld.pid
2.3修改MySQL默认编码
编辑 配置文件
vim /etc/my.cnf
添加如下配置:
skip_ssl
character_set_server=utf8
init_connect='SET NAMES utf8'
重启MySQL服务
systemctl restart mysqld
登陆mysql
mysql -uroot -p123456
查看MySQL默认编码确认是否修改成功:
show variables like 'char%';
查看排序规则
show variables like 'collation%';
2.4用户远程登录配置
mysql默认只允许root帐户在本地登录,想要远程连接mysql,必须开启root用户允许远程连接,或者添加一个允许远程连接的帐户。
开启root用户远程连接(任意IP都可以访问)
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123456' WITH GRANT OPTION;
FLUSH PRIVILEGES;
二、Hive安装配置
1.上传解压hive安装包
cd /export/software
tar -zxvf /export/software/apache-hive-1.2.1-bin.tar.gz -C /export/servers/
2.配置hive-env.sh文件
#打开配置文件目录,复制文件
cd /export/servers/apache-hive-1.2.1-bin/conf
cp hive-env.sh.template hive-env.sh
打开配置文件
vim hive-env.sh
添加Hadoop环境变量
export HADOOP_HOME=/export/servers/hadoop-2.7.4
#修改hive-site.xml配置文件
vim hive-site.xml
#加入一下信息
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
<description>Mysql连接协议</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>JDBC连接驱动</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>用户名</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>密码</description>
</property>
</configuration>
3.配置MySQL驱动包
#上传MySQL连接驱动包mysql-connector-java-5.1.32.jar到/export/software
cp /export/software/mysql-connector-java-5.1.32.jar /export/servers/apache-hive-1.2.1-bin/lib/
4.配置系统变量,为了便于启动hive
vi /etc/profile
#加入以下内容
export HIVE_HOME=/export/servers/apache-hive-1.2.1-bin
export PATH=$PATH:$HIVE_HOME/bin
#刷新系统环境变量
source /etc/profile
#注意,这里要保证三台虚拟机均已启动!!!
#启动hadoop(必须启动hadoop,才能启动Hive)
start-dfs.sh &&start-yarn.sh
#启动hive
hive
三、Sqoop安装配置
1. 上传Sqoop,并解压
cd /export/software/
tar -zxvf /export/software/sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /export/servers/
2. 重命名文件夹名
cd /export/servers/
mv sqoop-1.4.6.bin__hadoop-2.0.4-alpha/ sqoop-1.4.6/
3. 进入目录,配置Sqoop
cd /export/servers/sqoop-1.4.6/conf/
cp sqoop-env-template.sh sqoop-env.sh
#打开sqoop-env.sh
vim sqoop-env.sh
#添加如下信息
export HADOOP_COMMON_HOME=/export/servers/hadoop-2.7.4
export HADOOP_MAPRED_HOME=/export/servers/hadoop-2.7.4
export HIVE_HOME=/export/servers/apache-hive-1.2.1-bin
4. 配置系统环境变量
vi /etc/profile
#添加信息:
export SQOOP_HOME=/export/servers/sqoop-1.4.6
export PATH=$PATH:$SQOOP_HOME/bin
#刷新系统环境变量
source /etc/profile
#配置MySQL驱动包
cp /export/software/mysql-connector-java-5.1.32.jar /export/servers/sqoop-1.4.6/lib
5. 连接Mysql,验证Sqoop安装结果
#注意,该步骤下hadoop必须启动
输入命令:
jps
#如果只显示jps,则表示未启动,如果显示下图,则表示hadoop已经启动,忽略下方启动步骤
#使用启动命令启动hadoop+hive:
start-dfs.sh && start-yarn.sh && hive
#上方命令运行后会进入hive,需要手动退出hive
exit;
#查看是否存在5个进程,存在即为启动成功
jps
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
进程,存在即为启动成功
jps
[外链图片转存中…(img-GmY1iTUm-1715781207916)]
[外链图片转存中…(img-5o5dUldn-1715781207917)]
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!