既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
mysql -u root -p
输入刚才复制的密码,登陆成功
修改root用户密码为:123456
set password for 'root'@'localhost'=password('123456');
MySQL默认配置文件路径:
配置文件: /etc/my.cnf
日志文件: /var/log//var/log/mysqld.log
服务启动脚本: /usr/lib/systemd/system/mysqld.service
socket文件: /var/run/mysqld/mysqld.pid
2.3修改MySQL默认编码
编辑 配置文件
vim /etc/my.cnf
添加如下配置:
skip_ssl
character_set_server=utf8
init_connect='SET NAMES utf8'
重启MySQL服务
systemctl restart mysqld
登陆mysql
mysql -uroot -p123456
查看MySQL默认编码确认是否修改成功:
show variables like 'char%';
查看排序规则
show variables like 'collation%';
2.4用户远程登录配置
mysql默认只允许root帐户在本地登录,想要远程连接mysql,必须开启root用户允许远程连接,或者添加一个允许远程连接的帐户。
开启root用户远程连接(任意IP都可以访问)
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123456' WITH GRANT OPTION;
FLUSH PRIVILEGES;
二、Hive安装配置
1.上传解压hive安装包
cd /export/software
tar -zxvf /export/software/apache-hive-1.2.1-bin.tar.gz -C /export/servers/
2.配置hive-env.sh文件
#打开配置文件目录,复制文件
cd /export/servers/apache-hive-1.2.1-bin/conf
cp hive-env.sh.template hive-env.sh
打开配置文件
vim hive-env.sh
添加Hadoop环境变量
export HADOOP_HOME=/export/servers/hadoop-2.7.4
#修改hive-site.xml配置文件
vim hive-site.xml
#加入一下信息
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
<description>Mysql连接协议</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>JDBC连接驱动</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>用户名</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>密码</description>
</property>
</configuration>
3.配置MySQL驱动包
#上传MySQL连接驱动包mysql-connector-java-5.1.32.jar到/export/software
cp /export/software/mysql-connector-java-5.1.32.jar /export/servers/apache-hive-1.2.1-bin/lib/
4.配置系统变量,为了便于启动hive
vi /etc/profile
#加入以下内容
export HIVE_HOME=/export/servers/apache-hive-1.2.1-bin
export PATH=$PATH:$HIVE_HOME/bin
#刷新系统环境变量
source /etc/profile
#注意,这里要保证三台虚拟机均已启动!!!
#启动hadoop(必须启动hadoop,才能启动Hive)
start-dfs.sh &&start-yarn.sh
#启动hive
hive
三、Sqoop安装配置
1. 上传Sqoop,并解压
cd /export/software/
tar -zxvf /export/software/sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /export/servers/
2. 重命名文件夹名
cd /export/servers/
mv sqoop-1.4.6.bin__hadoop-2.0.4-alpha/ sqoop-1.4.6/
3. 进入目录,配置Sqoop
cd /export/servers/sqoop-1.4.6/conf/
cp sqoop-env-template.sh sqoop-env.sh
#打开sqoop-env.sh
vim sqoop-env.sh
#添加如下信息
export HADOOP_COMMON_HOME=/export/servers/hadoop-2.7.4
export HADOOP_MAPRED_HOME=/export/servers/hadoop-2.7.4
export HIVE_HOME=/export/servers/apache-hive-1.2.1-bin
4. 配置系统环境变量
vi /etc/profile
#添加信息:
export SQOOP_HOME=/export/servers/sqoop-1.4.6
export PATH=$PATH:$SQOOP_HOME/bin
#刷新系统环境变量
source /etc/profile
#配置MySQL驱动包
cp /export/software/mysql-connector-java-5.1.32.jar /export/servers/sqoop-1.4.6/lib
5. 连接Mysql,验证Sqoop安装结果
#注意,该步骤下hadoop必须启动
输入命令:
jps
#如果只显示jps,则表示未启动,如果显示下图,则表示hadoop已经启动,忽略下方启动步骤
#使用启动命令启动hadoop+hive:
start-dfs.sh && start-yarn.sh && hive
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
t-yarn.sh && hive
![](https://i-blog.csdnimg.cn/blog_migrate/7ff6212726fe7137fef63bbd65badb52.png)
[外链图片转存中...(img-k9orc75W-1715781248031)]
[外链图片转存中...(img-nqO76xaz-1715781248031)]
[外链图片转存中...(img-aVtYDM3z-1715781248032)]
**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**
**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**
**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**