- 博客(14)
- 收藏
- 关注
原创 13. Flume安装
一. 解压安装flumetar -zxvf /h3ch/apache-flume-1.7.0-bin.tar.gz -C /usr/local/src/二. 输入命令查看安装版本信息./bin/flume-ng version
2021-11-02 18:58:22 118
原创 CentOS7查看和关闭防火墙
一. 查看防火墙状态firewall-cmd --state二. 停止firewallsystemctl stop firewalld.service三. 禁止firewall开机启动systemctl disable firewalld.service
2021-11-02 18:52:34 156
原创 12. Redis安装和配置
一. 解压tar -zxvf /h3ch/redis-4.0.1.tar.gz -C /usr/local/src/二. 进入到Redis目录下进行编译与安装makecd ./srcmake install三. 编辑Redis目录下的redis.conf把文件中的daemonize属性改为yes把 redis.conf配置文件中的 bind 127.0.0.1 这一行给注释掉,这里的bind指的是只有指定的网段才能远程访问这个redis,注释掉后,就没有这个限制了把&n
2021-11-02 18:51:42 121
原创 11. Hive安装与配置
一. 解压安装Hivetar -zxvf /h3ch/apache-hive-2.3.4-bin.tar.gz -C /usr/local/src/二. 配置环境变量全局环境变量vim /etc/profileexport HIVE_HOME=/usr/local/src/apache-hive-2.3.4-bin/export PATH=$PATH:$HIVE_HOME/bin配置只对当前root用户生效的环境变量vim /root/.bash_profileexport JAV
2021-11-02 18:50:50 281
原创 10. Kafka集群部署
一. 解压安装Kafkatar /h3ch/kafka_2.11-2.0.0.tgz -C /usr/local/src/二. 启动zookeeper服务器./bin/zookeeper-server-start.sh -daemon ../config/zookeeper.properties三. 启动kafka服务器./bin/kafka-server-start.sh -daemon ../config/server.properties...
2021-11-02 18:48:02 1325
原创 9. Flink的安装配置(standalone模式)
一. 解压安装Flinktar -zxvf /h3ch/flink-1.10.2-bin-scala_2.11.tgz -C /opt/module/二. 修改/opt/module/flink-1.10.2/conf/下的 masters,slaves,flink-conf.yamlvim mastersvim slaves flink-conf.yaml三. 配置环境变量全局环境变量vim /etc/profileexport FLINK_HOME=/opt/modu
2021-11-02 18:45:52 200
原创 8. Spark环境搭建(standalone模式)
一. 解压Spark安装包tar -zxvf /h3ch/spark-2.0.0-bin-hadoop2.6.tgz -C /usr/local/src/二. 重命名conf目录里的 slaves.template 为 slaves ,spark-env.sh.template 为 spark-env.shmv slaves.template slavesmv spark-env.sh.template spark-env.sh三. 往 slaves文件添加集群中服务器的主机名vim sla
2021-11-02 18:23:25 600
原创 7. Scala 安装
一. 解压缩文件包tar -zxvf /h3ch/scala-2.11.0.tgz -C /usr/local/src/二. 修改环境变量全局变量export PATH="$PATH:/usr/local/src/scala-2.11.0/bin"配置只对当前root用户生效的环境变量export JAVA_HOME=/usr/local/src/jdk1.8.0_301/export HADOOP_HOME=/opt/module/hadoop-2.6.0/export SCALA_H
2021-11-02 18:16:53 125
原创 6. Hadoop完全分布式模式
一. 解压安装文件到/opt/module下面tar -zxvf /h3ch/hadoop-2.6.0.tar.gz -C /opt/module/二. 将Hadoop添加到环境变量全局变量vim /etc/profileexport HADOOP_HOME=/opt/module/hadoop-2.6.0export PATH=$PATH:$HADOOP_HOME/binexport PATH=$PATH:$HADOOP_HOME/sbin三. 配置只对当前root用户生效的环境变量
2021-10-28 20:31:17 666
原创 5. CentOS7安装MySQL
一.卸载mariadb查询安装了是否mariadbrpm -qa | grep mariadb卸载mariadbrpm -e mariadb-libs-5.5.68-1.el7.x86_64 --nodeps二.解压MySQL的安装包到一个目录tar -zxvf /opt/installation_packages/mysql-5.7.35-linux-glibc2.12-x86_64.tar.gz -C /usr/local/三.创建软链接(操作方便:可以认为是给mysql-
2021-10-28 12:36:01 270
原创 4. CentOS安装JDK
一.卸载自带openjdkrpm -qa | grep javarpm -e --nodeps java-1.8.0-openjdk-headless-1.8.0.262.b10-1.el7.x86_64rpm -e --nodeps java-1.8.0-openjdk-1.8.0.262.b10-1.el7.x86_64rpm -e --nodeps java-1.7.0-openjdk-headless-1.7.0.261-2.6.22.2.el7_8.x86_64rpm -e --no
2021-10-27 20:02:32 723
原创 3. Linux scp命令
scp定义Linux scp 命令用于 Linux 之间复制文件和目录。scp 是 secure copy 的缩写, scp 是 linux 系统下基于 ssh 登陆进行安全的远程文件拷贝命令。scp 是加密的,rcp 是不加密的,scp 是 rcp 的加强版。示例把h3ch目录拷贝到Slave1的根目录,-r: 递归复制整个目录。scp -r /h3ch Slave1:/覆盖Slave2上的/root/.bash_profile文件scp -r /root/.bash_pr
2021-10-27 19:59:10 101
原创 2. SSH实现免密码登录
一.生成公钥和私钥ssh-keygen -t rsa需要按三次回车键二.将公钥拷贝到要免密登录的目标机器上ssh-copy-id Hadoop01 ssh-copy-id Hadoop02ssh-copy-id Hadoop03中途需要输入密码三.免密登陆ssh Hadoop01
2021-10-27 19:57:37 146
原创 1. CentOS7配置静态IP和网关
一.设置主机名vim /etc/hostnamevim /etc/hosts二.配置网关vim /etc/sysconfig/network三.配置IP地址vim /etc/sysconfig/network-scripts/ifcfg-enp1s0四.reboot重启
2021-10-27 19:55:58 1119
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人