大数据系列
专栏收录了我之前做大数据运维工作时,记录撰写的一些文档,虽然版本可能有点儿旧了,不过安装调优变化一般不是很大,希望能对大家有所帮助
平凡似水的人生
人的梦想是不会被终结的
展开
-
CDH集成YCSB测试工具
一、安装准备1、下载包wget http://archive.cloudera.com/cloudera-labs/ycsb/parcels/latest/CLABS_YCSB-0.10.0-1.clabs_ycsb1.6.0.p0.1-el7.parcelwget http://archive.cloudera.com/cloudera-labs/ycsb/parcels/latest/CLABS_YCSB-0.10.0-1.clabs_ycsb1.6.0.p0.1-el7.parcel.sha1原创 2022-02-19 14:58:19 · 8660 阅读 · 0 评论 -
CDH 离线安装spark2.3
一、安装准备1、下载csd包wget http://archive.cloudera.com/spark2/csd/SPARK2_ON_YARN-2.3.0.cloudera2.jar2、下载parcel包wget http://archive.cloudera.com/spark2/parcels/2.3.0.cloudera2/SPARK2-2.3.0.cloudera2-1.cdh5.13.3.p0.316101-el7.parcelwget http://archive.cloudera原创 2022-02-19 14:49:38 · 1732 阅读 · 0 评论 -
CDH 离线安装kafka
一、安装准备1、下载csd包wget http://archive.cloudera.com/csds/kafka/KAFKA-1.2.0.jar2、下载parcel包wget http://archive.cloudera.com/kafka/parcels/2.1.1/KAFKA-2.1.1-1.2.1.1.p0.18-el7.parcelwget http://archive.cloudera.com/kafka/parcels/2.1.1/KAFKA-2.1.1-1.2.1.1.p0.1原创 2022-02-19 14:43:32 · 1377 阅读 · 9 评论 -
cdh集群安装
环境说明Cloudera Manager:5.13.3CDH: 5.13.3CentOS 7.3 x64JDK 1.8.0_152MySQL 5.7.20关闭防火墙和SELinux (所有节点)配置时间同步(所有节点)#下载CM安装包(主节点)wget http://archive.cloudera.com/cm5/cm/5/cloudera-manager-centos7-cm5.13.3_x86_64.tar.gzwget http://archive.cloudera.com/原创 2022-02-14 21:56:39 · 1587 阅读 · 0 评论 -
Ambari安装报错汇总
1、报错#Centos 7安装 ambari通过Ambari部署系统时,ambari-agent注册失败,在/var/log/ambari-agent的log中可以看到日志显示:ERROR 2018-03-08 15:02:25,223 NetUtil.py:88 - [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:579)ERROR 2018-03-08 15:02:25,223 NetUtil.py:89 - S原创 2022-02-11 16:37:41 · 1371 阅读 · 0 评论 -
Ambari安装部署大数据平台
一、环境准备1、主机列表#vim /etc/hosts192.168.137.128 node1192.168.137.129 node2192.168.137.130 node32、安装epel仓库rpm -ivh epel-release-latest-7.noarch.rpm3、修改主机名, 切记主机名不能出现下划线#修改主机名(/etc/hostname)hostnamectl set-hostname node1hostnamectl set-hostname nod原创 2022-02-11 16:35:05 · 1045 阅读 · 1 评论 -
hdfs调优参数汇总
1、调整默认block大小<property><name>dfs.blocksize</name><value>30m</value></property>2、内存调优vim hadoop-env.shexport HADOOP_NAMENODE_OPTS="-Xmx512m -Xms256m -Dhadoop.security.logger=${HADOOP_SECURITY_LOGGER:-INFO,RFAS} -D原创 2022-02-09 22:14:47 · 1123 阅读 · 1 评论 -
hdfs常见错误汇总
1、报错信息rm: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot delete /hbase. Name node is in safe mode解决办法#hdfs异常重启导致hdfs进入安全模式,退出即可hadoop dfsadmin -safemode leave原创 2022-02-09 22:11:52 · 1576 阅读 · 0 评论 -
hbase常见错误汇总
1、报错信息2014-02-24 12:15:48,507 WARN [Thread-2] util.DynamicClassLoader (DynamicClassLoader.java:<init>(106)) - Failed to identify the fs of dir hdfs://fulonghadoop/hbase/lib, ignoredjava.io.IOException: No FileSystem for scheme: hdfs解决办法在配置文件中加入原创 2022-01-27 20:39:16 · 2355 阅读 · 1 评论 -
sqoop1.4.7安装
1、解压文件到指定目录tar zxf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /data2、修改配置文件(1)进入/sqoop/conf目录mv sqoop-env-template.sh sqoop-env.shvim sqoop-env.shexport HADOOP_COMMON_HOME=/data/hadoop/hadoop-2.7.2export HADOOP_MAPRED_HOME=/data/hadoop/hadoop-2.7.2e原创 2022-01-25 21:13:25 · 1579 阅读 · 0 评论 -
spark-2.1.1高可用部署
1、解压文件到指定目录tar zxf scala-2.11.8.tgz -C /data/tar zxf spark-2.1.1-bin-hadoop2.7.tgz -C /data/2、修改配置文件cd /data/spark-2.1.1-bin-hadoop2.7/confcp spark-env.sh.template spark-env.shcp slaves.template slavesvim spark-env.sh##ssh端口不是22时#export SPARK_S原创 2022-01-22 21:57:45 · 1426 阅读 · 0 评论 -
HUE编译安装
一、安装1、下载安装包wget http://gethue.com/downloads/releases/4.0.1/hue-4.0.1.tgz2、安装依赖yum install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libxml2-devel libxslt-devel make mysql-devel openldap-devel原创 2022-01-20 21:09:29 · 1267 阅读 · 1 评论 -
flume简单安装配置
一、安装1、下载#安装jdk,flume依赖于java环境wget http://mirrors.hust.edu.cn/apache/flume/1.6.0/apache-flume-1.6.0-bin.tar.gz2、解压tar zxf apache-flume-1.6.0-bin.tar.gz -C /opt/3、配置cd /opt/apache-flume-1.6.0-bin/confcp flume-conf.properties.template flume-conf.pro原创 2022-01-17 21:45:06 · 982 阅读 · 0 评论 -
HBASE分布式安装
一、安装前提1、HBase 依赖于 HDFS 做底层的数据存储2、HBase 依赖于 MapReduce 做数据计算3、HBase 依赖于 ZooKeeper 做服务协调4、HBase源码是java编写的,安装需要依赖JDK5、zookeeper和hdfs安装可以参考 hdfs分布式安装二、HBase的集群安装1、解压安装包#下载wget http://archive.apache.org/dist/hbase/1.2.6/hbase-1.2.6-bin.tar.gz#解压到指定目录原创 2022-01-16 15:56:10 · 1096 阅读 · 1 评论 -
hive设置权限
一、修改hive配置文件vim hive-site.xml<property> <name>hive.files.umask.value</name> <value>0002</value></property><property> <name>hive.metastore.authorization.storage.checks</name> <value>tr原创 2022-01-12 21:22:24 · 3792 阅读 · 0 评论 -
hive解决中文乱码
1、登录mysql操作use hive;(1)修改表字段注解和表注解alter table COLUMNS_V2 modify column COMMENT varchar(256) character set utf8;alter table TABLE_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8;(2)修改分区字段注解alter table PARTITION_PARAMS modify column原创 2022-01-11 20:41:02 · 2038 阅读 · 0 评论 -
hive自定义安全认证登录
1、自定义认证需新添加一个jar#jar包我已经上传到我的资源里面了,有需要可以有偿下载cp hive-server2.jar /data/apache-hive-1.2.1-bin/lib2、修改hive-site.xml<property> <name>hive.server2.thrift.port</name> <value>10000</value></property><property&原创 2022-01-09 22:17:41 · 2800 阅读 · 0 评论 -
hive使用报错汇总
报错Error: Could not open client transport with JDBC Uri: jdbc:hive2://node1:10000: Failed to open new session: java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.authorize.AuthorizationException): User: root is not原创 2022-01-08 21:41:55 · 2497 阅读 · 0 评论 -
centos7编译安装hive
一、安装数据库1、解压安装包tar zxf mysql-5.6.39-linux-glibc2.12-x86_64.tar.gz -C /data/2、修改文件目录名称mv /data/mysql-5.6.39-linux-glibc2.12-x86_64/ mysql3、创建数据目录mkdir sqldatauseradd -M -s /sbin/nologin mysql##授权cd /data/chown -R mysql.mysql mysql4、配置环境变量vim原创 2022-01-08 21:39:16 · 1028 阅读 · 1 评论 -
Hadoop2.7.2分布式集群HA模式安装
服务节点分布node1NameNode、DFSZKFailoverController(ZKFC)、ResourceManager、JournalNode、ZooKeeper、QuorumPeerMainnode2NameNode、DFSZKFailoverController(ZKFC)、ResourceManager、JournalNode、ZooKeeper、QuorumPeerMainnode3DataNode、NodeManager、JournalNode、QuorumPeerMa原创 2022-01-07 22:48:51 · 895 阅读 · 0 评论 -
hadoop 2.7.2单机安装
一,基础环境1、主机名配置vim /etc/hosts192.168.137.128 node12、安装JDKtar zxf /root/jdk1.8.0_111.tar.gz -C /opt/echo 'export PATH=$PATH:/opt/jdk1.8.0_101/bin' >>/etc/profilesource /etc/profile3、配置SSH无密码登陆ssh-keygenssh-copy-id -i id_rsa.pub root@node1原创 2022-01-06 21:40:53 · 734 阅读 · 0 评论 -
Hadoop2.7.2集群搭建
一,基础环境1、主机名配置hostnamectl set-hostname node1hostnamectl set-hostname node2hostnamectl set-hostname node3vim /etc/hosts192.168.137.128 node1192.168.137.129 node2192.168.137.130 node32、安装JDKtar zxf /root/jdk1.8.0_101.tar.gz -C /data/echo 'export原创 2022-01-05 21:01:12 · 1757 阅读 · 2 评论