dfs.ha.namenodes.jed
nn1,nn2
dfs.namenode.rpc-address.jed.nn1
「NAME 1」:9000
dfs.namenode.http-address.jed.nn1
「NAME 1」:50070
dfs.namenode.rpc-address.jed.nn2
「NAME 2」:9000
dfs.namenode.http-address.jed.nn2
「NAME 2」:50070
dfs.namenode.shared.edits.dir
qjournal://「NAME 1」:8485;「NAME 2」:8485;「DataNode HOST n」:8485/jed
dfs.journalnode.edits.dir
「$PATH」/jd
dfs.ha.automatic-failover.enabled
true
dfs.client.failover.proxy.provider.jed
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
dfs.ha.fencing.methods
sshfence
shell(/bin/true)
dfs.ha.fencing.ssh.private-key-files
/root/.ssh/id_rsa
dfs.ha.fencing.ssh.connect-timeout
20000
mapred-site.xml
mapreduce.framework.name
yarn
yarn-site.xml
yarn.resourcemanager.ha.enabled
true
yarn.resourcemanager.cluster-id
Cyarn
yarn.resourcemanager.ha.rm-ids
rm1,rm2
yarn.resourcemanager.hostname.rm1
「HashNode HOST 1」
yarn.resourcemanager.hostname.rm2
「HashNode HOST 2」
yarn.resourcemanager.zk-address
「NAME 1」:2181,「NAME 2」:2181,「HashNode HOST n」:2181
===================================================================
进入 hive-0.12.0/conf
目录,复制 hive-env.sh.templaete
为 hive-env.sh
:
cd /app/hive-0.12.0/conf
cp hive-env.sh.template hive-env.sh
sudo vi hive-env.sh
分别设置 HADOOP_HOME
和 HIVE_CONF_DIR
两个值:
export HADOOP_HOME=/app/hadoop-1.1.2
export HIVE_CONF_DIR=/app/hive-0.12.0/conf
复制 hive-default.xml.templaete
为 hive-site.xml
:
cd /app/hive-0.12.0/conf
cp hive-default.xml.template hive-site.xml
sudo vi hive-site.xml
加入配置项
默认 metastore 在本地,添加配置改为非本地。
hive.metastore.local
false
修改配置项
hive 默认为 derby 数据库,需要把相关信息调整为 mysql 数据库。
hive.metastore.uris
thrift://hadoop:9083
javax.jdo.option.ConnectionURL
jdbc:mysql://hadoop:3306/hive?=createDatabaseIfNotExist=true
javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver
javax.jdo.option.ConnectionUserName
hive
javax.jdo.option.ConnectionPassword
hive
放置到 $HIVE_HOME/lib中
mv mysql-connector-java-5.1.32-bin.jar /opt/home/apache-hive-1.2.1-bin/lib/
把 hive.metastore.schema.verification
配置项值修改为 false。
hive.metastore.schema.verification
false
把 /app/hive-0.12.0/conf/hive-site.xml
文件中的大概在 2000 行位置左右
把原来的 <value>auth</auth>
修改为 <value>auth</value>
,如下所示:
hive.server2.thrift.sasl.qop
auth
====================================================================
设置 flume-env.sh 配置文件
在 $FLUME_HOME/conf
下复制改名 flume-env.sh.template
为flume-env.sh
,修改 conf/ flume-env.sh
配置文件
cd /app/flume-1.5.2/conf
cp flume-env.sh.template flume-env.sh
sudo vi flume-env.sh
修改配置文件内容 :
JAVA_HOME= /app/lib/jdk1.7.0_55
JAVA_OPTS=“-Xms100m -Xmx200m -Dcom.sun.management.jmxremote”
====================================================================
修改 bin/configure-sqoop
配置文件。
cd /app/sqoop-1.4.5/bin
sudo vi configure-sqoop
注释掉 HBase 和 Zookeeper 等检查(除非使用 HBase 和 Zookeeper 等 HADOOP 上的组件)。
如果不存在 sqoop-env.sh
文件,复制 sqoop-env-template.sh
文件,然后修改 sqoop-env.sh
配置文件。
cd /app/sqoop-1.4.5/conf
cp sqoop-env-template.sh sqoop-env.sh
sudo vi sqoop-env.sh
设置 hadoop 运行程序所在路径和 hadoop-*-core.jar
路径(Hadoop1.X 需要配置)
export HADOOP_COMMON_HOME=/app/hadoop-1.1.2
export HADOOP_MAPRED_HOME=/app/hadoop-1.1.2
编译配置文件 sqoop-env.sh
使之生效。
====================================================================
Kafka所有的配置文件都在“** K A F K A H O M E / c o n f i g ∗ ∗ ” 目 录 下 , 修 改 以 下 配 置 文 件 前 , 需 要 切 换 到 “ KAFKA_HOME/config**”目录下,修改以下配置文件前,需要切换到“ KAFKAHOME/config∗∗”目录下,修改以下配置文件前,需要切换到“KAFKA_HOME/config”目录。
cd $KAFKA_HOME/config
vim server.properties
内容修改如下:
broker.id=0
port=6667
host.name=agent1
log.dirs=/data/data1/kafka
zookeeper.connect=agent1:2181,agent2:2181,agent3:2181
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数前端工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Web前端开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注前端)
最后
好了,这就是整理的前端从入门到放弃的学习笔记,还有很多没有整理到,我也算是边学边去整理,后续还会慢慢完善,这些相信够你学一阵子了。
做程序员,做前端工程师,真的是一个学习就会有回报的职业,不看出身高低,不看学历强弱,只要你的技术达到应有的水准,就能够得到对应的回报。
学习从来没有一蹴而就,都是持之以恒的,正所谓活到老学到老,真正懂得学习的人,才不会被这个时代的洪流所淘汰。
一个人可以走的很快,但一群人才能走的更远。如果你从事以下工作或对以下感兴趣,欢迎戳这里加入程序员的圈子,让我们一起学习成长!
AI人工智能、Android移动开发、AIGC大模型、C C#、Go语言、Java、Linux运维、云计算、MySQL、PMP、网络安全、Python爬虫、UE5、UI设计、Unity3D、Web前端开发、产品经理、车载开发、大数据、鸿蒙、计算机网络、嵌入式物联网、软件测试、数据结构与算法、音视频开发、Flutter、IOS开发、PHP开发、.NET、安卓逆向、云计算
**
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注前端)
[外链图片转存中…(img-HSyzcb60-1712269168391)]
最后
好了,这就是整理的前端从入门到放弃的学习笔记,还有很多没有整理到,我也算是边学边去整理,后续还会慢慢完善,这些相信够你学一阵子了。
做程序员,做前端工程师,真的是一个学习就会有回报的职业,不看出身高低,不看学历强弱,只要你的技术达到应有的水准,就能够得到对应的回报。
学习从来没有一蹴而就,都是持之以恒的,正所谓活到老学到老,真正懂得学习的人,才不会被这个时代的洪流所淘汰。
一个人可以走的很快,但一群人才能走的更远。如果你从事以下工作或对以下感兴趣,欢迎戳这里加入程序员的圈子,让我们一起学习成长!
AI人工智能、Android移动开发、AIGC大模型、C C#、Go语言、Java、Linux运维、云计算、MySQL、PMP、网络安全、Python爬虫、UE5、UI设计、Unity3D、Web前端开发、产品经理、车载开发、大数据、鸿蒙、计算机网络、嵌入式物联网、软件测试、数据结构与算法、音视频开发、Flutter、IOS开发、PHP开发、.NET、安卓逆向、云计算