学习备忘录

账号:zhouyong 密码:lzB0Vb8M
mongod --dbpath D:\MangodbInstall\bin

java基础,ssm,springboot,springcloud,mysql,redis,rabbitmq,kafka,elasticsearch,jvm,
计算机网络,操作系统,计算机组成原理,数据结构与算法,校园购项目,剑指offer,力扣100,juc、公众号代码随想录200,
《Head First Java》
《程序员面试宝典java版》
《深入理解jvm虚拟机》
《Spring实战》 408+jvm+java基础+框架+项目+数据库+消息队列中间件+算法题
《剑指offer》
《Java并发编程的艺术》
《mysql45讲–》《mysql技术内幕》
《kafka权威指南》
《elasticsearch技术解析与实战》
《Redis设计与实现–》
《湖南科技大学–》
《王道考研》
《大话数据结构》
《大话设计模式》
《图解 TCP/IP》
《图解网络》
《图解系统》
hadoop,spark,hive、kafka、hbase、电商数仓4.0

乐优商城的源码实现
后端实现
https://github.com/ZyJackMan28/emporium.git
后台管理页面实现
https://github.com/ZyJackMan28/emporium-manage-web.git
前台门户页面实现
https://github.com/ZyJackMan28/emporium-portal.git

这些书是阿里巴巴面试官给总结的,也是我亲身经历后总结的,都是必读的书,然后考研那四本计网,组成原理,操作系统,数据结构,这四本是重中之重!。
很多书刚开始接触读起来会很吃力,多读几遍,如果学校不占优势,项目可以多写一点
重要性:数据结构>操作系统,计算机网络>计算机组成原理>编译原理(这本书建议自学) 操作系统和计算机网络重要性不分上下
《数据结构》最重要,编程=数据结构+算法,那些树啊什么的,属于含泪也要弄懂系列。

首先要坚定必胜的信念,只要自己持续不断的尝试,努力,就一定可以取得成功,遇到困难是正常的,想办法去解决困难就可以了,要坚信办法一定比困难多。
一定要去做困难的事情,做困难的事情必有所得

jpsall myhadoop.sh xsync zk.sh kf.sh脚本启动目录:/home/chzu/bin
Redis安装包目录:/opt
Redis安装目录:/usr/local/bin
Redis启动命令:/usr/local/bin目录下使用redis-server /etc/redis.conf命令
Redis客户端启动命令:/usr/local/bin/redis-cli
Redis关闭命令:安装目录下使用redis-cli shutdown
Nginx启动目录:/usr/local/nginx/sbin 下使用./nginx命令
Nginx关闭命令:./nginx -s stop
nginx重载命令:./nginx -s reload
Nginx,Tomcat安装包目录:/usr/src
Tomcat安装目录:/usr/src
Tomcat启动目录:Tomcat安装目录下找到bin目录在其下面使用./startup.sh命令
关闭Tomcat命令:ps -ef | grep tomcat 查看Tomcat进程号,使用kill -9 + 进程号 命令杀死Tomcat进程
zookeeper集群启动命令:/home/chzu/bin下执行zk.sh start命令,任意目录下执行zk.sh start 命令大概也可以
zookeeper集群关闭命令:/home/chzu/bin下执行zk.sh stop命令,任意目录下执行zk.sh stop 命令大概也可以
启动zookeeper客户端命令:bin/zkCli.sh -server hadoop102:2181
防火墙:
启动:systemctl start firewalld
关闭:systemctl stop firewalld
查看状态:systemctl status firewalld
禁止开机自启动:systemctl disable firewalld
nginx中的keepalived的启动方式
启动hive先启动hadoop集群:目的是hdfs和MR
启动Hive的元数据 metastore:bin/hive --service metastore
启动hiveserver2:bin/hive --service hiveserver2
hive日志目录:/tmp/chzu
查看hive日志命令:tail -f hive.log
spark的Linux下local环境启动:bin/spark-shell
spark的window环境启动:F:\尚硅谷Spark\资料\2.资料\spark-3.0.0-bin-hadoop3.2\spark-3.0.0-bin-hadoop3.2\bin下spark-shell.cmd 双击
hadoop102的mysql密码:000000
hadoop密码root
计算机组p11
计算机网络p6
hive 的日志目录/tmp/chzu
每天学习20-30集视屏

yarn.app.mapreduce.am.env HADOOP_MAPRED_HOME=/opt/module/hadoop-3.1.3/etc/hadoop:/opt/module/hadoop-3.1.3/share/hadoop/common/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/common/*:/opt/module/hadoop-3.1.3/share/hadoop/hdfs:/opt/module/hadoop-3.1.3/share/hadoop/hdfs/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/hdfs/*:/opt/module/hadoop-3.1.3/share/hadoop/mapreduce/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/mapreduce/*:/opt/module/hadoop-3.1.3/share/hadoop/yarn:/opt/module/hadoop-3.1.3/share/hadoop/yarn/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/yarn/* mapreduce.map.env HADOOP_MAPRED_HOME=/opt/module/hadoop-3.1.3/etc/hadoop:/opt/module/hadoop-3.1.3/share/hadoop/common/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/common/*:/opt/module/hadoop-3.1.3/share/hadoop/hdfs:/opt/module/hadoop-3.1.3/share/hadoop/hdfs/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/hdfs/*:/opt/module/hadoop-3.1.3/share/hadoop/mapreduce/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/mapreduce/*:/opt/module/hadoop-3.1.3/share/hadoop/yarn:/opt/module/hadoop-3.1.3/share/hadoop/yarn/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/yarn/* mapreduce.reduce.env HADOOP_MAPRED_HOME=/opt/module/hadoop-3.1.3/etc/hadoop:/opt/module/hadoop-3.1.3/share/hadoop/common/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/common/*:/opt/module/hadoop-3.1.3/share/hadoop/hdfs:/opt/module/hadoop-3.1.3/share/hadoop/hdfs/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/hdfs/*:/opt/module/hadoop-3.1.3/share/hadoop/mapreduce/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/mapreduce/*:/opt/module/hadoop-3.1.3/share/hadoop/yarn:/opt/module/hadoop-3.1.3/share/hadoop/yarn/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/yarn/*

#!/bin/bash

if[ KaTeX parse error: Expected 'EOF', got '#' at position 1: #̲ lt 1 ] //#代表传进来的文件个数
then
echo no data
exit
fi

for host in hadoop102 hadoop103 hadoop104 /遍历所有的主机
do
echo ==$host
for file in @ / / @ // @//@代表传进来的文件 file理解为形式参数
do
if [ -e $file ]
then
pdir = $(cd -P (dirname $file);pwd)
fname= $(basename $file)
ssh $host “mkdir -p $pdir”
rsync -av p d i r / pdir/ pdir/fname h o s t : host: host:pdir
else
echo not exist file
fi

	done

done

16384 slots covered.

set password = password(“000000”);

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值