账号:zhouyong 密码:lzB0Vb8M
mongod --dbpath D:\MangodbInstall\bin
java基础,ssm,springboot,springcloud,mysql,redis,rabbitmq,kafka,elasticsearch,jvm,
计算机网络,操作系统,计算机组成原理,数据结构与算法,校园购项目,剑指offer,力扣100,juc、公众号代码随想录200,
《Head First Java》
《程序员面试宝典java版》
《深入理解jvm虚拟机》
《Spring实战》 408+jvm+java基础+框架+项目+数据库+消息队列中间件+算法题
《剑指offer》
《Java并发编程的艺术》
《mysql45讲–》《mysql技术内幕》
《kafka权威指南》
《elasticsearch技术解析与实战》
《Redis设计与实现–》
《湖南科技大学–》
《王道考研》
《大话数据结构》
《大话设计模式》
《图解 TCP/IP》
《图解网络》
《图解系统》
hadoop,spark,hive、kafka、hbase、电商数仓4.0
乐优商城的源码实现
后端实现
https://github.com/ZyJackMan28/emporium.git
后台管理页面实现
https://github.com/ZyJackMan28/emporium-manage-web.git
前台门户页面实现
https://github.com/ZyJackMan28/emporium-portal.git
这些书是阿里巴巴面试官给总结的,也是我亲身经历后总结的,都是必读的书,然后考研那四本计网,组成原理,操作系统,数据结构,这四本是重中之重!。
很多书刚开始接触读起来会很吃力,多读几遍,如果学校不占优势,项目可以多写一点
重要性:数据结构>操作系统,计算机网络>计算机组成原理>编译原理(这本书建议自学) 操作系统和计算机网络重要性不分上下
《数据结构》最重要,编程=数据结构+算法,那些树啊什么的,属于含泪也要弄懂系列。
首先要坚定必胜的信念,只要自己持续不断的尝试,努力,就一定可以取得成功,遇到困难是正常的,想办法去解决困难就可以了,要坚信办法一定比困难多。
一定要去做困难的事情,做困难的事情必有所得
jpsall myhadoop.sh xsync zk.sh kf.sh脚本启动目录:/home/chzu/bin
Redis安装包目录:/opt
Redis安装目录:/usr/local/bin
Redis启动命令:/usr/local/bin目录下使用redis-server /etc/redis.conf命令
Redis客户端启动命令:/usr/local/bin/redis-cli
Redis关闭命令:安装目录下使用redis-cli shutdown
Nginx启动目录:/usr/local/nginx/sbin 下使用./nginx命令
Nginx关闭命令:./nginx -s stop
nginx重载命令:./nginx -s reload
Nginx,Tomcat安装包目录:/usr/src
Tomcat安装目录:/usr/src
Tomcat启动目录:Tomcat安装目录下找到bin目录在其下面使用./startup.sh命令
关闭Tomcat命令:ps -ef | grep tomcat 查看Tomcat进程号,使用kill -9 + 进程号 命令杀死Tomcat进程
zookeeper集群启动命令:/home/chzu/bin下执行zk.sh start命令,任意目录下执行zk.sh start 命令大概也可以
zookeeper集群关闭命令:/home/chzu/bin下执行zk.sh stop命令,任意目录下执行zk.sh stop 命令大概也可以
启动zookeeper客户端命令:bin/zkCli.sh -server hadoop102:2181
防火墙:
启动:systemctl start firewalld
关闭:systemctl stop firewalld
查看状态:systemctl status firewalld
禁止开机自启动:systemctl disable firewalld
nginx中的keepalived的启动方式
启动hive先启动hadoop集群:目的是hdfs和MR
启动Hive的元数据 metastore:bin/hive --service metastore
启动hiveserver2:bin/hive --service hiveserver2
hive日志目录:/tmp/chzu
查看hive日志命令:tail -f hive.log
spark的Linux下local环境启动:bin/spark-shell
spark的window环境启动:F:\尚硅谷Spark\资料\2.资料\spark-3.0.0-bin-hadoop3.2\spark-3.0.0-bin-hadoop3.2\bin下spark-shell.cmd 双击
hadoop102的mysql密码:000000
hadoop密码root
计算机组p11
计算机网络p6
hive 的日志目录/tmp/chzu
每天学习20-30集视屏
#!/bin/bash
if[ KaTeX parse error: Expected 'EOF', got '#' at position 1: #̲ lt 1 ] //#代表传进来的文件个数
then
echo no data
exit
fi
for host in hadoop102 hadoop103 hadoop104 /遍历所有的主机
do
echo ==$host
for file in
@
/
/
@ //
@//@代表传进来的文件 file理解为形式参数
do
if [ -e $file ]
then
pdir = $(cd -P (dirname $file);pwd)
fname= $(basename $file)
ssh $host “mkdir -p $pdir”
rsync -av
p
d
i
r
/
pdir/
pdir/fname
h
o
s
t
:
host:
host:pdir
else
echo not exist file
fi
done
done
16384 slots covered.
set password = password(“000000”);