为了做好运维面试路上的助攻手,特整理了上百道 【运维技术栈面试题集锦】 ,让你面试不慌心不跳,高薪offer怀里抱!
这次整理的面试题,小到shell、MySQL,大到K8s等云原生技术栈,不仅适合运维新人入行面试需要,还适用于想提升进阶跳槽加薪的运维朋友。
本份面试集锦涵盖了
- 174 道运维工程师面试题
- 128道k8s面试题
- 108道shell脚本面试题
- 200道Linux面试题
- 51道docker面试题
- 35道Jenkis面试题
- 78道MongoDB面试题
- 17道ansible面试题
- 60道dubbo面试题
- 53道kafka面试
- 18道mysql面试题
- 40道nginx面试题
- 77道redis面试题
- 28道zookeeper
总计 1000+ 道面试题, 内容 又全含金量又高
- 174道运维工程师面试题
1、什么是运维?
2、在工作中,运维人员经常需要跟运营人员打交道,请问运营人员是做什么工作的?
3、现在给你三百台服务器,你怎么对他们进行管理?
4、简述raid0 raid1raid5二种工作模式的工作原理及特点
5、LVS、Nginx、HAproxy有什么区别?工作中你怎么选择?
6、Squid、Varinsh和Nginx有什么区别,工作中你怎么选择?
7、Tomcat和Resin有什么区别,工作中你怎么选择?
8、什么是中间件?什么是jdk?
9、讲述一下Tomcat8005、8009、8080三个端口的含义?
10、什么叫CDN?
11、什么叫网站灰度发布?
12、简述DNS进行域名解析的过程?
13、RabbitMQ是什么东西?
14、讲一下Keepalived的工作原理?
15、讲述一下LVS三种模式的工作过程?
16、mysql的innodb如何定位锁问题,mysql如何减少主从复制延迟?
17、如何重置mysql root密码?
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
[root@xiaopeng ~]# sort testfile -k 2
test 30
Linux 85
Hello 95
### **3.uniq 去重命令语法及参数**
uniq命令是用来取消重复行的命令,其实和sort -u选项是一样的。
`用法:uniq [选项]... [文件]`
`从输入文件或者标准输入中筛选相邻的匹配行并写入到输出文件或标准输出。`
`不附加任何选项时匹配行将在首次出现处被合并。`
`长选项必须使用的参数对于短选项时也是必需使用的。`
`-c, --count 在每行前加上表示相应行目出现次数的前缀编号`
`-d, --repeated 只输出重复的行`
`-D, --all-repeated[=delimit-method 显示所有重复的行`
`delimit-method={none(``default``),prepend,separate} 以空行为界限`
`-f, --skip-fields=N 比较时跳过前N 列`
`-i, --ignore-``case` `在比较的时候不区分大小写`
`-s, --skip-chars=N 比较时跳过前N 个字符`
`-u, --unique 只显示唯一的行`
`-z, --zero-terminated 使用``'\0'``作为行结束符,而不是新换行`
`-w, --check-chars=N 对每行第N 个字符以后的内容不作对照`
`--help 显示此帮助信息并退出`
`--version 显示版本信息并退出`
`若域中为先空字符(通常包括空格以及制表符),然后非空字符,域中字符前的空字符将被跳过。`
`提示:uniq 不会检查重复的行,除非它们是相邻的行。`
`如果您想先对输入排序,使用没有uniq 的``"sort -u"``。`
删除重复行:
[root@xiaopeng ~]# uniq file.txt
[root@xiaopeng ~]# sort file.txt | uniq
[root@xiaopeng ~]# sort -u file.txt
只显示单一行:
[root@xiaopeng ~]# uniq -u file.txt
[root@xiaopeng ~]# sort file.txt | uniq -u
统计各行在文件中出现的次数:
[root@xiaopeng ~]# sort file.txt | uniq -c
在文件中找出重复的行:
[root@xiaopeng ~]# sort file.txt | uniq -dl
### `4.uniq命令用法演示`
下面的命令删除了相邻的重复行,但是第一行111没有删除。
[root@xiaopeng ~]# uniq uniq.txt
111
223
56
111 # 删除了重复的111
567
223
排序后去重。
[root@xiaopeng ~]# sort uniq.txt | uniq
111
223
56
567
使用-d显示重复的行。
[root@xiaopeng ~]# sort uniq.txt | uniq -d
111
223
使用-D显示所有重复过的行。
[root@xiaopeng ~]# sort uniq.txt | uniq -D
111
111
111
223
223
使用-u显示唯一行。
[root@xiaopeng ~]# sort uniq.txt | uniq -u
56
567
使用-c统计哪些记录出现的次数。
[root@xiaopeng ~]# sort uniq.txt | uniq -c
3 111
2 223
1 56
1 567
使用-d -c统计重复行出现的次数。
**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**
**[需要这份系统化的资料的朋友,可以点击这里获取!](https://bbs.csdn.net/topics/618542503)**
**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
openg ~]# sort uniq.txt | uniq -c
3 111
2 223
1 56
1 567
使用-d -c统计重复行出现的次数。
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!