今天没什么事就总结一下Shell中很多操作关于效率的问题
不说别的没有用的
就是来点干的
最开始那自然就是算数运算
这里我最推荐的就是用$(()) 这样的方法进行简单的运算
因为无论是expr 还是bc之类的计算器肯定都没有linux的内置的快
总结起来也就是一句话
那就是能用内置的变量就不要用外部命令
然后就是有关于变量截取的问题
比如一般的变量都可以用sed来搞定
但是的吧,sed说实话效率真不是很高,有时候等一个文件输出
要等很久
可以用 ${  }中的一些内置的变量截取
当然如果就几十个文件搞的话没那么费劲
随意、会用哪个用哪个。
但是当你处理好几千个好几万数据的话,那个时间就不是盖的了
也不用就完全的都整的特别明白
知道什么时候用得着可以查的到就可以了
比如百度什么关键词就能找到对应的解决办法
还有就是能用工具搞定的东西,不用非得自己写一个脚本去处理
毕竟工具经历了这么多年的洗礼
不好用的工具肯定就被淘汰了
还有挺重要的就是嵌套循环、我只想说
除非数据非常少
不然你就等吧
能处理数据就处理数据
一次只干成一件事
比如今天有人问一个问题
就是有一个200G的文本文件
想要打印出大概两千行的内容
两千行的行号在一个文本文件里
他给出的解法是用for循环那个行号文件,然后用sed来取
我就简单的估计了一下,这JB不扯淡呢吗
for循环的话、得循环2000多遍,然后sed是遍历那200G的文件
我给了一个解法、但是比较复杂,接下来我就说一下我的方法
仅仅提供参考,肯定有比我更好的解法

首先就是sed不能分行过滤,因为那2000行是不连续的,sed我搞不定
也许哪个sed大神说可以搞定,我办不到,我给出一个大众的解法
我用的就是awk,awk的话 关键的用法就是这个
awk ‘/{if(NR==LINE)print}/’ file
就是用NR来判断行号,那么只需要遍历一遍文件就可以
重要的就是把NR==LINE的问题搞定就可以了
因为awk支持 (NR==23||NR==25)
像这样的,它可以多选
那么把那个行号文件用tr和sed处理过后就能整出来()中间的那种类型的一行文本
直接复制过去给awk就哦了
我做过实验,肯定搞得定,我已经搞定了
不过代码那阵关机以后就在历史记录里了
我也懒的翻了

就总结这么多了,不多说了,准备洗洗睡了