【玩转Linux操作】一文带你明白Shell的判断,循环语句

🎊专栏【玩转Linux操作】
🍔喜欢的诗句:更喜岷山千里雪 三军过后尽开颜。
🎆音乐分享【如愿】
大一同学小吉,欢迎并且感谢大家指出我的问题🥰


在这里插入图片描述

🍔判断语句

注意写空格

if … then 形式
类似于C/C++里面的if-else语句

⭐单层if

if condition
then
	语句1
	语句2
	...
fi

🎈示例

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

⭐单层if-else

if condition
then 
	语句1
	语句2
	...
else
	语句1
	语句2
	...
fi

🎈示例

在这里插入图片描述
在这里插入图片描述

⭐多层if-elif-elif-else

if condition
then
	语句1
	语句2
	...
elif condition
then
	语句1
	语句2
	...
elif condition
then
	语句1
	语句2
	...
else
	语句1
	语句2
	...
fi

🎈示例

在这里插入图片描述
在这里插入图片描述

⭐case…esac形式

类似于C/C++的switch语句

case $变量名称 in
	值1)
		语句1
		语句2
		...
		;;  #类似于C/C++的break
	值2)
		语句1
		语句2
		...
		;;  
	*)		#类似于C/C++的default
		语句1
		语句2
		...
		;;
esac

🎈示例


在这里插入图片描述

🍔循环语句

注意写空格

⭐for…in…do…done

for var in val1 val2 val3
do
	语句1
	语句2
	...
done

🎈示例

🎄输出a 2 cc,每个元素占一行

在这里插入图片描述

在这里插入图片描述

🎄输出当前路径下的所有文件名,每个文件名占一行

在这里插入图片描述
在这里插入图片描述

🎄输出1-10

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

⭐for((…;…;…))do…done

for((expression;condition;expression))
do
	语句1
	语句2
	...
done

🎈示例

输出0到9
在这里插入图片描述

在这里插入图片描述

⭐while…do…done循环

while condition
do
	语句1
	语句2
	...
done

🎈示例

输入name,按下CTRL+d后停止输入

在这里插入图片描述

在这里插入图片描述

⭐until…do…done循环

当条件为真时结束循环

until condition
do
	语句1
	语句2
	...
done

🎈示例

当用户输入yesYES时结束,否则一直输入
在这里插入图片描述
在这里插入图片描述

🌺break命令

跳出当前一层循环

Linux中break不能跳出case语句

⭐示例

如果输入的不是文件结束符,那么会输出1,2,3,4,5,6,7
如果输入的是文件结束符,那么会直接结束循环
Linux中的文件结束符(EOF)是CTRL+d

while read name 
do 
	for((i=1;i<=10;i++))
	do
		case $i in
			8)
				break
				;;
			*)
				echo $i
				;;
		esac
	done
done

在这里插入图片描述
在这里插入图片描述

🌺continue命令

for ((i=1;i<=10;i++))
do
	if [ `expr $i % 2` -eq 0 ]
	then
		continue
	fi
	echo $i
done

在这里插入图片描述
在这里插入图片描述

🎁死循环的处理方式

输入CTRL+c即可
否则可以直接关闭进程
1.所有top命令找到该进程的PID
2.输入kill -9 PID即可关掉此进程

🥰如果大家有不明白的地方,或者文章有问题,欢迎大家在评论区讨论,指正🥰

  • 76
    点赞
  • 70
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 90
    评论
Spark是一个快速通用的集群计算框架,它可以处理大规模数据,并且具有高效的内存计算能力。Spark可以用于各种计算任务,包括批处理、流处理、机器学习等。本文将你了解Spark计算框架的基本概念和使用方法。 一、Spark基础概念 1. RDD RDD(Resilient Distributed Datasets)是Spark的基本数据结构,它是一个分布式的、可容错的、不可变的数据集合。RDD可以从Hadoop、本地文件系统等数据源中读取数据,并且可以通过多个转换操作(如map、filter、reduce等)进行处理。RDD也可以被持久化到内存中,以便下次使用。 2. Spark应用程序 Spark应用程序是由一个驱动程序和多个执行程序组成的分布式计算应用程序。驱动程序是应用程序的主要入口点,它通常位于用户的本地计算机上,驱动程序负责将应用程序分发到执行程序上并收集结果。执行程序是运行在集群节点上的计算单元,它们负责执行驱动程序分配给它们的任务。 3. Spark集群管理器 Spark集群管理器负责管理Spark应用程序在集群中的运行。Spark支持多种集群管理器,包括Standalone、YARN、Mesos等。 二、Spark计算框架使用方法 1. 安装Spark 首先需要安装Spark,可以从Spark官网下载并解压缩Spark安装包。 2. 编写Spark应用程序 编写Spark应用程序通常需要使用Java、Scala或Python编程语言。以下是一个简单的Java代码示例,用于统计文本文件中单词的出现次数: ```java import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import java.util.Arrays; import java.util.Map; public class WordCount { public static void main(String[] args) { SparkConf conf = new SparkConf().setAppName("WordCount").setMaster("local"); JavaSparkContext sc = new JavaSparkContext(conf); JavaRDD<String> lines = sc.textFile("input.txt"); JavaRDD<String> words = lines.flatMap(line -> Arrays.asList(line.split(" ")).iterator()); Map<String, Long> wordCounts = words.countByValue(); for (Map.Entry<String, Long> entry : wordCounts.entrySet()) { System.out.println(entry.getKey() + " : " + entry.getValue()); } sc.stop(); } } ``` 3. 运行Spark应用程序 将编写好的Spark应用程序打包成jar包,并通过以下命令运行: ```bash spark-submit --class WordCount /path/to/wordcount.jar input.txt ``` 其中,--class参数指定应用程序的主类,后面跟上打包好的jar包路径,input.txt是输入文件的路径。 4. 查看运行结果 Spark应用程序运行完毕后,可以查看应用程序的输出结果,例如上述示例中的单词出现次数。 以上就是Spark计算框架的基本概念和使用方法。通过学习Spark,我们可以更好地处理大规模数据,并且提高计算效率。
评论 90
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

在下小吉.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值