day12函数和高阶函数

day12

一,匿名函数

匿名函数的本质还是函数,他们除了定义的语法不同,其他的函数跟普通函数一样的

注意:匿名函数只能用来实现功能很简单的函数

'''
语法:
lambda 形参列表:返回值

转换成普通:
def (形参列表):
    return 返回值
'''
# 练习:写一个匿名函数判断指定的数是否是偶数,如果是返回True,否则返回False
num = lambda num1: num1 % 2 == 0
print(num(78))#True
# 练习2.写一个匿名函数判断指定的年是否是闰年,如果是返回True,否则返回False
leap1 = lambda year: year % 100 != 0 and year % 4 == 0 or year % 400 == 0
print(leap1(2022))#False
二、变量的作用域

变量定义以后可以使用的范围

根据变量作用域的不同我们将变量分为全局变量和局部变量两种

1.全局变量

'''
全局变量
没有定义在函数和类里面的变量都是全局变量
全局变量的作用域是从定义开始到程序结束
全局变量保存在全局的栈区间,全局栈区间在结束程序后才会自动释放
'''
# a 是全局变量
a = 100

2.局部变量

'''
2)局部变量
定义在函数中的变量是局部变量,其中包括形参;
局部变量的作用域是从定义开始到函数结束
调用函数的时候系统会自动给这个函数创建一个临时栈区间用来保存在函数中产生的数据(包括局部变量)
当函数调用结束这个临时栈区间会自动释放
'''
# b 和 x是局部变量
for x in range(3):
    b = 100
    print(x,b)

# c和 d是局部变量
def func1(c):
    d = 300
    print(c,d)


3.关键字global的使用

作用1:在函数里面去修改一个全局变量的值,修改之前先用global对变量进行说明

作用2:在函数中定义一个全局变量

三、高阶函数

在python中定义函数其实就是定义类型是function的变量,函数名就是变量名,变量可以完成的功能函数都可以完成

高阶函数:实参高阶函数,返回值高阶函数

1.常用的实参高阶函数:max min sorted (sort) map reduce

如果函数的参数是函数提供实参的方式:

a.用普通函数的函数名

b.使用匿名函数

max/min

将序列中的元素按照函数指定的规则进行变换得到一个新的序列

#获取nums中绝对值最大/最小的元素
nums = [29, 73, 64, -31, 68, 55, -76]
print(max(nums, key=lambda x: x * 1 if x >= 0 else x * -1))
print(min(nums, key=lambda x: x * 1 if x >= 0 else x * -1))

sorted

将序列中的元素按照函数指定的规则进行变化变换得到一个新的序列

# 练习5:按分数最高的进行排序
students = [
    {'name': 'stu1', 'age': 19, 'score': 72},
    {'name': 'stu2', 'age': 22, 'score': 89},
    {'name': 'stu3', 'age': 30, 'score': 60},
    {'name': 'stu4', 'age': 17, 'score': 77}
]
print(sorted(students,key=lambda x:x['score'],reverse=True))

map

练习2:将nums中所有的元素乘以2
nums = [29, 73, 64, 301, 68, 55, 76]
# [58, 146, 128, 602, 136, 110, 152]
print(list(map(lambda x:x*2,nums)))

reduce - 将序列中的元素按照指定的规则合并成一个数据

'''
reduce(函数,序列,初始值)
初始值:一般是0/1或者是空串
函数的要求:1.有且只有两个参数(第一个参数指向初始值;第二个参数指向序列中的每个元素)
            2.有一个返回值(决定合并方式)
注意:使用reduce之前必须先从functools模块中导入
'''
# 求总分数
from functools import reduce
tudents = [
    {'name': 'stu1', 'age': 19, 'score': 72},
    {'name': 'stu2', 'age': 22, 'score': 89},
    {'name': 'stu3', 'age': 30, 'score': 60},
    {'name': 'stu4', 'age': 17, 'score': 77}
]
result2 = reduce(lambda x,y:x+y['score'],students,0)
print(result2)

练习
  1. 写一个匿名函数,判断指定的年是否是闰年

    leap_year = lambda year: year % 100 != 0 and year % 4 == 0 or year % 400 == 0
    print(leap_year(2022))
    
  2. 写一个函数将一个指定的列表中的元素逆序( 如[1, 2, 3] -> [3, 2, 1])(注意:不要使用列表自带的逆序函数)

    list1 = [1,2,3]
    print(sorted(list1,key=lambda x:x,reverse=True))
    
  3. 编写一个函数,计算一个整数的各位数的平方和

    例如: sum1(12) -> 5(1的平方加上2的平方) sum1(123) -> 14

sum1 = lambda x:sum(int(x)**2 for x in str(x))
print(sum1(123))
  1. 求列表 nums 中绝对值最小的元素

    例如:nums = [-23, 100, 89, -56, -234, 123], 最大值是:-23

nums = [-23, 100, 89, -56, -234, 123]
print(min(nums,key=lambda x:x if x >= 0 else -x))
  1. 已经两个列表A和B,用map函数创建一个字典,A中的元素是key,B中的元素是value

    A = [‘name’, ‘age’, ‘sex’]
    B = [‘张三’, 18, ‘女’]
    新字典: {‘name’: ‘张三’, ‘age’: 18, ‘sex’: ‘女’}

    A = ['name', 'age', 'sex']
    B = ['张三', 18, '女']
    result = map(lambda key,value:{key:value},A,B)
    print(list(result))
    
  2. 已经三个列表分别表示5个学生的姓名、学科和班号,使用map将这个三个列表拼成一个表示每个学生班级信息的的字典

    #结果:{‘小明’: ‘python1906’, ‘小花’: ‘h51807’, ‘小红’: ‘java2001’, ‘老王’: ‘python2004’}

    names = ['小明', '小花', '小红', '老王']
    nums = ['1906', '1807', '2001', '2004']
    subjects = ['python', 'h5', 'java', 'python']
    nums_subjects = list(map(lambda x,y : f'{x}{y}',subjects,nums))
    students = list(map(lambda i1,i2:{i1:i2},names,nums_subjects))
    print(list(students))
    
  3. 已经一个列表message, 使用reduce计算列表中所有数字的和

    message = [‘你好’, 20, ‘30’, 5, 6.89, ‘hello’]
    结果:31.89

    message = ['你好', 20, '30', 5, 6.89, 'hello']
    from functools import reduce
    result = [float(y) for y in message if '0'<=str(y)<='9']
    result1= reduce(lambda x,x1:x+x1,result,0)
    print(result1)
    
  4. 已经列表points中保存的是每个点的坐标(坐标是用元组表示的,第一个值是x坐标,第二个值是y坐标

    points = [
    (10, 20), (0, 100), (20, 30), (-10, 20), (30, -100)
    ]

    1)获取列表中y坐标最大的点

    points = [(10, 20), (0, 100), (20, 30), (-10, 20), (30, -100)]
    print(max(points,key=lambda x:x[-1]))
    

    2)获取列表中x坐标最小的点

    points = [(10, 20), (0, 100), (20, 30), (-10, 20), (30, -100)]
    print(min(points,key=lambda x:x[0]))
    

    3)获取列表中距离原点最远的点

    points = [(10, 20), (0, 100), (20, 30), (-10, 20), (30, -100)]
    print(max(points,key=lambda x: x[0]**2+x[1]**2))
    

    4)将点按照点到x轴的距离大小从大到小排序

    points = [(10, 20), (0, 100), (20, 30), (-10, 20), (30, -100)]
    print(sorted(points,key=lambda x:x[0],reverse=True))
    
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Apache Spark 2.4 提供了许多解决复杂数据类型的内置函数高阶函数。其,内置函数包括数组函数、结构体函数、日期时间函数、字符串函数等,可以方便地对复杂数据类型进行操作和处理。高阶函数则可以将函数作为参数传递给其他函数,实现更加灵活的数据处理。 例如,数组函数包括 explode、array_contains、array_distinct 等,可以对数组类型的数据进行拆分、查找、去重等操作。结构体函数包括 struct、getField、withField 等,可以对结构体类型的数据进行创建、获取、修改等操作。日期时间函数包括 year、month、day、hour、minute、second 等,可以对日期时间类型的数据进行提取和转换。字符串函数包括 concat、substring、trim、regexp_replace 等,可以对字符串类型的数据进行拼接、截取、去空格、替换等操作。 高阶函数包括 map、filter、reduce、fold 等,可以对数据集进行映射、过滤、聚合等操作。例如,map 函数可以将一个函数应用于数据集的每个元素,返回一个新的数据集;filter 函数可以根据指定的条件过滤数据集的元素,返回一个新的数据集;reduce 函数可以将数据集的元素进行聚合,返回一个单一的值;fold 函数可以对数据集的元素进行聚合,并指定一个初始值,返回一个单一的值。 总之,Apache Spark 2.4 提供了丰富的内置函数高阶函数,可以方便地对复杂数据类型进行操作和处理,提高数据处理的效率和灵活性。 ### 回答2: Apache Spark是一款非常流行的大数据处理框架,而在该框架的最新版本Apache Spark 2.4,主要更新了复杂数据类型的内置函数高阶函数,以帮助用户更加方便地进行数据分析和处理。 首先,Apache Spark 2.4 加入了多个新的内置函数,如array_contains、map_from_arrays、map_keys、map_values和posexplode等,用于处理不同的复杂数据类型。 array_contains函数用于判断一个数组是否包含某个指定元素,它很容易地就能来检查一个数据集是否具有某些特定的值。而map_from_arrays、map_keys和map_values等函数则用于对一个Map类型的数据集进行操作,例如将一些key数组转换成一个map,或者将一个map的值集返回成一个数组等。 此外,Apache Spark 2.4版本还增加了许多高阶函数高阶函数使用其他函数作为参数的函数,因此通常具有更强的灵活性和适应性。一些常用的高阶函数,如aggregate、foldLeft、reduce、foreach和flatMap等,都能在Spark得到很好的支持。 其,aggregate函数用于将数据集的每条记录与一个给定的初始值进行组合,然后再用一个给定的函数进行聚合。例如,它可以被用于求数据集的最大值、最小值和平均值等等。 与此相似,foldLeft函数reduce函数都可以用来对数据集的每个元素进行操作,但它们的实现方式略有不同。foldLeft函数还可以提供一个序列化的初始值,并将结果与初始值合并以产生最终结果。而reduce函数使用指定的函数将所有元素逐一聚合起来,得到一个最终的输出结果。 总之,Apache Spark 2.4新增的这些内置函数高阶函数,为用户提供了丰富的功能和更加灵活的选项,使得Spark在处理各种类型的数据时更加方便和高效。 ### 回答3: Apache Spark 2.4是一个强大的大数据分析和处理引擎,它通过内置的函数库和高阶函数来解决复杂数据类型的处理问题。这些函数使得对非结构化数据或半结构化数据的查询和分析变得容易和高效。 Apache Spark 2.4内置的函数库支持各种复杂数据类型,包括结构化数据(如JSON或XML),图形数据(如社交网络)和空间数据(如地图数据)。对于每种数据类型,Spark都提供了一组专门的函数来解决常见的数据操作问题。例如,Spark提供了大量的JSON函数来解析和查询JSON数据,这些函数可以方便地提取某个字段或值,进行集合操作,或者转换为其他数据格式。 除了内置的函数库之外,Apache Spark 2.4还支持高阶函数高阶函数是指一个函数可以接受另一个函数作为参数或返回一个函数作为结果。这种函数式编程风格可以使得代码更加简洁和灵活。例如,Spark提供了flatMap、map和filter等高阶函数,可以方便地进行复杂的数据转换和筛选。此外,Spark还支持用户定义的函数(UDF),可以让用户根据自己的业务逻辑定义自己的函数,从而获得更高的灵活性和可定制性。 总体而言,Apache Spark 2.4提供了强大的内置函数高阶函数,可以方便地解决各种复杂数据类型的处理问题。这些函数可以提高数据分析和处理的效率,使得数据科学家和开发人员能够更快地分析和挖掘数据价值,实现更加智能和高效的数据处理系统。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值