笔记
txy276362
这个作者很懒,什么都没留下…
展开
-
新学期新气象
Spark生态组件介绍Spark Core:提供了多种资源调度管理,通过内存计算、有向无环图(DAG)等机制保证分布式计算的快速,并引入了RDD的抽象保证数据的高容错性。尤其是定义RDD的API、操作以及这两者上的动作。其他Spark的库都是构建在RDD和Spark Core之上的Spark SQL:提供通过Apache Hive的SQL变体Hive查询语言(HiveQL)与Spark进行交互的API。每个数据库表被当做一个RDD,Spark SQL查询被转换为Spark操作。引入了新的SchemaRD原创 2021-02-28 14:59:52 · 100 阅读 · 0 评论 -
花里胡哨的笔记五
random随机数模块import randomprint(random.random())print(random.randint(1,2))print(random.randrange(1,10))print(random.choices([1,2,3,4]))hashlib 加密模块用于加密相关的操作,代替了md5模块和sha模块,主要提供SHA1,SHA224,SHA256, SHA384,SHA512 ,MD5算法摘要算法又称哈希算法、散列算法。它通过一个函数,把任意长度的数据转换为一个原创 2020-12-02 16:32:51 · 118 阅读 · 0 评论 -
花里花哨笔记 四
1.open函数 Python使用poen函数操作文件open(file,mode,encoding)file: 文件名 绝对路径 、相对路径open(“D:\Python\test\a.txt”)open(r"E:\java\jdbc\mysql1-5.10.11.jar")open("/home/stu/test/a.txt")open(“test/a.txt”)mode :“r” “w” “a” “r+” “w+” “a+” “b”使用“w”模式创建文件,慎用,文件存在时会覆盖原文件使用“a”模式追原创 2020-12-02 16:24:00 · 104 阅读 · 0 评论 -
花里胡哨笔记 三
1.标准模块Python本身带着一些标准的模块库,下列是比较常用的标准库.sys 用于提供对Python解释器相关的操作os 用于提供系统级别的操作,关机,删文件,创建文件,调用系统命令time 时间相关的操作hashlib 用于加密相关的操作random 用于随机数re 用于正表达式2.sys模块的常用方法3. ...原创 2020-11-21 15:32:06 · 85 阅读 · 0 评论 -
花里胡哨笔记二
1.什么是模块Python中的模块是一个包含事先定义好的函数和变量的文件,后缀名是.py模块可以被别的程序引入,使用该模块中的函数等功能。2.使用模块想要使用Python源文件,只需要在另一个源文件里执行import语句,语句如下.import模块名.例如.import OS一个模块只会被导入一次,不管你执行了多少次import。这样可以防止导入模块被一遍又一遍地执行。3.from…import语句。。4.包包的本质就是一个文件目录。目录只有包含一个叫做_init_.py的文件才会原创 2020-11-11 21:23:38 · 147 阅读 · 0 评论 -
花里胡哨笔记
函数的定义1、函数代码块以 def 关键词开头,后接函数标识符名称和圆括号()2、return [表达式] 结束函数,选择性地返回一个值给调用方。不带表达式的 return 相当于返回 None。函数的便利1、减少代码重复2、保持代码的一致性3、方便修改,可扩展性返回值 return1.return表示把程序流程从被调函数转向主调函数并把表达式值带回主调函数,实现函数值的返回,返回时可附带一个返回值,由return后面的参数指定。2、函数的返回值也是函数元组元组和列表非常相似,也是有序的原创 2020-11-03 21:10:27 · 200 阅读 · 0 评论