工作笔记
meltonizaton
这个作者很懒,什么都没留下…
展开
-
Neo4j Cypher 查询语法
Neo4j Cypher 查询语法Created: Oct 13, 2020 9:22 PMTags: Cypher, DB, Neo4j图数据库的基本概念节点节点通常会表示为一实体节点可以包含属性关系关系是连接实体的边,通过关系看可以找到节点集合,关系集合,以及属性集合关系也可以包含属性关系可以是单向的,也可以是双向的→ node →node1 → node2属性key-value 键值对组成,键名是字符串,属性值可以是原始类型,可以是原始类型组成的数组booleanbyt原创 2020-10-19 17:23:33 · 837 阅读 · 0 评论 -
PySpark 操作函数一览
PySpark 操作函数一览Created: Sep 14, 2020 10:28 AMTags: Big Data, PySpark, Python, SparkPyspark.sql.functionsfrom pyspark.sql import functions as F函数使用说明基本数学函数类abssin、cos、tan、asin、acos 、atan、sinh、cosh、tanhceil、round、floorexp、log、log2、pow、sqrt、cbrtf原创 2020-09-21 15:06:05 · 2139 阅读 · 2 评论 -
正则表达式文档一览
正则表达式使用笔记Created: Aug 12, 2020 11:28 AMTags: Python, RegExp, re, regexre 模块import re编译标志ASCII (A)使几个转义如 \w、\b、\s 和 \d 匹配仅与具有相应特征属性的 ASCII 字符匹配。DOTALL (S)使 . 匹配任何字符,包括换行符IGNORECASE (I)进行大小写不敏感匹配re.search('AbC', 'aBc', re.I)# <re.Match objec原创 2020-08-13 15:59:07 · 361 阅读 · 0 评论 -
PySpark 使用笔记
背景PySpark 通过 RPC server 来和底层的 Spark 做交互,通过 Py4j 来实现利用 API 调用 Spark 核心。Spark (written in Scala) 速度比 Hadoop 快很多。Spark 配置可以各种参数,包括并行数目、资源占用以及数据存储的方式等等Resilient Distributed Dataset (RDD) 可以被并行运算的 Spark 单元。它是 immutable, partitioned collection of elements安装原创 2020-08-07 11:47:20 · 240 阅读 · 0 评论