Spark
数往知来
数据人生
展开
-
Spark ml之Binarizer
Binarizer 二值化器Binarization 二值化是将数值特征阀值化为二进制(0/1)特征的过程。Binarizer(ML提供的二元化方法),二元化涉及的参数有inputCol,outputCol和threshold阀值, 输入的特征值大于阀值将二值化为1.0,小于等于阀值的将二值化为0.0,inputCol支持向量Vector和双精度Double类型示例:import or...原创 2020-01-02 15:01:48 · 376 阅读 · 0 评论 -
Spark ml之N-Gram
一个n-gram是一个长度为n的字的序列。 N-Gram的输入为一系列的字符串,例如Tokenizer分词器的输出。参数n表示每个n-gram中单词terms的数量,输出由n-gram序列组成,其中每个n-gram由空格分隔的n个连续词的字符串表示 如果输入的字符串序列少于n个单词,NGram输出为空示例:import org.apache.spark.ml.feature.NGrami...原创 2019-12-31 16:18:30 · 403 阅读 · 0 评论 -
Spark ml之StopWordsRemover
停用词stop words是在文档中频繁出现的词,但未携带太多意义的词,他们不应该参与到算法的运算中StopWordsRemover是将输入的字符串(一般是分词器的Tokenizer的输出)中的停用词删除停用词表由stopWords参数指定,对于某些语言的默认停用词表是通过调用StopWordsRemover.loadDefaultStopWords(language),可用的选项为"丹麦"...原创 2019-12-31 10:12:17 · 745 阅读 · 0 评论 -
Spark ml之Tokenizer
Spark ml中的Tokenizer(分词器)Tokenizer是将文本如一个句子拆分城单词的过程,在spark ml中提供Tokenizer实现此功能RegexTokenizer提供了跟高级的基于正则表达式匹配的单词拆分。默认情况下,参数pattern(默认的正则表达式:"\s+") 作为分隔符用于拆分输入的文本,或者,用户将参数 gaps设置为false,指定正则表达式pattern表示...原创 2019-12-30 16:00:39 · 1637 阅读 · 0 评论 -
Hive之get_json_object函数
–使用场景在实际采集场景中,主动采集或被动推送的文件字段可能含有json串,此类多是爬虫数据或是日志数据,hive提供了一类json解析函数在对此类数据通过进行预处理和清洗,此篇介绍get_json_object函数–数据准备此时DW中存在一张的DWD表,其中包含了json对象的字段(此表其实仍属于一类业务过程的事实表,只是字段包含了json对象,所以是存放在DWD层,而不是在ODS做处理)...原创 2019-11-29 10:07:03 · 3105 阅读 · 0 评论 -
FTP遍历目录查找指定目录下的文件导入HDFS
最近有个需求,ftp主机上有很多目录,目录下层级不一,需要把父目录下所有满足的文件夹下的指定文件下载到HDFS,并且保留目录结构,因为数据在ftp主机已经落地,如果用公司内部的etl工具并不好实现这种层级不一的文件导入,故改用开发代码去实现。思路:1.遍历ftp指定目录,找到指定文件夹的路径2.拿到所有文件夹的路径,下载到hdfs实现(这里只放本地测试代码):1.FTP连接工具类i...原创 2019-03-27 14:41:15 · 1190 阅读 · 0 评论