自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

跟我一起去征服

这一刻不放弃,下一秒就有希望。。。。

  • 博客(109)
  • 资源 (10)
  • 收藏
  • 关注

原创 python如何验证用户名和密码的

python如何验证用户名和密码的?postman 模拟登录直接上图吧,要实现的效果如下:可以看到,使用postman访问一个网站,把username、password两个参数带上,是可以登录成功的。##使用python HTTPPasswordMgrWithDefaultRealm直接上图吧:程序报错:通过抓包工具发现:原来是参数没有传对,但是也没有地方给我指定用户对应的字段是username,密码对应的字段是password,刚学python,两脸懵逼,求助,路过请留言。..

2020-08-02 19:18:12 2890 1

原创 python基础学习

1、变量的定义name="""print("hello word")name="fengjinrong"name2=nameprint("my name is ",name,name2)name="Paochege"print(name,name2)gf_of_oldboy = "fengjinrong"print(gf_of_oldboy)print(name)2、交互...

2019-04-20 21:05:21 329

原创 RHEL6解决无法使用YUM源问题

RHEL6解决无法使用YUM源问题RHEL的YUM源需要注册用户才能更新使用,由于CentOS和RHEL基本没有区别,并且CentOS已经被REHL收购。所以将RHEL的YUM源替换为CentOS即可。问题如下:[root@bogon ~]# yum repolistLoaded plugins: product-id, refresh-packagekit, security,

2016-11-09 18:26:05 17228 5

原创 spark 数据倾斜问题

先上两张大图压压惊: Driver拒绝提交任务:16/11/07 10:31:50 INFO OutputCommitCoordinator: Task was denied committing, stage: 5, partition: 887, attempt: 116/11/07 10:33:11 INFO TaskSetManager: Finis

2016-11-09 14:57:23 6268

原创 storm drpc远程调用

在实际的Storm集群上运行DRPC,需完成以下步骤:1、配置DRPC Server(s)地址;    在Storm集群中配置DRPC Server地址,这就是DRPCSpout读取函数调用请求的地方。这一步的配置可以通过storm.yaml文件或者拓扑的配置来完成。通过storm.yaml文件的配置方式如下:drpc.servers:    -  "hadoop1"   

2016-09-16 13:51:46 1818

原创 storm drpc学习

storm drpc 是什么?咋一听觉得挺高大上的,其实也就是那么一回事。就是storm的topology 提供了很多函数,并且函数名唯一,函数里面封装了一些算法操作。只需要在调用的时候指定函数名和传递参数就可以得到返回值。简单的来说就是这么一回事。下面是客户端调用的例子:public static void main(String[] args) { // TODO Aut

2016-09-16 09:28:22 2192

原创 Storm基本概念

Nimbus:负责资源分配和任务调度Supervisor:负责接受nimbus分配的任务,启动和停止属于自己管理的worker进程Worker:运行具体处理组件逻辑的进程Task:worker中每一个spout/bolt的线程成为一个task,在storm 0.8之后,task不再与物理线程对应,同一个spout/bolt的task可能会共享一个物理线程,该线程成为executor

2016-09-10 17:27:12 694

原创 storm 并发度

storm的并发跟spark还是差异很大的。首先strom的topology可以指定worker的个数,woker下面可以指定多少个executor,这个executor就是并发数了,但是还有个task的概念。这个跟spark的概念是非常不同的。因为executor在spark中代表的是一个线程池,task就是一个个的线程。但是storm中的概念并不是这样的,首先来了解一下storm单线程和多线程

2016-09-08 20:47:21 708

原创 storm stream grouping

stream grouping用来定义一个stream应该如何分配给Bolts上面的多个Tasks。storm里面有6种类型的stream grouping:1. Shuffle Grouping:随机分组, 随机派发stream里面的tuple, 保证每个bolt接收到的tuple数目相同。轮询,平均分配。2. Fields Grouping:按字段分组,比如按userid来分组

2016-09-08 19:23:49 601

原创 storm的特性与使用场景

Storm的一些关键特性适用场景广泛: storm可以实时处理消息和更新DB,对一个数据量进行持续的查询并返回客户端(持续计算),对一个耗资源的查询作实时并行化的处理(分布式方法调用,即DRPC),storm的这些基础API可以满足大量的场景。 可伸缩性高:  Storm的可伸缩性可以让storm每秒可以处理的消息量达到很高。扩展一个实时计算任务,你所需要做

2016-08-24 00:05:33 7088

原创 Spark 如何过滤重复的对象

数据如下所示:hello    worldhello    sparkhello    hivehello    worldhello    sparkhello    hive最终需要的只是hello    worldhello    sparkhello    hive这三个,重复的丢掉。有两种实现方法。第一:在程序将文本加载进来形成line R

2016-07-27 15:24:25 16052

原创 spark shell 启动出错问题

错误描述:直接启动spark-shell,pia,出错了,之前一直是这样启动的啊,一点错也没有。心情不好的时候真的想一删了之,然后再下一个版本来用。可是想一想如果下载的也是这个样子,那我岂不是浪费时间,又做重复的事情,赔了夫人又折兵,虽然我没有夫人。。。。恩,还是静心看了看错误,忽然想起前段时间使用spark sql 从hive里面取数据来着,但是我的hive-site.xml和驱动包已经考到了对

2016-07-10 21:22:33 8776

原创 spark 输出结果压缩(gz)

如果不想往下看,可以直接看结果:maxCallRdd.repartition(3).saveAsTextFile(path,GzipCodec.class); 恩,没错。就只这么一行简单的代码实现了gz压缩,但是为什么网上一直没找到呢,这个我不太清楚, 可能是他们没碰到吧。    最近项目的需求,其实很简单,就是将输出结果以.gz的格式压缩,每个压缩包的大小不能超过100M,而且压缩包的名

2016-07-07 00:42:42 11004 2

原创 乱七八糟的记录

本文纯属记录今天的心情,一点技术的内容也没有,所以。。。。。大家懂的。。。。。      今天测试机调试完了之后,没问题了,三遍确定没问题了之后,parner跟我说放上正式环境试试,其实内心是有点拒绝的,正式环境啊,万一弄挂了岂不是罪恶滔天,但是又有点蠢蠢欲试,所以说干就干。怕死不当程序员,哈哈,放上去之后果然不出所料,挂了,挂了,挂了。然后用万能的(其实是只有一种方法)yarn logs

2016-07-07 00:25:40 1080

原创 spark sql 使用hive作为数据源

本来是很简单的一件事,代码也不复杂,如下:代码:public class LocationFromHiveDataSource {    @SuppressWarnings("deprecation")    public static void main(String[] args) {        // 首先还是创建SparkConf        SparkCo

2016-06-29 15:51:39 5257

原创 基于HDFS,Spark Stream的实时统计

最近在搞一个小功能,具体要求是:数据到了hdfs,然后统计。需求很简,程序实现也挺简单的,但是目录有点复杂,如base目录下面有/业务/省/yyyyMMdd/h/aa.txt文件如果是按照之前的约定的方式的话,是可以实现的,但是这个文件夹太复杂了,所以按照约定的方式来弄好像难度也挺复杂的,所以这种方法我放弃了。还有一种方案就是把文件目录放到kafka中,然后订阅kafka的内容,取得了之后将参

2016-06-27 17:15:30 3066

原创 spark on yarn 的那些坑

在公司6个节点的测试集群运行得好好的,结果也很正常,然后放上60个节点的预生产环境,我勒个擦,搞了我两天,主要是生产环境的那些家伙不配合,一个问题搞得拖啊拖,首先是安全认证问题,截取一两个有意义的吧:      1.没有认证Caused by: java.io.IOException: javax.security.sasl.SaslException: GSS initiate fa

2016-06-08 19:44:20 92123 10

原创 spark 的groupby

其实我一直很不明白的是,为什么有groupByKey了还要有groupBy,今天被一位同事问到了怎么对rdd分组的时候,这个疑问算是彻底惹恼我了,我一定要搞清楚这东西怎么用的,嗯,对比一下groupByKey()函数,无参数,pairRdd之际调用即可返回根据分组好的内容,如JavaPairRDD>,但是这个必须是JavaPairRDD类型,也就是说必须是元组的key,value形式。但是Rd

2016-06-01 14:21:41 14667

原创 如何把jvm垃圾回收信息打印到文件

非常简单,直接上代码:  -verbose:gc -Xms20M -Xmx30M -Xmn10M  -XX:+PrintGCDetails  -XX:SurvivorRatio=8 -Xloggc:F:\gc1.log直接就将信息打印到了文件gc1.log中去了,文件的内容如下:Java HotSpot(TM) 64-Bit Server VM (24.80-b11) for wind

2016-05-29 13:33:39 4366 1

原创 一只刚刚迈进JVM领域的脚印

其实在这之前我早就已经受够了jvm包管一切的特点了,凭什么啊,凭什么我自己不能自己看到自己的内存使用情况,凭什么我不能管理啊。尽管JVM说它帮我们管理内存是为了我们好,但是我却不领情,因为我喜欢所有的都掌控在自己手中,及时我不想去控制我也得知道的清清楚楚。如果不是这样的话,那么出问题的时候,我就像一个傻子一样,我是非常讨厌这种感觉的。鉴于之前不知道怎么在eclipse上设置jvm的大小,也没有这个

2016-05-28 16:26:31 523

原创 ORA-01756: quoted string not properly terminated问题

对于这个问题,网上有一大堆的解决方法,然并卵,千篇一律的抄,我就不信他们遇到的问题的解决方法是一样的,尼玛,连数据库的字符编码都没看过,即使偶然蒙对了也是知其然而不知其所以然,对于这种答案我只能呵呵了。下面说一下我的问题:首先从我本地导出一张表,名字为aa.sql,编码什么的从导出到导出完成,完全没有设置过。然后直接上传到服务器,sqlplus a/b 进去之后,使用@/x/y/aa.sq

2016-05-23 16:23:34 20538 3

原创 spark cogroup操作

private static void cogroup() {        // 创建SparkConf        SparkConf conf = new SparkConf()                .setAppName("cogroup")                  .setMaster("local");        // 创建JavaSpar

2016-05-15 17:18:09 1828

原创 spark join操作

// 使用join算子关联两个RDD        // join以后,还是会根据key进行join,并返回JavaPairRDD        // 但是JavaPairRDD的第一个泛型类型,之前两个JavaPairRDD的key的类型,因为是通过key进行join的        // 第二个泛型类型,是Tuple2的类型,Tuple2的两个泛型分别为原始RDD的value的类型

2016-05-15 17:13:10 2339

原创 spark sortByKey

// sortByKey其实就是根据key进行排序,可以手动指定升序,或者降序        // 返回的,还是JavaPairRDD,其中的元素内容,都是和原始的RDD一模一样的        // 但是就是RDD中的元素的顺序,不同了public static void mySortByKey(){        SparkConf conf = new SparkCo

2016-05-15 17:05:42 2098

原创 spark ReduceByKey操作

执行reduceByKey算子        // reduceByKey,接收的参数是Function2类型,它有三个泛型参数,实际上代表了三个值        // 第一个泛型类型和第二个泛型类型,代表了原始RDD中的元素的value的类型            // 因此对每个key进行reduce,都会依次将第一个、第二个value传入,将值再与第三个value传入    

2016-05-15 16:58:31 3372

原创 spark groupByKey操作

// groupByKey算子,返回的还是JavaPairRDD        // 但是,JavaPairRDD的第一个泛型类型不变,第二个泛型类型变成Iterable这种集合类型        // 也就是说,按照了key进行分组,那么每个key可能都会有多个value,此时多个value聚合成了Iterablepublic static void myGroupByKey

2016-05-15 16:47:10 5767

原创 spark flatmap

flatMap算子,在java中,接收的参数是FlatMapFunction,我们需要自己定义FlatMapFunction的第二个泛型类型,即,代表了返回的新元素的类型        call()方法,返回的类型,不是U,而是Iterable,这里的U也与第二个泛型类型相同        flatMap其实就是,接收原始RDD中的每个元素,并进行各种逻辑的计算和处理,返回可以返回多个元素

2016-05-15 16:15:43 2522

原创 spark filter过滤rdd元素

调用filter方法,rdd中的每个元素都会传入,然后只需要在call方法中写判断逻辑来判断这个元素是不是你想要的,如果是则返回true,否的话,返回falseprivate static void myFilter(){        List list=Arrays.asList(1,2,3,4,5,6,7,8,9,10);        SparkConf conf=new

2016-05-15 16:00:35 23459

原创 Spark map 遍历rdd中的每个元素

Map操作主要是遍历rdd中的每个元素,对每个元素进行操作并返回,代码如下:public static void myMap(){        List numbers=Arrays.asList(1,2,3,4,5);        SparkConf conf=new SparkConf()        .setMaster("local")        .s

2016-05-15 15:48:43 21231

原创 spark countByKey用法详解

统计每个key对应的value个数,需要注意的是rdd类型是pairRdd,即键值对的形式的rdd,详细代码如下:private static void myCountByKey(){        SparkConf conf=new SparkConf()        .setMaster("local")        .setAppName("myCountByKey")

2016-05-15 15:37:58 8813 1

原创 spark saveAsTextFile保存到文件

spark的saveAsTextFile方法只能指定文件夹,但是保存到本地的话,会报空指针错误。代码如下:public static void mySaveAsFile(){        SparkConf conf=new SparkConf()        .setAppName("mySaveAsFile")        .setMaster("local");

2016-05-03 23:26:45 42147 2

原创 spark take获取前n个元素

take和 collect操作类似,都是从远程集群上获取元素,只是collect操作获取的所有数据,而take操作是获取前n个元素直接上代码:public static void myTake(){        SparkConf conf=new SparkConf()        .setMaster("local")        .setAppName("myTak

2016-05-03 23:05:21 7811

原创 spark count统计元素个数

太简单了,直接上代码,不解析public static void myCount(){        SparkConf conf=new SparkConf()        .setMaster("local")        .setAppName("myCount");        JavaSparkContext sc=new JavaSparkContext(

2016-05-03 22:57:33 9329

原创 spark collect遍历

spark collect操作的特点是从远程集群是拉取数据到本地,经过网络传输,如果数据量的话,会给网络造成很大的压力,和foreach的却别是,foreach是在远程集群上遍历rdd中的元素,如果是在本地的话,差别不大。建议使用foreach,不要用collect.    直接上代码:@SuppressWarnings("unchecked")    public static vo

2016-05-03 21:47:58 14109

原创 spark 的reduce操作

spark的reduce操作,输入是两个值,输出是一个值,第一第二个值的结果跟第三个值相加,然后前n个数的值和第n个值相加见代码如下:    public static void myReduce(){        SparkConf conf=new SparkConf()        .setMaster("local")        .setAppName("myR

2016-05-03 21:12:52 8701

原创 说说redis的那些坑

今天周六,风和日丽,走在公园里,看着一片片绿,心里那个美啊,北京的夏天真的绿的令人惊叹,走出公园,到了老地方黄焖鸡吃饭,一遍吃饭一遍看着欢乐集结号,心情那个美啊,然后我又重新走了一趟公园。当我还沉浸在生活的美好的时候,qq里闪出了老大的头像,我知道美好生活结束了。       好,进入主题,情景是这样子的:我这边后台负责写redis,然后别人负责取,然后他们突然间取不到了。怎么回事?

2016-04-23 15:14:58 16504

原创 spark master 启动出现Could not create the Java Virtual Machine.

[root@hadoop4 sbin]# ./start-all.sh starting org.apache.spark.deploy.master.Master, logging to /usr/local/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-hadoop4.outfailed to launch

2016-04-13 15:09:44 2883 2

原创 spark sql 调用save方法时的空指针

最近在研究spark sql ,但是遇到一个无力着手的问题,不多说,直接上代码:public static void main(String[] args){ SparkConf conf=new SparkConf() .setMaster("local") .setAppName("MyGenericLoadAndSave

2016-04-11 17:25:32 3662 3

原创 scala,spark版本冲突问题

scala版本:2.11.0,spark版本:1.61。官网上说的是这个版本啊:Note: Scala 2.11 users should download the Spark source package and build with Scala 2.11 support.改成最新的版本,ok了。16/03/31 10:53:31 INFO Utils: Successfully sta

2016-03-31 12:02:53 12922 1

原创 spark初试遇到的小问题

spark wordcount程序,在本地运行时没问题的,但是放到集群上运行的时候就出错了,出现的问题如下:16/03/28 19:04:23 ERROR spark.SparkContext: Error initializing SparkContext.java.lang.IllegalArgumentException: System memory 101384192 must

2016-03-29 11:03:15 2646

学习scrapy用到的资源

pywin32-300.win-amd64-py3.7.exe 开发scrapy安装基础环境过程中需要用到的安装包,git上也有,就是太费事了,上传上来,有需要的可以下载一下,网上也能下,就是太费时间了。

2020-12-13

java实现上传和下载

本代码实现了java的上传和下载的功能,包括单文件的上传,多文件的上传(使用html5实现),以及文件的下载功能。

2014-02-13

mongodb入门操作

mongodb 简单入门,让你快熟的从关系型的数据库专项nosql

2014-01-04

node js开发入门小例子

node js是刚刚兴起的一门js型的服务器,现在这个例子可以帮助你快速的入门。

2014-01-04

lucene入门学习

如果你用过百度的搜索引擎,你就会知道搜索技术是多么的强大,尤其是在信息化的今天。本资源主要使用lucene技术来学习搜索引擎。

2013-01-12

spring学习笔记

如果你还是一个未学习过spring的java程序员,那么就选择这份文档吧,最适合初学者的

2012-12-24

oracle高手进阶

如果你以前没有学过oracle或者自是简单了解过oracle,那么请根据本套文档敲吧,绝对适合oracle数据库初学者。因为本套文档是本人从一个培训机构从头到尾的学习笔记。

2012-12-24

oracle高手篇

如果你以前没有学过oracle或者自是简单了解过oracle,那么请根据本套文档敲吧,绝对适合oracle数据库初学者。因为本套文档是本人从一个培训机构从头到尾的学习笔记。

2012-12-24

oracle进阶(多表)

如果你以前没有学过oracle或者自是简单了解过oracle,那么请根据本套文档敲吧,绝对适合oracle数据库初学者。因为本套文档是本人从一个培训机构从头到尾的学习笔记。

2012-12-24

oracle入门经典

如果你以前没有学过oracle或者自是简单了解过oracle,那么请根据本套文档敲吧,绝对适合oracle数据库初学者。因为本套文档是本人从一个培训机构从头到尾的学习笔记。

2012-12-24

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除