- 博客(24)
- 资源 (46)
- 收藏
- 关注
原创 java 的List add 不同类型的对象
问题:今天看java的list ,list后面的<> 里面可以填多种类型,但是如果不填写类型那就默认为 Object 类型。 所有我门 add 到 list 里的 数据都会被转换成 Object 类型。而当我门再从list 中取出该数据时,就会发现数据类型已经改变。解答Object类是所有Java类的祖先。每个类都使用 Object 作为超类。所有对象(包括数组)都实现这个类的方法。 在不明确给出
2016-12-29 10:58:12 12781 1
转载 drools-kie API 和kmodule.xml 文件详解
本文结构 1. 什么是KIE? 2. kieServices和kieContainer 3. 然后逐个介绍这些对象 4. kmodule.xml1. 什么是KIE?KIE是jBoss里面一些相关项目的统称,下图就是KIE代表的一些项目,其中我们比较熟悉的就有jBPM和Drools。这些项目都有一定的关联关系,并且存在一些通用的API,比如说涉及到构建(building)、部署(deploy
2016-12-28 14:30:30 15984
转载 SpringBoot-SpringSecurity集成-修定
原文地址:http://blog.csdn.net/ABAP_Brave/article/details/53032694原文的 pom.xml 文件不全。 原文没有给定启动类。 对于原文的缺失此处补全。此篇是初级篇 如有兴趣请看 高级篇一: springboot+mybatis+SpringSecurity 实现用户角色数据库管理高级篇二 springBoot+springSecurity
2016-12-27 18:34:25 2390
转载 Javascript闭包——懂不懂由你,反正我是懂了
近似正确的短答案:闭包就是一个函数把外部的那些不属于自己的对象也包含(闭合)进来了。短答案:JavaScript中的闭包,无非就是变量解析的过程。首先看一段话: 每次定义一个函数,都会产生一个作用域链(scope chain)。当JavaScript寻找变量varible时(这个过程称为变量解析),总会优先在当前作用域链的第一个对象中查找属性varible ,如果找到,则直接使用这个属性;否则,继
2016-12-27 15:20:53 560
原创 Drools -喝啤酒问题
本文用Drools 解决喝啤酒问题。 本文结构如下:1. 规则2. 通过业务式编程 实现3. 通过drools 规则引擎实现规则://喝啤酒问题,小明去喝啤酒,啤酒搞活动, // 啤酒二元一瓶, // 两个空瓶可以再换一瓶啤酒, // 四个瓶盖也可以换一瓶啤酒, // 问小明花多少钱可以喝多少瓶啤酒?通过业务式编程。代码实现:public class DrinkBeerTest {
2016-12-26 09:59:17 1410 2
原创 drools -规则语法
文章结构1. 基础api2. FACT对象3. 规则4. 函数1. 基础api在 Drools 当中,规则的编译与运行要通过Drools 提供的各种API 来实现,这些API 总体来讲可以分为三类:规则编译、规则收集和规则的执行。完成这些工作的API 主要有KnowledgeBuilder、KnowledgeBase、StatefulKnowledgeSession、StatelessKnowled
2016-12-25 21:29:51 34641 1
原创 drools 6.5 -规则引擎入门
本文结构: 1. Drools 2. Drools 规则引擎原理 3. 入门例子1. DroolsDrools 具有一个易于访问企业策略、易于调整以及易于管理的开源业务 规则引擎,符合业内标准,速度快、效率高。业务分析师或审核人员可以利用它轻松查看业务规则,从而检验已编码的规则是否执行了所需的业务规则。其前身是 Codehaus 的一个开源项目叫 Drools,最近被纳入 JBoss 门下,更
2016-12-25 20:07:47 8329 10
原创 drools -Rete算法
Rete算法是Charles Forgy在1979年的论文中首次提出的,针对基于规则知识表现的模式匹配算法。目前来说,大部分规则引擎还是基于rete算法作为核心,但都有所改进,比如drool,jess等等,下面介绍rete算法的概念1.rete 算法Rete算法是一种高效的模式匹配算法用来实现产生式规则系统 (空间换时间,用内存换取匹配速度)它是高效的算法,它通过缓存避免了相同条件多次评估的情况,
2016-12-25 18:10:23 24398
原创 drools 6.5 -DSL 领域特殊语言
1. 规则引擎面临的问题:业务规则的实现大部分是由开发人员来实现的 业务规则需要业务分析人员能够阅读和理解 业务规则的可读性和用户的友好性都不太好2. DSL领域特殊语言DSL == Domain Specific Language 以贴近业务领域的方式,即以类自然语言的方式来构造软件,使得我们不用花费太多精力就能看懂代码所对应的业务含义 它是创建规则语言的一种方式,致力于解决我们的问题域
2016-12-23 15:31:15 9572 1
原创 drools 6.5 决策表使用
drools 决策表的使用。 本文结构 - 1.何时使用决策表 - 2.决策表 - 3.决策表配置 - 4.年龄分类小例子何时使用决策表何时使用决策表——如果规则能够被表达为模板+数据的格式,那你 应该考虑使用决策表。决策表中的每一行就是对应模板的一行数据,将产生一个规则。运行决策表——Drools 引擎所部署的系统中执行决策表。首先,决策表转换 成的Drools规则语言(DRL),然后
2016-12-23 09:57:43 10375 2
原创 kafka 集群访问报错链接找不到node
连接Kafka集群出错 kafka 集群3台机器,3台机器间配置了免密登录。但是发送数据时,报错找不到nodeconnection to node -1 at kf1:9092.有两种解决方法。 解决方法1: 修改 kafka 集群的server.properties 配置文件brokerIP 替换为 当前broker的IP。//每台broker的server.properties 添加如下。
2016-12-20 19:24:00 4532
转载 mysql使用TRIM函数去除字段首尾的特定字符
mysql中的去除左空格函数:LTRIM(str) 代码如下:mysql> SELECT LTRIM(' barbar'); -> 'barbar' mysql中的去除右空格函数:代码如下:mysql> SELECT RTRIM('barbar '); -> 'barbar' trim函数可以过滤指定的字符串:完整格式:TRIM([{BOTH | LEADING | TRAILING}
2016-12-18 17:43:35 17585
原创 mysql 多表删除 和UNION 、UNION all的用法
1.多表删除DELETE table1 ,table2 FROM table1 left JOIN table2 ON table1.id = table2.tool_id WHERE table1.id =#{id}2. UNION和UNION allUNION用的比较多union all是直接连接,取到得是所有值,记录可能有重
2016-12-18 17:34:24 2833
原创 spark-概念
本文长篇介绍了spark基本概念和spark Streaming 、spark sql 请仔细阅读,红色标注的是我认为比较重要的运行环境基本概念Spark生态圈以Spark Core为核心,从HDFS、Amazon S3和HBase等持久层读取数据,以MESS、YARN和自身携带的Standalone为资源管理器调度Job完成Spark应用程序的计算。 这些应用程序可以来自于不同的组件,如Spar
2016-12-18 17:13:53 1417
原创 学习 spark 的一些疑问
1. SparkSession和sqlContext 的关系?在Spark的早期版本,sparkContext是进入Spark的切入点。我们都知道RDD是Spark中重要的API,然而它的创建和操作得使用sparkContext提供的API;对于RDD之外的其他东西,我们需要使用其他的Context。比如对于流处理来说,我们得使用StreamingContext;对于SQL得使用sqlContext
2016-12-18 16:32:38 796
原创 kafka Stream的Wordcount
本文展示了kafka Stream Wordcount 例子的两种写法kafka Stream 版本0.10.1.0此例子 使用了高层流DSL创建kStream 多实例(instances1,instances2为两个实例)并行计算处理了从topic1 中读取的数据。package com.us.kafka.Stream;import java.util.Arrays;import org.apac
2016-12-18 16:17:13 2422
原创 kafka集群启停脚本
自己搭建了一个三台zookeeper和6台kafka的集群。由于启动和停止集群比较麻烦所以就写了启动和停止集群的脚本。kafka集群启动脚本kfq1-kfq6是我的6台kafka集群。在/etc/hosts 文件下配了映射。#!/bin/bash BROKERS="kfq1 kfq2 kfq3 kfq4 kfq5 kfq6" APPHOME="/opt/apps/ka
2016-12-18 16:01:01 4917 2
转载 KafkaStreams–架构
说明: 本文转载地址:http://blog.csdn.net/ransom0512/article/details/52105379 本文对原翻译进行了补充,加上了自己的理解。本文是Confluent Platform 3.0版本中对于Kafka Streams的翻译。 原文地址:https://docs.confluent.io/3.0.0/streams/index.html 看了很
2016-12-15 11:44:13 3115
原创 kafka Stream概念
1.Kafka Stream?Kafka Streams是一套处理分析Kafka中存储数据的客户端类库,处理完的数据或者写回Kafka,或者发送给外部系统。它构建在一些重要的流处理概念之上:区分事件时间和处理时间、开窗的支持、简单有效的状态管理等。Kafka Streams入门的门槛很低:很容易编写单机的示例程序,然后通过在多台机器上运行多个实例即可水平扩展从而达到高吞吐量。Kafka Stream
2016-12-15 00:11:10 13205
原创 SSH连接GitHub、GitHub配置ssh key
配置git的ssh 提交需要以下步骤1.设置Git的user name和email2.生成ssh3.配置git 的ssh key1.设置Git的user name和email $ git config --global user.name "527515025" $ git config --global user.email "[email protected]"2.生成ssh新打开一个终端输入
2016-12-11 21:08:21 13431 1
原创 hexo+Travis-ci+github构建自动化博客
在mac上 用hexo+Travis-ci+github构建自动化博客。Travis CI:是目前新兴的开源持续集成构建项目,它与jenkins,GO的很明显的特别在于采用yaml格式,简洁清新独树一帜。目前大多数的github项目都已经移入到Travis CI的构建队列中,据说Travis CI每天运行超过4000次完整构建。说一下我对Travis 的理解。tarvis-ci是远端服务器构建,跟
2016-12-11 18:22:51 4090
原创 Drools6.5部署Drools Workbench
最近两天看了一下规则引擎drools,看官方介绍所以手痒,本地部署了一下Drools Workbench,这一下部署让我掉进了深坑,不得不说,这个配置有点麻烦,请听我细细道来。本地部署Drools Workbench首先我门得有一个tomcat。和mysql 数据库 这是基础,关于tomcat的安装使用我就不多说了。其他的还需要这些步骤:1.下载kie-drools-wb-6.5.0.Final-
2016-12-08 23:32:11 18801 23
原创 sparkStreaming集成Kafka
这几天看了spark集成Kafka,消费Kafka数据并向Kafka发送数据,仿照官方样例写了两个小例子。在此分享一下。1.添加Kafka的repository2.DirectKafkaWordCountDemo代码展示3.kafkaProducer代码展示4.从Kafka 集群中消费数据并处理后再存入Kafka代码展示 本案例中使用的Kafka为三个broker一个zookeeper的Kafka
2016-12-08 22:48:18 6003 1
原创 spark整合kafka打包运行错误处理
问题1WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicableException in thread "main" java.lang.NoClassDefFoundError: kafka/serializ
2016-12-01 16:17:51 4539
MVEL 2.doc
2020-08-14
springmvc和mybatis整合包括json和validator 和文件上传所需所有jar包
2015-08-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人