storm01-实时看板案例

10、实时看板案例

10.1 项目需求梳理

根据订单mq,快速计算双11当天的订单量、销售金额。
在这里插入图片描述
在这里插入图片描述

10.2 项目架构模型

支付系统+kafka+storm/Jstorm集群+redis集群
1、支付系统发送mq到kafka集群中,编写storm程序消费kafka的数据并计算实时的订单数量、订单数量
2、将计算的实时结果保存在redis中;
3、外部程序访问redis的数据实时展示结果。
在这里插入图片描述

10.3 订单数据模型

在这里插入图片描述
订单编号、订单时间、支付编号、支付时间、商品编号、商家名称、商品价格、优惠价格、支付金额。
在这里插入图片描述

10.4 指标需求

平台运维角度统计指标
平台总销售额度
redisRowKey设计 itcast:order:total:price:date

平台今天下单人数
redisRowKey设计 itcast:order:total:user:date

平台商品销售数量
redisRowKey设计 itcast:order:total:num:date

商品销售角度统计指标
每个商品的总销售额
Redis的rowKey设计itcast:order:productId:price:date

每个商品的购买人数
Redis的rowKey设计itcast:order:productId:user:date

每个商品的销售数量
Redis的rowKey设计itcast:order:productId:num:date

店铺销售角度统计指标
每个店铺的总销售额
Redis的rowKey设计itcast:order:shopId:price:date

每个店铺的购买人数
Redis的rowKey设计itcast:order:shopId:user:date

每个店铺的销售数量
Redis的rowKey设计itcast:order:shopId:num:date

10.5 redis安装使用回顾

第一步:下载redis安装包

wget http://download.redis.io/releases/redis-3.2.8.tar.gz

第二步:解压redis压缩包到指定目录

tar -zxvf redis-3.2.8.tar.gz -C ../servers/

第三步:安装C程序运行环境

yum -y install gcc-c++

第四步:安装较新版本的tcl
下载tcl

wget http://downloads.sourceforge.net/tcl/tcl8.6.1-src.tar.gz

解压tcl

tar -zxvf tcl8.6.1-src.tar.gz -C ../servers/

进入指定目录

cd ../servers/tcl8.6.1/unix/

执行./configure进行配置

./configure
make  && make  install

第二种方式,在线安装tcl

yum  -y  install  tcl

第五步:进行编译redis
进行编译:

cd ../servers/redis-3.2.8/
make MALLOC=libc 
make test && make install

第六步:修改redis配置文件
vim redis.conf

bind 192.168.52.202
daemonize yes
pidfile /var/run/redis_6379.pid
logfile "/export/servers/redis-3.2.8/logs/redis.log"
dir /export/servers/redis-3.2.8/redisdata

第七步:启动redis
启动redis

cd  /export/servers/redis-3.2.8/src
redis-server  ../redis.conf

第八步:连接redis客户端

cd /export/servers/redis-3.2.8/src
redis-cli -h 192.168.52.202

第九步:如何配置redis RDB的持久化机制
修改redis的配置文件

vim /etc/redis/6379.conf
save 900 1
save 300 10
save 60 10000
save 5 1

在这里插入图片描述
重新启动redis服务
每次生成新的dump.rdb都会覆盖掉之前的老的快照
如果使用kill -9 来杀死redis进程,下次启动redis的时候,就会发现redis启动不了,提示还有pid文件,需要将redis的pid文件删除掉,然后再启动即可

cd  /var/run
rm -rf redis_6379.pid
/etc/init.d/redis_6379 start

在这里插入图片描述
第九步:如何配置redis AOF的持久化机制
在redis中,aof的持久化机制默认是关闭的
AOF持久化,默认是关闭的,默认是打开RDB持久化

appendonly yes,可以打开AOF持久化机制,在生产环境里面,一般来说AOF都是要打开的,除非你说随便丢个几分钟的数据也无所谓
打开AOF持久化机制之后,redis每次接收到一条写命令,就会写入日志文件中,当然是先写入os cache的,然后每隔一定时间再fsync一下
而且即使AOF和RDB都开启了,redis重启的时候,也是优先通过AOF进行数据恢复的,因为aof数据比较完整
可以配置AOF的fsync策略,有三种策略可以选择,一种是每次写入一条数据就执行一次fsync; 一种是每隔一秒执行一次fsync; 一种是不主动执行fsync
always: 每次写入一条数据,立即将这个数据对应的写日志fsync到磁盘上去,性能非常非常差,吞吐量很低; 确保说redis里的数据一条都不丢,那就只能这样了
在redis当中默认的AOF持久化机制都是关闭的。
在这里插入图片描述

Redis当中的rewrite操作

redis中的数据其实有限的,很多数据可能会自动过期,可能会被用户删除,可能会被redis用缓存清除的算法清理掉

redis中的数据会不断淘汰掉旧的,就一部分常用的数据会被自动保留在redis内存中

所以可能很多之前的已经被清理掉的数据,对应的写日志还停留在AOF中,AOF日志文件就一个,会不断的膨胀,到很大很大

所以AOF会自动在后台每隔一定时间做rewrite操作,比如日志里已经存放了针对100w数据的写日志了; redis内存只剩下10万; 基于内存中当前的10万
数据构建一套最新的日志,到AOF中; 覆盖之前的老日志; 确保AOF日志文件不会过大,保持跟redis内存数据量一致

redis 2.4之前,还需要手动,开发一些脚本,crontab,通过BGREWRITEAOF命令去执行AOF rewrite,但是redis 2.4之后,会自动进行rewrite操作
在redis.conf中,可以配置rewrite策略
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
比如说上一次AOF rewrite之后,是128mb
然后就会接着128mb继续写AOF的日志,如果发现增长的比例,超过了之前的100%,256mb,就可能会去触发一次rewrite
但是此时还要去跟min-size,64mb去比较,256mb > 64mb,才会去触发rewrite

(1)redis fork一个子进程
(2)子进程基于当前内存中的数据,构建日志,开始往一个新的临时的AOF文件中写入日志
(3)redis主进程,接收到client新的写操作之后,在内存中写入日志,同时新的日志也继续写入旧的AOF文件
(4)子进程写完新的日志文件之后,redis主进程将内存中的新日志再次追加到新的AOF文件中
(5)用新的日志文件替换掉旧的日志文件
第十步:redis的操作回顾
配置redis的AOF持久化机制方式

appendonly yes
# appendfsync always
appendfsync everysec
# appendfsync no

String类型数据操作

redis 127.0.0.1:6379> exists mykey                   #判断该键是否存在,存在返回1,否则返回0。
    (integer) 0
    redis 127.0.0.1:6379> append mykey "hello"      #该键并不存在,因此append命令返回当前Value的长度。
    (integer) 5
    redis 127.0.0.1:6379> append mykey " world"    #该键已经存在,因此返回追加后Value的长度。
    (integer) 11
    redis 127.0.0.1:6379> get mykey                      #通过get命令获取该键,以判断append的结果。
    "hello world"
    redis 127.0.0.1:6379> set mykey "this is a test" #通过set命令为键设置新值,并覆盖原有值。
    OK
    redis 127.0.0.1:6379> get mykey
    "this is a test"
    redis 127.0.0.1:6379> strlen mykey                  #获取指定Key的字符长度,等效于C库中strlen函数。
    (integer) 14

    2. INCR/DECR/INCRBY/DECRBY:
    redis 127.0.0.1:6379> set mykey 20     #设置Key的值为20
    OK
    redis 127.0.0.1:6379> incr mykey         #该Key的值递增1
    (integer) 21
    redis 127.0.0.1:6379> decr mykey        #该Key的值递减1
    (integer) 20
    redis 127.0.0.1:6379> del mykey          #删除已有键。
    (integer) 1
    redis 127.0.0.1:6379> decr mykey        #对空值执行递减操作,其原值被设定为0,递减后的值为-1
    (integer) -1
    redis 127.0.0.1:6379> del mykey   
    (integer) 1
    redis 127.0.0.1:6379> incr mykey        #对空值执行递增操作,其原值被设定为0,递增后的值为1
    (integer) 1
    redis 127.0.0.1:6379> set mykey hello #将该键的Value设置为不能转换为整型的普通字符串。
    OK
    redis 127.0.0.1:6379> incr mykey        #在该键上再次执行递增操作时,Redis将报告错误信息。
    (error) ERR value is not an integer or out of range
    redis 127.0.0.1:6379> set mykey 10
    OK
    redis 127.0.0.1:6379> decrby mykey 5 
    (integer) 5
    redis 127.0.0.1:6379> incrby mykey 10
    (integer) 15

    3. GETSET:
    redis 127.0.0.1:6379> incr mycounter      #将计数器的值原子性的递增1
    (integer) 1
    #在获取计数器原有值的同时,并将其设置为新值,这两个操作原子性的同时完成。
    redis 127.0.0.1:6379> getset mycounter 0  
    "1"
    redis 127.0.0.1:6379> get mycounter       #查看设置后的结果。
    "0"
            
    4. SETEX:
    redis 127.0.0.1:6379> setex mykey 10 "hello"   #设置指定Key的过期时间为10秒。
    OK    
    #通过ttl命令查看一下指定Key的剩余存活时间(秒数),0表示已经过期,-1表示永不过期。
    redis 127.0.0.1:6379> ttl mykey                       
    (integer) 4
    redis 127.0.0.1:6379> get mykey                      #在该键的存活期内我们仍然可以获取到它的Value。
    "hello"
    redis 127.0.0.1:6379> ttl mykey                        #该ttl命令的返回值显示,该Key已经过期。
    (integer) 0
    redis 127.0.0.1:6379> get mykey                      #获取已过期的Key将返回nil。
    (nil)

   5. SETNX:
    redis 127.0.0.1:6379> del mykey                      #删除该键,以便于下面的测试验证。
    (integer) 1
    redis 127.0.0.1:6379> setnx mykey "hello"        #该键并不存在,因此该命令执行成功。
    (integer) 1
    redis 127.0.0.1:6379> setnx mykey "world"       #该键已经存在,因此本次设置没有产生任何效果。
    (integer) 0
    redis 127.0.0.1:6379> get mykey                      #从结果可以看出,返回的值仍为第一次设置的值。
    "hello"

    6. SETRANGE/GETRANGE:
    redis 127.0.0.1:6379> set mykey "hello world"       #设定初始值。
    OK
    redis 127.0.0.1:6379> setrange mykey 6 dd          #从第六个字节开始替换2个字节(dd只有2个字节)
    (integer) 11
    redis 127.0.0.1:6379> get mykey                         #查看替换后的值。
    "hello ddrld"
    redis 127.0.0.1:6379> setrange mykey 20 dd        #offset已经超过该Key原有值的长度了,该命令将会在末尾补0。
    (integer) 22
    redis 127.0.0.1:6379> get mykey                           #查看补0后替换的结果。
    "hello ddrld\x00\x00\x00\x00\x00\x00\x00\x00\x00dd"
    redis 127.0.0.1:6379> del mykey                         #删除该Key。
    (integer) 1
    redis 127.0.0.1:6379> setrange mykey 2 dd         #替换空值。
    (integer) 4
    redis 127.0.0.1:6379> get mykey                        #查看替换空值后的结果。
    "\x00\x00dd"   
    redis 127.0.0.1:6379> set mykey "0123456789"   #设置新值。
    OK
    redis 127.0.0.1:6379> getrange mykey 1 2      #截取该键的Value,从第一个字节开始,到第二个字节结束。
    "12"
    redis 127.0.0.1:6379> getrange mykey 1 20   #20已经超过Value的总长度,因此将截取第一个字节后面的所有字节。
    "123456789"

    7. SETBIT/GETBIT:
    redis 127.0.0.1:6379> del mykey
    (integer) 1
    redis 127.0.0.1:6379> setbit mykey 7 1       #设置从0开始计算的第七位BIT值为1,返回原有BIT值0
    (integer) 0
    redis 127.0.0.1:6379> get mykey                #获取设置的结果,二进制的0000 0001的十六进制值为0x01
    "\x01"
    redis 127.0.0.1:6379> setbit mykey 6 1       #设置从0开始计算的第六位BIT值为1,返回原有BIT值0
    (integer) 0
    redis 127.0.0.1:6379> get mykey                #获取设置的结果,二进制的0000 0011的十六进制值为0x03
    "\x03"
    redis 127.0.0.1:6379> getbit mykey 6          #返回了指定Offset的BIT值。
    (integer) 1
    redis 127.0.0.1:6379> getbit mykey 10        #Offset已经超出了value的长度,因此返回0。
    (integer) 0

   8. MSET/MGET/MSETNX:
    redis 127.0.0.1:6379> mset key1 "hello" key2 "world"   #批量设置了key1和key2两个键。
    OK
    redis 127.0.0.1:6379> mget key1 key2                        #批量获取了key1和key2两个键的值。
    1) "hello"
    2) "world"
    #批量设置了key3和key4两个键,因为之前他们并不存在,所以该命令执行成功并返回1。
    redis 127.0.0.1:6379> msetnx key3 "stephen" key4 "liu" 
    (integer) 1
    redis 127.0.0.1:6379> mget key3 key4                   
    1) "stephen"
    2) "liu"
    #批量设置了key3和key5两个键,但是key3已经存在,所以该命令执行失败并返回0。
    redis 127.0.0.1:6379> msetnx key3 "hello" key5 "world" 
    (integer) 0
    #批量获取key3和key5,由于key5没有设置成功,所以返回nil。
    redis 127.0.0.1:6379> mget key3 key5                   
    1) "stephen"
    2) (nil)

List集合操作命令

1. LPUSH/LPUSHX/LRANGE:
    /> redis-cli    #在Shell提示符下启动redis客户端工具。
    redis 127.0.0.1:6379> del mykey
    (integer) 1
    #mykey键并不存在,该命令会创建该键及与其关联的List,之后在将参数中的values从左到右依次插入。
    redis 127.0.0.1:6379> lpush mykey a b c d
    (integer) 4
    #取从位置0开始到位置2结束的3个元素。
    redis 127.0.0.1:6379> lrange mykey 0 2
    1) "d"
    2) "c"
    3) "b"
    #取链表中的全部元素,其中0表示第一个元素,-1表示最后一个元素。
    redis 127.0.0.1:6379> lrange mykey 0 -1
    1) "d"
    2) "c"
    3) "b"
    4) "a"
    #mykey2键此时并不存在,因此该命令将不会进行任何操作,其返回值为0。
    redis 127.0.0.1:6379> lpushx mykey2 e
    (integer) 0
    #可以看到mykey2没有关联任何List Value。
    redis 127.0.0.1:6379> lrange mykey2 0 -1
    (empty list or set)
    #mykey键此时已经存在,所以该命令插入成功,并返回链表中当前元素的数量。
    redis 127.0.0.1:6379> lpushx mykey e
    (integer) 5
    #获取该键的List Value的头部元素。
    redis 127.0.0.1:6379> lrange mykey 0 0
    1) "e"

    2. LPOP/LLEN:
    redis 127.0.0.1:6379> lpush mykey a b c d
    (integer) 4
    redis 127.0.0.1:6379> lpop mykey
    "d"
    redis 127.0.0.1:6379> lpop mykey
    "c"
    #在执行lpop命令两次后,链表头部的两个元素已经被弹出,此时链表中元素的数量是2
    redis 127.0.0.1:6379> llen mykey
    (integer) 2

   3. LREM/LSET/LINDEX/LTRIM:
    #为后面的示例准备测试数据。
    redis 127.0.0.1:6379> lpush mykey a b c d a c
    (integer) 6
    #从头部(left)向尾部(right)变量链表,删除2个值等于a的元素,返回值为实际删除的数量。
    redis 127.0.0.1:6379> lrem mykey 2 a
    (integer) 2
    #看出删除后链表中的全部元素。
    redis 127.0.0.1:6379> lrange mykey 0 -1
    1) "c"
    2) "d"
    3) "c"
    4) "b"
    #获取索引值为1(头部的第二个元素)的元素值。
    redis 127.0.0.1:6379> lindex mykey 1
    "d"
    #将索引值为1(头部的第二个元素)的元素值设置为新值e。
    redis 127.0.0.1:6379> lset mykey 1 e
    OK
    #查看是否设置成功。
    redis 127.0.0.1:6379> lindex mykey 1
    "e"
    #索引值6超过了链表中元素的数量,该命令返回nil。
    redis 127.0.0.1:6379> lindex mykey 6
    (nil)
    #设置的索引值6超过了链表中元素的数量,设置失败,该命令返回错误信息。
    redis 127.0.0.1:6379> lset mykey 6 hh
    (error) ERR index out of range
    #仅保留索引值0到2之间的3个元素,注意第0个和第2个元素均被保留。
    redis 127.0.0.1:6379> ltrim mykey 0 2
    OK
    #查看trim后的结果。
    redis 127.0.0.1:6379> lrange mykey 0 -1
    1) "c"
    2) "e"
    3) "c"

    4. LINSERT:
    #删除该键便于后面的测试。
    redis 127.0.0.1:6379> del mykey
    (integer) 1
    #为后面的示例准备测试数据。
    redis 127.0.0.1:6379> lpush mykey a b c d e
    (integer) 5
    #在a的前面插入新元素a1。
    redis 127.0.0.1:6379> linsert mykey before a a1
    (integer) 6
    #查看是否插入成功,从结果看已经插入。注意lindex的index值是0-based。
    redis 127.0.0.1:6379> lindex mykey 0
    "e"
    #在e的后面插入新元素e2,从返回结果看已经插入成功。
    redis 127.0.0.1:6379> linsert mykey after e e2
    (integer) 7
    #再次查看是否插入成功。
    redis 127.0.0.1:6379> lindex mykey 1
    "e2"
    #在不存在的元素之前或之后插入新元素,该命令操作失败,并返回-1。
    redis 127.0.0.1:6379> linsert mykey after k a
    (integer) -1
    #为不存在的Key插入新元素,该命令操作失败,返回0。
    redis 127.0.0.1:6379> linsert mykey1 after a a2
    (integer) 0

    5. RPUSH/RPUSHX/RPOP/RPOPLPUSH:
    #删除该键,以便于后面的测试。
    redis 127.0.0.1:6379> del mykey
    (integer) 1
    #从链表的尾部插入参数中给出的values,插入顺序是从左到右依次插入。
    redis 127.0.0.1:6379> rpush mykey a b c d
    (integer) 4
    #通过lrange的可以获悉rpush在插入多值时的插入顺序。
    redis 127.0.0.1:6379> lrange mykey 0 -1
    1) "a"
    2) "b"
    3) "c"
    4) "d"
    #该键已经存在并且包含4个元素,rpushx命令将执行成功,并将元素e插入到链表的尾部。
    redis 127.0.0.1:6379> rpushx mykey e
    (integer) 5
    #通过lindex命令可以看出之前的rpushx命令确实执行成功,因为索引值为4的元素已经是新元素了。
    redis 127.0.0.1:6379> lindex mykey 4
    "e"
    #由于mykey2键并不存在,因此该命令不会插入数据,其返回值为0。
    redis 127.0.0.1:6379> rpushx mykey2 e
    (integer) 0
    #在执行rpoplpush命令前,先看一下mykey中链表的元素有哪些,注意他们的位置关系。
    redis 127.0.0.1:6379> lrange mykey 0 -1
    1) "a"
    2) "b"
    3) "c"
    4) "d"
    5) "e"
    #将mykey的尾部元素e弹出,同时再插入到mykey2的头部(原子性的完成这两步操作)。
    redis 127.0.0.1:6379> rpoplpush mykey mykey2
    "e"
    #通过lrange命令查看mykey在弹出尾部元素后的结果。
    redis 127.0.0.1:6379> lrange mykey 0 -1
    1) "a"
    2) "b"
    3) "c"
    4) "d"
    #通过lrange命令查看mykey2在插入元素后的结果。
    redis 127.0.0.1:6379> lrange mykey2 0 -1
    1) "e"
    #将source和destination设为同一键,将mykey中的尾部元素移到其头部。
    redis 127.0.0.1:6379> rpoplpush mykey mykey
    "d"
    #查看移动结果。
    redis 127.0.0.1:6379> lrange mykey 0 -1
    1) "d"
    2) "a"
    3) "b"
    4) "c"

Hash操作命令集合

1. HSET/HGET/HDEL/HEXISTS/HLEN/HSETNX:
    #在Shell命令行启动Redis客户端程序
    /> redis-cli
    #给键值为myhash的键设置字段为field1,值为stephen。
    redis 127.0.0.1:6379> hset myhash field1 "stephen"
    (integer) 1
    #获取键值为myhash,字段为field1的值。
    redis 127.0.0.1:6379> hget myhash field1
    "stephen"
    #myhash键中不存在field2字段,因此返回nil。
    redis 127.0.0.1:6379> hget myhash field2
    (nil)
    #给myhash关联的Hashes值添加一个新的字段field2,其值为liu。
    redis 127.0.0.1:6379> hset myhash field2 "liu"
    (integer) 1
    #获取myhash键的字段数量。
    redis 127.0.0.1:6379> hlen myhash
    (integer) 2
    #判断myhash键中是否存在字段名为field1的字段,由于存在,返回值为1。
    redis 127.0.0.1:6379> hexists myhash field1
    (integer) 1
    #删除myhash键中字段名为field1的字段,删除成功返回1。
    redis 127.0.0.1:6379> hdel myhash field1
    (integer) 1
    #再次删除myhash键中字段名为field1的字段,由于上一条命令已经将其删除,因为没有删除,返回0。
    redis 127.0.0.1:6379> hdel myhash field1
    (integer) 0
    #判断myhash键中是否存在field1字段,由于上一条命令已经将其删除,因为返回0。
    redis 127.0.0.1:6379> hexists myhash field1
    (integer) 0
    #通过hsetnx命令给myhash添加新字段field1,其值为stephen,因为该字段已经被删除,所以该命令添加成功并返回1。
    redis 127.0.0.1:6379> hsetnx myhash field1 stephen
    (integer) 1
    #由于myhash的field1字段已经通过上一条命令添加成功,因为本条命令不做任何操作后返回0。
    redis 127.0.0.1:6379> hsetnx myhash field1 stephen
    (integer) 0

   2. HINCRBY:
    #删除该键,便于后面示例的测试。
    redis 127.0.0.1:6379> del myhash
    (integer) 1
    #准备测试数据,该myhash的field字段设定值1。
    redis 127.0.0.1:6379> hset myhash field 5
    (integer) 1
    #给myhash的field字段的值加1,返回加后的结果。
    redis 127.0.0.1:6379> hincrby myhash field 1
    (integer) 6
    #给myhash的field字段的值加-1,返回加后的结果。
    redis 127.0.0.1:6379> hincrby myhash field -1
    (integer) 5
    #给myhash的field字段的值加-10,返回加后的结果。
    redis 127.0.0.1:6379> hincrby myhash field -10
    (integer) -5   

    3. HGETALL/HKEYS/HVALS/HMGET/HMSET:
    #删除该键,便于后面示例测试。
    redis 127.0.0.1:6379> del myhash
    (integer) 1
    #为该键myhash,一次性设置多个字段,分别是field1 = "hello", field2 = "world"。
    redis 127.0.0.1:6379> hmset myhash field1 "hello" field2 "world"
    OK
    #获取myhash键的多个字段,其中field3并不存在,因为在返回结果中与该字段对应的值为nil。
    redis 127.0.0.1:6379> hmget myhash field1 field2 field3
    1) "hello"
    2) "world"
    3) (nil)
    #返回myhash键的所有字段及其值,从结果中可以看出,他们是逐对列出的。
    redis 127.0.0.1:6379> hgetall myhash
    1) "field1"
    2) "hello"
    3) "field2"
    4) "world"
    #仅获取myhash键中所有字段的名字。
    redis 127.0.0.1:6379> hkeys myhash
    1) "field1"
    2) "field2"
    #仅获取myhash键中所有字段的值。
    redis 127.0.0.1:6379> hvals myhash
    1) "hello"
2) "world"

Set集合操作命令

1. SADD/SMEMBERS/SCARD/SISMEMBER:
    #在Shell命令行下启动Redis的客户端程序。
    /> redis-cli
    #插入测试数据,由于该键myset之前并不存在,因此参数中的三个成员都被正常插入。
    redis 127.0.0.1:6379> sadd myset a b c
    (integer) 3
    #由于参数中的a在myset中已经存在,因此本次操作仅仅插入了d和e两个新成员。
    redis 127.0.0.1:6379> sadd myset a d e
    (integer) 2
    #判断a是否已经存在,返回值为1表示存在。
    redis 127.0.0.1:6379> sismember myset a
    (integer) 1
    #判断f是否已经存在,返回值为0表示不存在。
    redis 127.0.0.1:6379> sismember myset f
    (integer) 0
    #通过smembers命令查看插入的结果,从结果可以,输出的顺序和插入顺序无关。
    redis 127.0.0.1:6379> smembers myset
    1) "c"
    2) "d"
    3) "a"
    4) "b"
    5) "e"
    #获取Set集合中元素的数量。
    redis 127.0.0.1:6379> scard myset
    (integer) 5

    2. SPOP/SREM/SRANDMEMBER/SMOVE:
    #删除该键,便于后面的测试。
    redis 127.0.0.1:6379> del myset
    (integer) 1
    #为后面的示例准备测试数据。
    redis 127.0.0.1:6379> sadd myset a b c d
    (integer) 4
    #查看Set中成员的位置。
    redis 127.0.0.1:6379> smembers myset
    1) "c"
    2) "d"
    3) "a"
    4) "b"
    #从结果可以看出,该命令确实是随机的返回了某一成员。
    redis 127.0.0.1:6379> srandmember myset
    "c"
    #Set中尾部的成员b被移出并返回,事实上b并不是之前插入的第一个或最后一个成员。
    redis 127.0.0.1:6379> spop myset
    "b"
    #查看移出后Set的成员信息。
    redis 127.0.0.1:6379> smembers myset
    1) "c"
    2) "d"
    3) "a"
    #从Set中移出a、d和f三个成员,其中f并不存在,因此只有a和d两个成员被移出,返回为2。
    redis 127.0.0.1:6379> srem myset a d f
    (integer) 2
    #查看移出后的输出结果。
    redis 127.0.0.1:6379> smembers myset
    1) "c"
    #为后面的smove命令准备数据。
    redis 127.0.0.1:6379> sadd myset a b
    (integer) 2
    redis 127.0.0.1:6379> sadd myset2 c d
    (integer) 2
    #将a从myset移到myset2,从结果可以看出移动成功。
    redis 127.0.0.1:6379> smove myset myset2 a
    (integer) 1
    #再次将a从myset移到myset2,由于此时a已经不是myset的成员了,因此移动失败并返回0。
    redis 127.0.0.1:6379> smove myset myset2 a
    (integer) 0
    #分别查看myset和myset2的成员,确认移动是否真的成功。
    redis 127.0.0.1:6379> smembers myset
    1) "b"
    redis 127.0.0.1:6379> smembers myset2
    1) "c"
    2) "d"
    3) "a"

   3. SDIFF/SDIFFSTORE/SINTER/SINTERSTORE:
    #为后面的命令准备测试数据。
    redis 127.0.0.1:6379> sadd myset a b c d
    (integer) 4
    redis 127.0.0.1:6379> sadd myset2 c
    (integer) 1
    redis 127.0.0.1:6379> sadd myset3 a c e
    (integer) 3
    #myset和myset2相比,a、b和d三个成员是两者之间的差异成员。再用这个结果继续和myset3进行差异比较,b和d是myset3不存在的成员。
    redis 127.0.0.1:6379> sdiff myset myset2 myset3
    1) "d"
    2) "b"
    #将3个集合的差异成员存在在diffkey关联的Set中,并返回插入的成员数量。
    redis 127.0.0.1:6379> sdiffstore diffkey myset myset2 myset3
    (integer) 2
    #查看一下sdiffstore的操作结果。
    redis 127.0.0.1:6379> smembers diffkey
    1) "d"
    2) "b"
    #从之前准备的数据就可以看出,这三个Set的成员交集只有c。
    redis 127.0.0.1:6379> sinter myset myset2 myset3
    1) "c"
    #将3个集合中的交集成员存储到与interkey关联的Set中,并返回交集成员的数量。
    redis 127.0.0.1:6379> sinterstore interkey myset myset2 myset3
    (integer) 1
    #查看一下sinterstore的操作结果。
    redis 127.0.0.1:6379> smembers interkey
    1) "c"
    #获取3个集合中的成员的并集。    
    redis 127.0.0.1:6379> sunion myset myset2 myset3
    1) "b"
    2) "c"
    3) "d"
    4) "e"
    5) "a"
    #将3个集合中成员的并集存储到unionkey关联的set中,并返回并集成员的数量。
    redis 127.0.0.1:6379> sunionstore unionkey myset myset2 myset3
    (integer) 5
    #查看一下suiionstore的操作结果。
    redis 127.0.0.1:6379> smembers unionkey
    1) "b"
    2) "c"
    3) "d"
    4) "e"
    5) "a"

第十一步:封装redis 的java操作工具类

public class JedisUtil {

	 private static JedisPool pool = null;  
     
	    /** 
	     * 获取jedis连接池 
	     * */  
	    public static JedisPool getPool(){ 
	        if(pool == null){
	            //创建jedis连接池配置  
	            JedisPoolConfig config = new JedisPoolConfig();  
	            //最大连接数  
	            config.setMaxTotal(20);  
	            //最大空闲连接  
	            config.setMaxIdle(5);  
	            //创建redis连接池  
	            pool = new JedisPool(config,"192.168.52.202",6379,3000);  
	        }  
	        return pool;  
	    }  
	      
	    /** 
	     * 获取jedis连接 
	     * */  
	    public static Jedis getConn(){  
	        return getPool().getResource();  
	    }  
     
	    
	    
	    @Test
		public void getJedisTest() throws Exception {
			Jedis jedis = getPool().getResource();
	    	jedis.incrBy("mine", 5);
	    	jedis.close();
		}

}

10.6 kafka 当中的topic创建,以及模拟消息生产程序

10.6.1 创建我们的topic

bin/kafka-topics.sh  --create --replication-factor 2 --topic itcast_order --zookeeper node1:2181,node2:2181,node3:2181 --partitions 3

10.6.2 创建maven项目并导入必须依赖的jar包

<dependencies>
		<!--  use new kafka spout code -->
		  <dependency>
		    <groupId>org.apache.storm</groupId>
		    <artifactId>storm-core</artifactId>
		    <version>1.1.1</version>
		    <scope>provided</scope>
		</dependency>
		        <dependency>
            <groupId>org.apache.storm</groupId>
            <artifactId>storm-kafka-client</artifactId>
            <version>1.1.1</version>
        </dependency>
		<dependency>
		    <groupId>com.alibaba</groupId>
		    <artifactId>fastjson</artifactId>
		    <version>1.2.41</version>
		</dependency>
		 <dependency>
		    <groupId>redis.clients</groupId>
		    <artifactId>jedis</artifactId>
		    <version>2.9.0</version>
		</dependency>
  </dependencies>
  
   <build>  
	    <plugins>  
	        <plugin>  
	            <groupId>org.apache.maven.plugins</groupId>  
	            <artifactId>maven-compiler-plugin</artifactId>  
	            <configuration>  
	                <source>1.8</source>
	                <target>1.8</target>  
	            </configuration>  
	        </plugin>  
		     <plugin> 
			     <groupId>org.apache.maven.plugins</groupId> 
			     <artifactId>maven-shade-plugin</artifactId> 
			     <version>2.4.1</version> 
		     	<executions> 
				     <execution> 
				     	<phase>package</phase> 
					     <goals> 
					     	<goal>shade</goal> 
					     </goals> 
					     <configuration> 
						     <transformers> 
						     <transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer"> 
						     <mainClass>cn.itcast.storm.kafkaConsumer.KafkTopology</mainClass> 
						     </transformer> 
						     </transformers> 
					     </configuration> 
				     </execution> 
		     	</executions> 
		     </plugin>
	    </plugins>  
    </build>

10.7 代码实现

消息生产代码实现
第一步:创建我们的订单实体类

public class PaymentInfo {

	  private static final long serialVersionUID = -7958315778386204397L;
	    private String orderId;//订单编号
	    private Date createOrderTime;//订单创建时间
	    private String paymentId;//支付编号
	    private Date paymentTime;//支付时间
	    private String productId;//商品编号
	    private String productName;//商品名称
	    private long productPrice;//商品价格
	    private long promotionPrice;//促销价格
	    private String shopId;//商铺编号
	    private String shopName;//商铺名称
	    private String shopMobile;//商品电话
	    private long payPrice;//订单支付价格
	    private int num;//订单数量

	    /**
	     * <Province>19</Province>
	     * <City>1657</City>
	     * <County>4076</County>
	     */
	    private String province; //省
	    private String city; //市
	    private String county;//县

	    //102,144,114
	    private String catagorys;

	    public String getProvince() {
	        return province;
	    }

	    public void setProvince(String province) {
	        this.province = province;
	    }

	    public String getCity() {
	        return city;
	    }

	    public void setCity(String city) {
	        this.city = city;
	    }

	    public String getCounty() {
	        return county;
	    }

	    public void setCounty(String county) {
	        this.county = county;
	    }

	    public String getCatagorys() {
	        return catagorys;
	    }

	    public void setCatagorys(String catagorys) {
	        this.catagorys = catagorys;
	    }

	    public PaymentInfo() {
	    }

	    public PaymentInfo(String orderId, Date createOrderTime, String paymentId, Date paymentTime, String productId, String productName, long productPrice, long promotionPrice, String shopId, String shopName, String shopMobile, long payPrice, int num) {
	        this.orderId = orderId;
	        this.createOrderTime = createOrderTime;
	        this.paymentId = paymentId;
	        this.paymentTime = paymentTime;
	        this.productId = productId;
	        this.productName = productName;
	        this.productPrice = productPrice;
	        this.promotionPrice = promotionPrice;
	        this.shopId = shopId;
	        this.shopName = shopName;
	        this.shopMobile = shopMobile;
	        this.payPrice = payPrice;
	        this.num = num;
	    }

	    public String getOrderId() {
	        return orderId;
	    }

	    public void setOrderId(String orderId) {
	        this.orderId = orderId;
	    }

	    public Date getCreateOrderTime() {
	        return createOrderTime;
	    }

	    public void setCreateOrderTime(Date createOrderTime) {
	        this.createOrderTime = createOrderTime;
	    }

	    public String getPaymentId() {
	        return paymentId;
	    }

	    public void setPaymentId(String paymentId) {
	        this.paymentId = paymentId;
	    }

	    public Date getPaymentTime() {
	        return paymentTime;
	    }

	    public void setPaymentTime(Date paymentTime) {
	        this.paymentTime = paymentTime;
	    }

	    public String getProductId() {
	        return productId;
	    }

	    public void setProductId(String productId) {
	        this.productId = productId;
	    }

	    public String getProductName() {
	        return productName;
	    }

	    public void setProductName(String productName) {
	        this.productName = productName;
	    }

	    public long getProductPrice() {
	        return productPrice;
	    }

	    public void setProductPrice(long productPrice) {
	        this.productPrice = productPrice;
	    }

	    public long getPromotionPrice() {
	        return promotionPrice;
	    }

	    public void setPromotionPrice(long promotionPrice) {
	        this.promotionPrice = promotionPrice;
	    }

	    public String getShopId() {
	        return shopId;
	    }

	    public void setShopId(String shopId) {
	        this.shopId = shopId;
	    }

	    public String getShopName() {
	        return shopName;
	    }

	    public void setShopName(String shopName) {
	        this.shopName = shopName;
	    }

	    public String getShopMobile() {
	        return shopMobile;
	    }

	    public void setShopMobile(String shopMobile) {
	        this.shopMobile = shopMobile;
	    }

	    public long getPayPrice() {
	        return payPrice;
	    }

	    public void setPayPrice(long payPrice) {
	        this.payPrice = payPrice;
	    }

	    public int getNum() {
	        return num;
	    }

	    public void setNum(int num) {
	        this.num = num;
	    }

	    @Override
	    public String toString() {
	        return "PaymentInfo{" +
	                "orderId='" + orderId + '\'' +
	                ", createOrderTime=" + createOrderTime +
	                ", paymentId='" + paymentId + '\'' +
	                ", paymentTime=" + paymentTime +
	                ", productId='" + productId + '\'' +
	                ", productName='" + productName + '\'' +
	                ", productPrice=" + productPrice +
	                ", promotionPrice=" + promotionPrice +
	                ", shopId='" + shopId + '\'' +
	                ", shopName='" + shopName + '\'' +
	                ", shopMobile='" + shopMobile + '\'' +
	                ", payPrice=" + payPrice +
	                ", num=" + num +
	                '}';
	    }

	    public String random() {
	        this.orderId = UUID.randomUUID().toString().replaceAll("-", "");
	        this.paymentId = UUID.randomUUID().toString().replaceAll("-", "");
	        this.productPrice = new Random().nextInt(1000);
	        this.promotionPrice = new Random().nextInt(500);
	        this.payPrice = new Random().nextInt(480);
	        this.shopId = new Random().nextInt(200000)+"";

	        this.catagorys = new Random().nextInt(10000)+","+new Random().nextInt(10000)+","+new Random().nextInt(10000);
	        this.province = new Random().nextInt(23)+"";
	        this.city = new Random().nextInt(265)+"";
	        this.county = new Random().nextInt(1489)+"";

	        String date = "2015-11-11 12:22:12";
	        SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
	        try {
	            this.createOrderTime = simpleDateFormat.parse(date);
	        } catch (ParseException e) {
	            e.printStackTrace();
	        }
	        JSONObject obj = new JSONObject();
	        String jsonString = obj.toJSONString(this);
	        return jsonString;
	      //  return new Gson().toJson(this);
	    }
	
}

第二步:kafka生产者代码实现

public class PaymentInfoProducer {
	 public static void main(String[] args){
	        //1、准备配置文件
	        Properties props = new Properties();
	        props.put("bootstrap.servers", "192.168.52.200:9092,192.168.52.201:9092,192.168.52.202:9092");
	        /**
	         * 当生产者将ack设置为“全部”(或“-1”)时,min.insync.replicas指定必须确认写入被认为成功的最小副本数。
	         * 如果这个最小值不能满足,那么生产者将会引发一个异常(NotEnoughReplicas或NotEnoughReplicasAfterAppend)。
	         * 当一起使用时,min.insync.replicas和acks允许您执行更大的耐久性保证。
	         * 一个典型的情况是创建一个复制因子为3的主题,将min.insync.replicas设置为2,并使用“全部”选项来产生。
	         * 这将确保生产者如果大多数副本没有收到写入引发异常。
	         */
	        props.put("acks", "all");
	        /**
	         * 设置一个大于零的值,将导致客户端重新发送任何失败的记录
	         */
	        props.put("retries", 0);
	        /**
	         * 只要有多个记录被发送到同一个分区,生产者就会尝试将记录一起分成更少的请求。
	         * 这有助于客户端和服务器的性能。该配置以字节为单位控制默认的批量大小。
	         */
	        props.put("batch.size", 16384);
	        /**
	         *在某些情况下,即使在中等负载下,客户端也可能希望减少请求的数量。
	         * 这个设置通过添加少量的人工延迟来实现这一点,即不是立即发出一个记录,
	         * 而是等待达到给定延迟的记录,以允许发送其他记录,以便发送可以一起批量发送
	         */
	        props.put("linger.ms", 1);
	        /**
	         * 生产者可用于缓冲等待发送到服务器的记录的总字节数。
	         * 如果记录的发送速度比发送给服务器的速度快,那么生产者将会阻塞,max.block.ms之后会抛出异常。
	         * 这个设置应该大致对应于生产者将使用的总内存,但不是硬性限制,
	         * 因为不是所有生产者使用的内存都用于缓冲。
	         * 一些额外的内存将被用于压缩(如果压缩被启用)以及用于维护正在进行的请求。
	         */
	        props.put("buffer.memory", 33554432);
	        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
	        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
	        //2、创建KafkaProducer
	        KafkaProducer<String, String> kafkaProducer = new KafkaProducer<String, String>(props);
	        while (true){
	            //3、发送数据
	            kafkaProducer.send(new ProducerRecord<String, String>("itcast_order",new PaymentInfo().random()));
	            try {
	                Thread.sleep(1000);
	            } catch (InterruptedException e) {
	                e.printStackTrace();
	            }
	        }
	    }
}

消息消费代码实现
Kafka与storm整合

public class KafkTopology {
	public static void main(String[] args) throws Exception {
		KafkaSpoutConfig.Builder<String, String> builder = KafkaSpoutConfig.builder("192.168.200.100:9092,192.168.200.101:9092,192.168.200.102:9092","itcast_order");
        builder.setGroupId("test_storm_wc");
        KafkaSpoutConfig<String, String> kafkaSpoutConfig = builder.build();
        TopologyBuilder topologyBuilder = new TopologyBuilder();
        topologyBuilder.setSpout("KafkaSpout",new KafkaSpout<String,String>(kafkaSpoutConfig), 1);
        topologyBuilder.setBolt("ProcessingIndexBolt", new ProcessingIndexBolt()).localOrShuffleGrouping("KafkaSpout");
        Config config = new Config();
        if(args !=null && args.length > 0){
        	config.setDebug(false);
        	StormSubmitter submitter = new StormSubmitter();
        	submitter.submitTopology("kafkaStromTopo", config, topologyBuilder.createTopology());
        }else{
        	config.setDebug(true);
        	LocalCluster cluster = new LocalCluster();
        	cluster.submitTopology("kafkaStromTopo", config, topologyBuilder.createTopology());
        }
	}
}

消费kafka消息bolt

public class ProcessingIndexBolt extends BaseBasicBolt {

	private Jedis jedis;
	
	@Override
	public void execute(Tuple input, BasicOutputCollector collector) {
		System.out.println(input.getValues().get(4)+"消息接受bolt");
		String inputJson = input.getValues().get(4).toString();
		JSONObject obj = new JSONObject();
		PaymentInfo parseObject = obj.parseObject(inputJson, PaymentInfo.class);
		System.out.println(parseObject.getCatagorys());
		/**
			平台总销售额度 
			 redisRowKey设计  itcast:order:total:price:date
			平台今天下单人数
			redisRowKey设计  itcast:order:total:user:date
			平台商品销售数量
			redisRowKey设计  itcast:order:total:num:date
			
			每个商品的总销售额
			Redis的rowKey设计itcast:order:productId:price:date
			每个商品的购买人数
			Redis的rowKey设计itcast:order:productId:user:date
			每个商品的销售数量
			Redis的rowKey设计itcast:order:productId:num:date
			
			每个店铺的总销售额
			Redis的rowKey设计itcast:order:shopId:price:date
			每个店铺的购买人数
			Redis的rowKey设计itcast:order:shopId:user:date
			每个店铺的销售数量
			Redis的rowKey设计itcast:order:shopId:num:date
*/
		
		//获取redis的客户端连接,记得用完了连接一定要归还或者关闭
		Jedis conn = JedisUtil.getConn();
		conn.incrBy("itcast:order:total:price:date", parseObject.getPayPrice());
		conn.incrBy("itcast:order:total:price:date", 1);
		conn.incrBy(" itcast:order:total:num:date", 1);
		
		conn.incrBy("itcast:order:"+parseObject.getProductId()+":price:date", parseObject.getPayPrice());
		conn.incrBy("itcast:order:"+parseObject.getProductId()+":user:date", 1);
		conn.incrBy("itcast:order:"+parseObject.getProductId()+":num:date", 1);
		
		conn.incrBy("itcast:order:"+parseObject.getShopId()+":price:date", parseObject.getPayPrice());
		conn.incrBy("itcast:order:"+parseObject.getShopId()+":user:date", 1);
		conn.incrBy("itcast:order:"+parseObject.getShopId()+":num:date", 1);
		conn.close();
		
	}

	@Override
	public void declareOutputFields(OutputFieldsDeclarer declarer) {
		
		
	}
}

Redis使用工具类

public class JedisUtil {

	 private static JedisPool pool = null;  
	    /** 
	     * 获取jedis连接池 
	     * */  
	    public static JedisPool getPool(){
	        if(pool == null){
	            //创建jedis连接池配置  
	            JedisPoolConfig config = new JedisPoolConfig();  
	            //最大连接数  
	            config.setMaxTotal(20);  
	            //最大空闲连接  
	            config.setMaxIdle(5);  
	            //创建redis连接池  
	            pool = new JedisPool(config,"192.168.200.101",6379,3000);  
	        }  
	        return pool;  
	    }  
	      
	    /** 
	     * 获取jedis连接 
	     * */  
	    public static Jedis getConn(){  
	        return getPool().getResource();  
	    }  
     
	    @Test
		public void getJedisTest() throws Exception {
			Jedis jedis = getPool().getResource();
	    	jedis.incrBy("mine", 5);
	    	jedis.close();
		}

}

将任务提交到集群上面去运行
bin/storm jar cn.itcast.storm.kafkaAndStorm.KafkTopology kafkaStorm

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值