Redis应用——使用消息队列发布微博

在一些用户创造内容的应用中(如:SNS、微博),可能出现1秒有上万个用户同时发布消息的情况,此时如果只只用MySQL数据库,很可能出现“too many connections”的错误,当然,我们可以把MySQL的max_connections参数设置为更大的值,但这是一个治标不治本的方法。这时,可以考虑使用Redis。

Redis非常适合处理这类高并发的写操作,使用Redis的list类型作为消息队列,把用户发布的消息暂时存储在消息队列中,接着使用一个cron程序把消息队列中的消息插入MySQL。这样,就可以有效减少MySQL的并发量。

例如,发布一条微博使用以下接口:

    
    post($uid, $content, $timestamp);  // 写入MySQL数据库
?>
这种直接将用户提交的微博数据写入MySQL的方式,在高并发的情况下,很容易出现问题。Weibo对象的post方法就是发布微博的接口,它直接把微博写入MySQL。

为了降低MySQL的并发数,先把用户发布的微博存在Redis中,代码如下:

    
    connect('127.0.0.1') || die('连接redis服务器失败!');        // 连接redis服务器
$redis->auth('foobared');    // 密码验证
$redis->select(0);        // 选择0号数据库
$redis->setOption(Redis::OPT_PREFIX, 'my-prefix:');    // 设置键名的前缀(相当于MySQL的表前缀)
$data = array(
        'uid'        =>    strip_tags(trim($_POST['uid'])),  // 用户的id
        'content'    =>    strip_tags(trim($_POST['content'])),  // 微博的内容
        'timestamp'    =>    time()
);
$redis->lPush('weibo_list', json_encode($data));
$redis->close();    // 关闭redis数据库连接
?>
注意:要想在PHP中创建Redis对象,必须先安装phpredis扩展,安装方法可参考: http://blog.csdn.net/lamp_yang_3533/article/details/52555111

先把微博数据信息使用json_encode转换为json字符串,然后使用Redis对象的lpush方法把微博信息插入到weibo_list队列(链表类型)。

然后,编写一个cron程序(计划任务)把Redis中的微博信息依次插入到MySQL中,代码如下:

    
    connect('127.0.0.1') || die('连接redis服务器失败!');        // 连接redis服务器
$redis->auth('foobared');    // 密码验证
$redis->select(0);        // 选择0号数据库
$redis->setOption(Redis::OPT_PREFIX, 'my-prefix:');    // 设置键名的前缀(相当于MySQL的表前缀)

$weibo = new Weibo();    // 创建Weibo对象
while (true) {
    if ($redis->lSize('weibo_list')>0) {
        $value = $redis->rPop('weibo_list');  // rpop方法配合lpush方法实现队列的先进先出
        $info = json_decode($value);
        $weibo->post($info->uid, $info->content, $info->timestamp);    // 写入MySQL数据库
    } else {
        sleep(1);    // 如果队列中没有任务,就睡眠1s,让出CPU给其他进程
    }
}
$redis->close();
?>
在该cron程序中,先使用Redis对象的rpop()方法从weibo_list列表中取得一条微博信息,然后使用json_decode()函数解码,最后调用Weibo对象的post方法把微博信息插入到MySQL。

使用消息队列有一个缺点,就是“延时”。为了把延时降到最低,运行多个cron程序同时把消息队列中的数据插入MySQL。使用消息队列的好处是扩展性好,当一台Redis服务器不能应付大量并发时,使用“一致性Hash算法”把并发分发到多个Redis服务器。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值